このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210601となっている論文です。

PDF登録状況(公開日: 20210601)

TitleAuthorsAbstract論文公表日・翻訳日
# (参考訳) 統合グラディエントを用いたBERTが学習した言語学的受容性 [全文訳有]

Using Integrated Gradients to explain Linguistic Acceptability learnt by BERT ( http://arxiv.org/abs/2106.07349v1 )

ライセンス: CC BY 4.0
Anmol Nayak, Hari Prasad Timmapathini(参考訳) BERTは、そのアーキテクチャにおけるマルチヘッド自己認識メカニズムを活用することで、言語理解のブレークスルーとなっている。 我々の知る限りでは、この研究は初めてLayer Integrated Gradients Attribution Scores (LIGAS)を活用して、BERTがCorp of Linguistic Acceptability (CoLA)ベンチマークデータセットで学んだ言語受容性基準を説明する。 Our experiments on 5 different categories of sentences lead to the following interesting findings: 1) LIGAS for Linguistically Acceptable (LA) sentences are significantly smaller in comparison to Linguistically Unacceptable (LUA) sentences, 2) There are specific subtrees of the Constituency Parse Tree (CPT) for LA and LUA sentences which contribute larger LIGAS, 3) Across the different categories of sentences we observed around 88% to 100% of the Correctly classified sentences had positive LIGAS, indicating a strong positive relationship to the prediction confidence of the model, and 4) Around 57% of the Misclassified sentences had positive LIGAS, which we believe can become correctly classified sentences if the LIGAS are parameterized in the loss function of the model.

BERT has been a breakthrough in language understanding by leveraging the multi-head self-attention mechanism in its architecture. To the best of our knowledge this work is the first to leverage Layer Integrated Gradients Attribution Scores (LIGAS) to explain the Linguistic Acceptability criteria that are learnt by BERT on the Corpus of Linguistic Acceptability (CoLA) benchmark dataset. Our experiments on 5 different categories of sentences lead to the following interesting findings: 1) LIGAS for Linguistically Acceptable (LA) sentences are significantly smaller in comparison to Linguistically Unacceptable (LUA) sentences, 2) There are specific subtrees of the Constituency Parse Tree (CPT) for LA and LUA sentences which contribute larger LIGAS, 3) Across the different categories of sentences we observed around 88% to 100% of the Correctly classified sentences had positive LIGAS, indicating a strong positive relationship to the prediction confidence of the model, and 4) Around 57% of the Misclassified sentences had positive LIGAS, which we believe can become correctly classified sentences if the LIGAS are parameterized in the loss function of the model.
翻訳日:2021-06-27 12:55:21 公開日:2021-06-01
# (参考訳) 視線追跡タスクのためのデータセット [全文訳有]

Dataset for eye-tracking tasks ( http://arxiv.org/abs/2106.07554v1 )

ライセンス: CC0 1.0
R. Ildar(参考訳) 近年、さまざまなディープニューラルネットワークが開発されているが、ディープネットワークの層が多すぎるため、トレーニングには長い時間と大量のデータセットが必要になる。 今日では、このようなディープネットワークを必要としない単純なタスクでも、さまざまなタスクにトレーニングされたディープニューラルネットワークを使用することが一般的です。 YoloV3やSSDなど、よく知られたディープネットワーク。 様々な物体の追跡と監視を目的としているため、重量は重く、特定のタスクの全体的な精度は低い。 視線追跡タスクは、特定の領域の虹彩の1つの物体のみを検出する必要がある。 したがって、このタスクにニューラルネットワークを使用するのは論理的である。 しかし問題は、モデルをトレーニングするのに適切なデータセットがないことだ。 本稿では,視覚追跡タスクのための畳み込みニューラルネットワークのカスタムモデルのトレーニングに適したデータセットを提案する。 データセットデータを使用することで、各ユーザは独立して、アイトラッキングタスクのための畳み込みニューラルネットワークモデルを事前トレーニングすることができる。 このデータセットには416×416ピクセルの拡張に注釈付き1万枚のアイイメージが含まれている。 注記情報付きテーブルは、各画像の視線の座標と半径を示している。 この写本は、視線追跡装置のためのデータセット作成のためのガイドとみなすことができる

In recent years many different deep neural networks were developed, but due to a large number of layers in deep networks, their training requires a long time and a large number of datasets. Today is popular to use trained deep neural networks for various tasks, even for simple ones in which such deep networks are not required. The well-known deep networks such as YoloV3, SSD, etc. are intended for tracking and monitoring various objects, therefore their weights are heavy and the overall accuracy for a specific task is low. Eye-tracking tasks need to detect only one object - an iris in a given area. Therefore, it is logical to use a neural network only for this task. But the problem is the lack of suitable datasets for training the model. In the manuscript, we presented a dataset that is suitable for training custom models of convolutional neural networks for eye-tracking tasks. Using data set data, each user can independently pre-train the convolutional neural network models for eye-tracking tasks. This dataset contains annotated 10,000 eye images in an extension of 416 by 416 pixels. The table with annotation information shows the coordinates and radius of the eye for each image. This manuscript can be considered as a guide for the preparation of datasets for eye-tracking devices
翻訳日:2021-06-27 12:51:04 公開日:2021-06-01
# クリックベイトですか? 機械学習を使って予測しよう

Is it a click bait? Let's predict using Machine Learning ( http://arxiv.org/abs/2106.07348v1 )

ライセンス: Link先を確認
Sohom Ghosh(参考訳) このデジタル化の時代、ニュース読者はオンラインでニュースを読む傾向にある。 これは、オンラインメディアがすぐに幅広いコンテンツにアクセスできるからである。 ですから、今日の状況を知るために明日の新聞を待たなくてもよいのです。 これらの美徳に加えて、オンラインニュースにはいくつかの逆もある。 ニュース記事に関するソーシャルメディア投稿(つぶやき)の存在は、実際のコンテンツを読むように指示するのではなく、ユーザーの注意を引くことだけを目的としている。 このようなポストをクリックベイトと呼ぶ。 このプロジェクトの目的は、新しい記事に関連するソーシャルメディア投稿(つぶやき)がクリックベイトである確率を予測できるシステムを開発することである。

In this era of digitisation, news reader tend to read news online. This is because, online media instantly provides access to a wide variety of content. Thus, people don't have to wait for tomorrow's newspaper to know what's happening today. Along with these virtues, online news have some vices as well. One such vice is presence of social media posts (tweets) relating to news articles whose sole purpose is to draw attention of the users rather than directing them to read the actual content. Such posts are referred to as clickbaits. The objective of this project is to develop a system which would be capable of predicting how likely are the social media posts (tweets) relating to new articles tend to be clickbait.
翻訳日:2021-06-27 09:02:08 公開日:2021-06-01
# ネステロフ型加速法の高速シンプレクティック積分器

Fast symplectic integrator for Nesterov-type acceleration method ( http://arxiv.org/abs/2106.07620v1 )

ライセンス: Link先を確認
Shin-itiro Goto and Hideitsu Hino(参考訳) 本論文では,Nesterovの加速勾配法の収束率の向上に寄与する非自明な常微分方程式(ODE)に対して,シンプレクティックおよび接触幾何学に基づく明示的な安定積分器を提案する。 シンプレクティック幾何学はハミルトン力学の記述に適していることが知られており、接触幾何学はシンプレクティック幾何学の奇数次元対応として知られている。 さらに、シンプレクタゼーションと呼ばれる手続きは接触多様体からシンプレクティック多様体を構築する既知の方法であり、接触多様体からハミルトン系を生成する。 この論文では、以前に研究された非自明なODEは、接触ハミルトン系として記述できる。 そして、非自明なODEを表す非自明な接触ハミルトンベクトル場のシンプレクティック化により、新しいシンプレクティック積分器が導出される。 提案したシンプレクティック積分器はODE内に隠されたシンプレクティック構造と接触構造を保持するため、ランゲ・クッタ法よりも安定である。 数値実験により, 2階シンプレクティック積分器は安定であり, 高収束率が得られることが示された。

In this paper, explicit stable integrators based on symplectic and contact geometries are proposed for a non-autonomous ordinarily differential equation (ODE) found in improving convergence rate of Nesterov's accelerated gradient method. Symplectic geometry is known to be suitable for describing Hamiltonian mechanics, and contact geometry is known as an odd-dimensional counterpart of symplectic geometry. Moreover, a procedure, called symplectization, is a known way to construct a symplectic manifold from a contact manifold, yielding Hamiltonian systems from contact ones. It is found in this paper that a previously investigated non-autonomous ODE can be written as a contact Hamiltonian system. Then, by symplectization of a non-autonomous contact Hamiltonian vector field expressing the non-autonomous ODE, novel symplectic integrators are derived. Because the proposed symplectic integrators preserve hidden symplectic and contact structures in the ODE, they should be more stable than the Runge-Kutta method. Numerical experiments demonstrate that, as expected, the second-order symplectic integrator is stable and high convergence rates are achieved.
翻訳日:2021-06-27 09:01:59 公開日:2021-06-01
# (参考訳) FiSH: 空間ホットスポット [全文訳有]

FiSH: Fair Spatial Hotspots ( http://arxiv.org/abs/2106.06049v1 )

ライセンス: CC BY 4.0
Deepak P, Sowmya S Sundaram(参考訳) 追跡デバイスの普及と空間的位置データの可用性の強化は、空間ホットスポット検出などの計算データ解析タスクを通じて、様々な政策介入に利用することへの関心を深めている。 本稿では,空間的ホットスポットの検出における公平性について,我々の最善の知識から初めて考察する。 我々は、選択したホットスポットにまたがる集団人口に対する統計的公平性を通じて公正性を確保する必要性を動機付けている。 次に,注意と公正のトレードオフスペクトルにおいて,多様なソリューションセットを識別するタスクを特徴付け,ポリシー領域によって正当化されたトレードオフを選択する権限を与える。 新たなタスクの定式化として,タスクの関連する側面を評価する必要性を動機とする,公正なホットスポット評価指標のスイートも開発した。 本研究は, 単純かつ直接的アプローチによる公平なホットスポットの同定と, 高品質で公平で多様な空間的ホットスポットを効率的に同定するためのコードネーム {\it fish} の考案による計算不可能性を示す。 FiSHは、空間ホットスポットの有効かつ公平な集合を特定するためのヒューリスティックスを用いて、木構造検索空間を横断する。 人間の開発領域から得られた実世界のデータセットに対する広範な実証分析を通じて、高速な応答時間で高品質なソリューションが生成されることを示す。

Pervasiveness of tracking devices and enhanced availability of spatially located data has deepened interest in using them for various policy interventions, through computational data analysis tasks such as spatial hot spot detection. In this paper, we consider, for the first time to our best knowledge, fairness in detecting spatial hot spots. We motivate the need for ensuring fairness through statistical parity over the collective population covered across chosen hot spots. We then characterize the task of identifying a diverse set of solutions in the noteworthiness-fairn ess trade-off spectrum, to empower the user to choose a trade-off justified by the policy domain. Being a novel task formulation, we also develop a suite of evaluation metrics for fair hot spots, motivated by the need to evaluate pertinent aspects of the task. We illustrate the computational infeasibility of identifying fair hot spots using naive and/or direct approaches and devise a method, codenamed {\it FiSH}, for efficiently identifying high-quality, fair and diverse sets of spatial hot spots. FiSH traverses the tree-structured search space using heuristics that guide it towards identifying effective and fair sets of spatial hot spots. Through an extensive empirical analysis over a real-world dataset from the domain of human development, we illustrate that FiSH generates high-quality solutions at fast response times.
翻訳日:2021-06-20 21:42:52 公開日:2021-06-01
# N-Gauss活性化関数に基づくニューラルネットワーク構造設計

Neural Network Structure Design based on N-Gauss Activation Function ( http://arxiv.org/abs/2106.07562v1 )

ライセンス: Link先を確認
Xiangri Lu, Hongbin Ma, Jingcheng Zhang(参考訳) 近年の研究では、畳み込みニューラルネットワークの活性化関数がリプシッツ条件を満たし、それに対応する畳み込みニューラルネットワーク構造をデータセットの規模に応じて構築することができ、データセットをより深く、より正確に、より効果的に訓練できることを示した。 本稿では,実験結果を受け入れ,コアブロックN-Gauss,N-Gauss,Swis h(Conv1,Conv2,FC1)のニューラルネットワーク構造設計を導入し,それぞれMNIST,CIFAR10,CIFAR1 00を訓練した。 実験により、n-gaussはアクティベーション関数の非線形モデリングの主要な役割を果たすことが示され、ディープ畳み込みニューラルネットワークは階層的非線形マッピング学習能力を持つ。 同時に、単純な1次元チャネル小データセット上のN-Gaussのトレーニング能力は、ReLUとSwishの性能と同等である。

Recent work has shown that the activation function of the convolutional neural network can meet the Lipschitz condition, then the corresponding convolutional neural network structure can be constructed according to the scale of the data set, and the data set can be trained more deeply, more accurately and more effectively. In this article, we have accepted the experimental results and introduced the core block N-Gauss, N-Gauss, and Swish (Conv1, Conv2, FC1) neural network structure design to train MNIST, CIFAR10, and CIFAR100 respectively. Experiments show that N-Gauss gives full play to the main role of nonlinear modeling of activation functions, so that deep convolutional neural networks have hierarchical nonlinear mapping learning capabilities. At the same time, the training ability of N-Gauss on simple one-dimensional channel small data sets is equivalent to the performance of ReLU and Swish.
翻訳日:2021-06-20 16:05:00 公開日:2021-06-01
# THG:双曲幾何変換器

THG: Transformer with Hyperbolic Geometry ( http://arxiv.org/abs/2106.07350v1 )

ライセンス: Link先を確認
Zhe Liu and Yibin Xu(参考訳) トランスフォーマーモデルアーキテクチャは、近年、さまざまなタスクにまたがる効果のために、ディープラーニングにおいて必須の要素となっている。 近年、オリジナルのトランスフォーマーアーキテクチャを改良した「xフォーマー」モデルの急増が提案されている。 しかし、これらの変種のほとんどは2次時間と自己注意のメモリ複雑性にのみ変化を起こす。 クエリとキーの間のドット製品。 さらに、それらはユークリッド空間でのみ計算されます。 本研究では, ユークリッド空間と双曲空間の両方の利点を生かした, 双曲幾何を用いたトランスフォーマー(THG)モデルを提案する。 thgは、クエリとキーを取得するために入力シーケンスに適用され、提案された双曲線形を用いて自己アテンションの線形変換を改善する。 シーケンスラベリングタスク,機械読解タスク,分類タスクに関する広範な実験により,本モデルの有効性と汎用性が示された。 また、thgが過剰フィッティングを緩和できることも示している。

Transformer model architectures have become an indispensable staple in deep learning lately for their effectiveness across a range of tasks. Recently, a surge of "X-former" models have been proposed which improve upon the original Transformer architecture. However, most of these variants make changes only around the quadratic time and memory complexity of self-attention, i.e. the dot product between the query and the key. What's more, they are calculate solely in Euclidean space. In this work, we propose a novel Transformer with Hyperbolic Geometry (THG) model, which take the advantage of both Euclidean space and Hyperbolic space. THG makes improvements in linear transformations of self-attention, which are applied on the input sequence to get the query and the key, with the proposed hyperbolic linear. Extensive experiments on sequence labeling task, machine reading comprehension task and classification task demonstrate the effectiveness and generalizability of our model. It also demonstrates THG could alleviate overfitting.
翻訳日:2021-06-20 16:04:44 公開日:2021-06-01
# (参考訳) AI対応型6G O-RANのネットワーク・物理層攻撃と対策 [全文訳有]

Network and Physical Layer Attacks and countermeasures to AI-Enabled 6G O-RAN ( http://arxiv.org/abs/2106.02494v1 )

ライセンス: CC BY-SA 4.0
Talha F. Rahman, Aly S. Abdalla, Keith Powell, Walaa AlQwider, and Vuk Marojevic(参考訳) 人工知能(AI)は、細胞ネットワークの展開、構成、管理において、ますます大きな役割を果たすだろう。 本稿では,AI駆動型6G無線アクセスネットワーク(RAN)のセキュリティへの影響について検討する。 6G標準化の予定時期はまだ数年先だが、6Gセキュリティに関する事前標準化作業はすでに進行中であり、基礎的および実験的研究の恩恵を受けるだろう。 Open RAN(O-RAN)は、AIコントロールを備えた次世代RANを構築するための、業界主導のオープンアーキテクチャとインターフェースを記述する。 このアーキテクチャを考慮すると、データ駆動ネットワークおよび物理層要素に対する重要な脅威、対応する対策、研究の方向性を識別する。

Artificial intelligence (AI) will play an increasing role in cellular network deployment, configuration and management. This paper examines the security implications of AI-driven 6G radio access networks (RANs). While the expected timeline for 6G standardization is still several years out, pre-standardization efforts related to 6G security are already ongoing and will benefit from fundamental and experimental research. The Open RAN (O-RAN) describes an industry-driven open architecture and interfaces for building next generation RANs with AI control. Considering this architecture, we identify the critical threats to data driven network and physical layer elements, the corresponding countermeasures, and the research directions.
翻訳日:2021-06-15 13:46:37 公開日:2021-06-01
# (参考訳) AMV : アルゴリズムメタデータ語彙 [全文訳有]

AMV : Algorithm Metadata Vocabulary ( http://arxiv.org/abs/2106.03567v1 )

ライセンス: CC BY 4.0
Biswanath Dutta and Jyotima Patel(参考訳) メタデータ語彙は様々な研究領域で使用される。 リソースの詳細な説明を提供する。 本研究では,アルゴリズムに関するメタデータ(特にコンピュータによる)を段階的に取得し,保存する語彙であるアルゴリズムメタデータ語彙(AMV)を開発する。 研究者が現在直面している問題は、任意の検索エンジンでアルゴリズムを検索する際に、関連性のある結果を得ることができないことだ。 AMVはセマンティックモデルとして表現され、OWLファイルを生成する。これは、アルゴリズムメタデータを知識グラフとして作成、公開したり、SPARQLエンドポイントを通じてメタデータサービスを提供することに関心のある人なら誰でも利用できる。 語彙をデザインするために,アルゴリズムユーザと実践者が直面する実際の問題を考えるための,明確に定義された手法を提案する。 評価は有望な結果を示す。

Metadata vocabularies are used in various domains of study. It provides an in-depth description of the resources. In this work, we develop Algorithm Metadata Vocabulary (AMV), a vocabulary for capturing and storing the metadata about the algorithms (a procedure or a set of rules that is followed step-by-step to solve a problem, especially by a computer). The snag faced by the researchers in the current time is the failure of getting relevant results when searching for algorithms in any search engine. AMV is represented as a semantic model and produced OWL file, which can be directly used by anyone interested to create and publish algorithm metadata as a knowledge graph, or to provide metadata service through SPARQL endpoint. To design the vocabulary, we propose a well-defined methodology, which considers real issues faced by the algorithm users and the practitioners. The evaluation shows a promising result.
翻訳日:2021-06-15 13:34:38 公開日:2021-06-01
# 1次元畳み込みニューラルネットワークを用いた混合系のラマンスペクトル解析

Raman spectral analysis of mixtures with one-dimensional convolutional neural network ( http://arxiv.org/abs/2106.05316v1 )

ライセンス: Link先を確認
M. Hamed Mozaffari and Li-Lin Tay(参考訳) 近年,ロバストな1次元畳み込みニューラルネットワーク (1-d cnns) とラマン分光法の組み合わせにより,未知の物質の迅速同定が高精度に行えることが期待されている。 この技術を使って、研究者は純粋な化合物を認識し、混合物中の未知の物質と区別することができる。 このアプローチの新規性は、トレーニングされたニューラルネットワークがデータの事前処理や後処理なしに自動的に動作することだ。 この手法を未知の混合物中の純粋な化合物の分類にまで拡張しようとする研究もある。 しかし、1次元cnnの適用は通常、純粋な化合物のバイナリ分類に制限されている。 ここでは、多成分混合物中の化学成分のスペクトル認識と定量化における新しいアプローチを紹介する。 この目的のために2つの1次元CNNモデルRaMixNet IとIIが開発された。 前者は混合物中の成分の迅速な分類、後者はそれらの成分の定量化を目的としている。 提案手法では, 混合物中の化合物の数に制限はない。 また、ラマンスペクトルにランダムベースラインを追加することにより、データ拡張手法も導入する。 実験の結果,RaMixNet I と II の分類精度は未知の試験混合物の分析では100%であり,RMixNet II モデルでは各成分の定量化では88%の回帰精度が得られることがわかった。

Recently, the combination of robust one-dimensional convolutional neural networks (1-D CNNs) and Raman spectroscopy has shown great promise in rapid identification of unknown substances with good accuracy. Using this technique, researchers can recognize a pure compound and distinguish it from unknown substances in a mixture. The novelty of this approach is that the trained neural network operates automatically without any pre- or post-processing of data. Some studies have attempted to extend this technique to the classification of pure compounds in an unknown mixture. However, the application of 1-D CNNs has typically been restricted to binary classifications of pure compounds. Here we will highlight a new approach in spectral recognition and quantification of chemical components in a multicomponent mixture. Two 1-D CNN models, RaMixNet I and II, have been developed for this purpose. The former is for rapid classification of components in a mixture while the latter is for quantitative determination of those constituents. In the proposed method, there is no limit to the number of compounds in a mixture. A data augmentation method is also introduced by adding random baselines to the Raman spectra. The experimental results revealed that the classification accuracy of RaMixNet I and II is 100% for analysis of unknown test mixtures; at the same time, the RaMixNet II model may achieve a regression accuracy of 88% for the quantification of each component.
翻訳日:2021-06-13 14:02:43 公開日:2021-06-01
# 歩行者軌道符号化用非対称bi-rnn

Asymmetrical Bi-RNN for pedestrian trajectory encoding ( http://arxiv.org/abs/2106.04419v1 )

ライセンス: Link先を確認
Rapha\"el Rozenberg, Joseph Gesnouin and Fabien Moutarde(参考訳) 歩行者の行動行動は、個々の目標と他のエージェントとの社会的相互作用の組み合わせを含む。 本稿では,U-RNNと呼ばれる非対称な双方向リカレントニューラルネットワークアーキテクチャをシーケンスエンコーダとして提案する。 Trajnet++ベンチマークの実験結果によると、U-LSTMの変種は、様々なアプローチと相互作用モジュールのための一般的なLSTMシーケンスエンコーダよりも、利用可能なすべてのメトリック(ADE、FDE、衝突速度)についてより良い結果が得られる。 Trajnet++ベンチマークのための非対称Bi-RNNの実装は、github.com/JosephGes nouin/Asymmetrical-B i-RNNs-to-encode-ped estrian-trajectories で利用可能である。

Pedestrian motion behavior involves a combination of individual goals and social interactions with other agents. In this article, we present a non-symmetrical bidirectional recurrent neural network architecture called U-RNN as a sequence encoder and evaluate its relevance to replace LSTMs for various forecasting models. Experimental results on the Trajnet++ benchmark show that the U-LSTM variant can yield better results regarding every available metric (ADE, FDE, Collision rate) than common LSTMs sequence encoders for a variety of approaches and interaction modules. Our implementation of the asymmetrical Bi-RNNs for the Trajnet++ benchmark is available at: github.com/JosephGes nouin/Asymmetrical-B i-RNNs-to-encode-ped estrian-trajectories
翻訳日:2021-06-13 14:02:22 公開日:2021-06-01
# レーダースペクトルを用いた深層学習対象分類の不確かさの検討

Investigation of Uncertainty of Deep Learning-based Object Classification on Radar Spectra ( http://arxiv.org/abs/2106.05870v1 )

ライセンス: Link先を確認
Kanil Patel, William Beluch, Kilian Rambach, Adriana-Eliza Cozma, Michael Pfeiffer and Bin Yang(参考訳) 近年,自動車用レーダの物体分類精度向上への関心が高まっているが,高い精度に加えて,予測の信頼性を評価する上で自動運転車の意思決定が重要であるが,dlネットワークの判断は不透明である。 近年のDL研究は,予測の不確かさの定量化について検討しており,本稿では,これらの手法が自動車のレーダ認識に有効である可能性について検討する。 特に,(1)領域シフト,(2)入力信号の破損,(3)未知物体の存在下での不確実性定量化がレーダ知覚をどのように支援できるかを評価する。 文献に見られる現象と一致して、深いレーダー分類器は間違った予測であっても過度に自信を持っていることがわかった。 モデルが未知の状況に対処できない場合に通知できないため、不確実性下での意思決定に信頼値を使用することに対する懸念が高まる。 正確な信頼度は、例えば複数の情報ソースの最適な統合を可能にする。 センサー・フュージョン経由で 本研究では, 最先端のポストホック不確実性校正を適用することにより, 信頼性対策の質を著しく向上できることを示す。 本研究は、DLネットワークのトレーニングと校正に関するさらなる研究が必要であることを示し、レーダーセンサを用いた安全な自動車物体分類の可能性を示している。

Deep learning (DL) has recently attracted increasing interest to improve object type classification for automotive radar.In addition to high accuracy, it is crucial for decision making in autonomous vehicles to evaluate the reliability of the predictions; however, decisions of DL networks are non-transparent. Current DL research has investigated how uncertainties of predictions can be quantified, and in this article, we evaluate the potential of these methods for safe, automotive radar perception. In particular we evaluate how uncertainty quantification can support radar perception under (1) domain shift, (2) corruptions of input signals, and (3) in the presence of unknown objects. We find that in agreement with phenomena observed in the literature,deep radar classifiers are overly confident, even in their wrong predictions. This raises concerns about the use of the confidence values for decision making under uncertainty, as the model fails to notify when it cannot handle an unknown situation. Accurate confidence values would allow optimal integration of multiple information sources, e.g. via sensor fusion. We show that by applying state-of-the-art post-hoc uncertainty calibration, the quality of confidence measures can be significantly improved,thereby partially resolving the over-confidence problem. Our investigation shows that further research into training and calibrating DL networks is necessary and offers great potential for safe automotive object classification with radar sensors.
翻訳日:2021-06-13 14:02:07 公開日:2021-06-01
# 条件付き生成逆ネットワークを用いたユーザ定義特性を用いたディジタルロック再構成

Digital rock reconstruction with user-defined properties using conditional generative adversarial networks ( http://arxiv.org/abs/2012.07719v2 )

ライセンス: Link先を確認
Qiang Zheng and Dongxiao Zhang(参考訳) 不確実性は、その固有の不均一性やその場測定の欠如により、地下岩の流動に至らない。 マルチスケールで不確実性解析を完了させるには,十分な岩石試料の提供が必須である。 デジタルロック技術の出現は、岩を再現する機会を提供するが、高いコストのために大量のサンプルを供給できないため、多様化された数学的手法の開発につながっている。 このうち2点統計(TPS)と多点統計(MPS)が一般的に利用されており、それぞれ低次統計情報と高次統計情報を取り入れている。 近年,優れた視覚的・地質学的リアリズムを持つ訓練画像の再生が可能なGAN(Generative Adversarial Network)が普及している。 しかし、標準のGANはデータからの情報のみを組み込むことができるが、ユーザ定義プロパティのインターフェースは残っていないため、再構成されたサンプルの表現性を制限できる。 本研究では,実際のトレーニングデータに類似したサンプルを再現することを目的とした,デジタル岩盤復元のための条件付きganを提案する。 実際,提案フレームワークは,岩盤画像からの高次情報を直接GANスキームに組み込むことで,MPSとTPSの目標を同時に実現し,低次情報を条件付きで保存することができる。 本研究では, 3つの復元実験を行い, 岩石の種類, 岩石のポロシティ, 相関長が再現された岩石画像に影響を及ぼすことを示す。 さらに,既存のGANとは対照的に,複数種類の岩の同時学習が可能であり,計算コストを不可視的に削減することができる。

Uncertainty is ubiquitous with flow in subsurface rocks because of their inherent heterogeneity and lack of in-situ measurements. To complete uncertainty analysis in a multi-scale manner, it is a prerequisite to provide sufficient rock samples. Even though the advent of digital rock technology offers opportunities to reproduce rocks, it still cannot be utilized to provide massive samples due to its high cost, thus leading to the development of diversified mathematical methods. Among them, two-point statistics (TPS) and multi-point statistics (MPS) are commonly utilized, which feature incorporating low-order and high-order statistical information, respectively. Recently, generative adversarial networks (GANs) are becoming increasingly popular since they can reproduce training images with excellent visual and consequent geologic realism. However, standard GANs can only incorporate information from data, while leaving no interface for user-defined properties, and thus may limit the representativeness of reconstructed samples. In this study, we propose conditional GANs for digital rock reconstruction, aiming to reproduce samples not only similar to the real training data, but also satisfying user-specified properties. In fact, the proposed framework can realize the targets of MPS and TPS simultaneously by incorporating high-order information directly from rock images with the GANs scheme, while preserving low-order counterparts through conditioning. We conduct three reconstruction experiments, and the results demonstrate that rock type, rock porosity, and correlation length can be successfully conditioned to affect the reconstructed rock images. Furthermore, in contrast to existing GANs, the proposed conditioning enables learning of multiple rock types simultaneously, and thus invisibly saves computational cost.
翻訳日:2021-06-07 09:09:07 公開日:2021-06-01
# 知識の追跡に関する調査

A Survey of Knowledge Tracing ( http://arxiv.org/abs/2105.15106v2 )

ライセンス: Link先を確認
Qi Liu, Shuanghong Shen, Zhenya Huang, Enhong Chen, and Yonghe Zheng(参考訳) 高品質な教育は、より持続可能な世界を達成するための鍵の1つだ。 新型コロナウイルスの感染拡大を受け、オンライン教育が流行し、学生も教師も家庭で学び、教えることができるようになった。 一方、オンライン学習プラットフォームを使って大量の学習データを記録し、調査することが可能になり、よりインテリジェントな教育サービスを提供できるようになった。 学生の進化する知識状態を監視することを目的とした知識追跡(KT)は、これらのインテリジェントサービスを支援するための基本的で重要な課題である。 そのため、この新興地域には研究の注意が払われており、かなりの進歩を遂げている。 本研究では,既存の基本ktモデルの新しい分類法を技術的観点から提案し,これらのモデルの包括的概要を体系的に示す。 さらに、より完全な学習プロセスを捉えるために、多くのKTモデルの変種が提案されている。 次に、学習過程の3つの段階(前、中、後)に関わるこれらの変種を、それぞれレビューする。 さらに、異なる教育シナリオにおけるKTの典型的な応用について述べる。 最後に、この急成長分野における今後の研究の方向性について述べる。

High-quality education is one of the keys to achieving a more sustainable world. The recent COVID-19 epidemic has triggered the outbreak of online education, which has enabled both students and teachers to learn and teach at home. Meanwhile, it is now possible to record and research a large amount of learning data using online learning platforms in order to offer better intelligent educational services. Knowledge Tracing (KT), which aims to monitor students' evolving knowledge state, is a fundamental and crucial task to support these intelligent services. Therefore, an increasing amount of research attention has been paid to this emerging area and considerable progress has been made. In this survey, we propose a new taxonomy of existing basic KT models from a technical perspective and provide a comprehensive overview of these models in a systematic manner. In addition, many variants of KT models have been proposed to capture more complete learning process. We then review these variants involved in three phases of the learning process: before, during, and after the student learning, respectively. Moreover, we present several typical applications of KT in different educational scenarios. Finally, we provide some potential directions for future research in this fast-growing field.
翻訳日:2021-06-06 11:07:59 公開日:2021-06-01
# (参考訳) 自律走行車の動作計画と制御のための深層強化学習アルゴリズムに関する研究 [全文訳有]

A Survey of Deep Reinforcement Learning Algorithms for Motion Planning and Control of Autonomous Vehicles ( http://arxiv.org/abs/2105.14218v2 )

ライセンス: CC BY 4.0
Fei Ye, Shen Zhang, Pin Wang, and Ching-Yao Chan(参考訳) 本研究では,強化学習(rl)を自律走行車の運動計画と制御に適用する研究の最近の文献を体系的に要約する。 多くの既存のコントリビューションは、手作りのモジュールで構成され、それぞれが人間の解釈の容易さのために選択された機能を持つパイプラインアプローチに起因している。 しかし、このアプローチはシステムレベルの最適化が欠如しているため、最大性能を自動保証しない。 そこで、本稿では、エンド・ツー・エンドのアプローチに陥り、パフォーマンスが向上し、システム・スケールが小さくなる傾向を示す。 しかし、その性能は専門家のデータ不足や一般化の問題にも悩まされている。 最後に、自動運転に深いRLアルゴリズムを適用した残りの課題を要約し、これらの課題に取り組むための今後の研究方向も提示する。

In this survey, we systematically summarize the current literature on studies that apply reinforcement learning (RL) to the motion planning and control of autonomous vehicles. Many existing contributions can be attributed to the pipeline approach, which consists of many hand-crafted modules, each with a functionality selected for the ease of human interpretation. However, this approach does not automatically guarantee maximal performance due to the lack of a system-level optimization. Therefore, this paper also presents a growing trend of work that falls into the end-to-end approach, which typically offers better performance and smaller system scales. However, their performance also suffers from the lack of expert data and generalization issues. Finally, the remaining challenges applying deep RL algorithms on autonomous driving are summarized, and future research directions are also presented to tackle these challenges.
翻訳日:2021-06-05 21:44:01 公開日:2021-06-01
# (参考訳) 複数のトークン化戦略を持つ韓国英語機械翻訳 [全文訳有]

Korean-English Machine Translation with Multiple Tokenization Strategy ( http://arxiv.org/abs/2105.14274v2 )

ライセンス: CC BY 4.0
Dojun Park, Youngjin Jang and Harksoo Kim(参考訳) 本研究では,機械翻訳モデルの学習結果にトークン化手法がどう影響するかを明らかにする。 本研究は, 韓国語を原語として, 英語を対象言語として, アルファベットトークン化, 形態素トークン化, およびBPEトークン化をそれぞれ適用し, トランスフォーマーニューラルネットワークを用いて, 9モデル毎に5万エポックを繰り返して比較実験を行った。 実験モデルのbleuスコアを計測した結果、bpeトークン化を韓国語に適用したモデルは35.73点を記録し、最高のパフォーマンスを示した。

This work was conducted to find out how tokenization methods affect the training results of machine translation models. In this work, alphabet tokenization, morpheme tokenization, and BPE tokenization were applied to Korean as the source language and English as the target language respectively, and the comparison experiment was conducted by repeating 50,000 epochs of each 9 models using the Transformer neural network. As a result of measuring the BLEU scores of the experimental models, the model that applied BPE tokenization to Korean and morpheme tokenization to English recorded 35.73, showing the best performance.
翻訳日:2021-06-05 18:08:53 公開日:2021-06-01
# (参考訳) 深部アンサンブルを用いたGreedy Bayesian Posterior Approximation [全文訳有]

Greedy Bayesian Posterior Approximation with Deep Ensembles ( http://arxiv.org/abs/2105.14275v2 )

ライセンス: CC BY 4.0
Aleksei Tiulpin and Matthew B. Blaschko(参考訳) 独立に訓練されたニューラルネットワークのアンサンブルは、ディープラーニングにおける予測の不確かさを推定するための最先端のアプローチであり、デルタ関数の混合による後方分布の近似と解釈できる。 アンサンブルの訓練は、損失ランドスケープの非凸性と個々のメンバーのランダムな初期化に依存し、その結果の後方近似は制御されない。 本稿では,関数空間における実後部とカーネル密度推定器間の$f$-divergenceを最小化する,この制限に対処する新しい原理的手法を提案する。 我々は、この目的を組合せの観点から分析し、任意の$f$ に対して混合成分に関して亜モジュラーであることを示す。 その後, グリーディアンサンブル構築の問題を考えるとともに, 全目的の限界ゲインから, アンサンブル法の新たな多様性用語を導出する。 このアプローチのパフォーマンスは、複数のデータセットでトレーニングされたさまざまなアーキテクチャにおける、コンピュータビジョンの分散ベンチマークで実証されます。 本手法のソースコードはhttps://github.com/M IPT-Oulu/greedy_ense mbles_trainingで公開されている。

Ensembles of independently trained neural networks are a state-of-the-art approach to estimate predictive uncertainty in Deep Learning, and can be interpreted as an approximation of the posterior distribution via a mixture of delta functions. The training of ensembles relies on non-convexity of the loss landscape and random initialization of their individual members, making the resulting posterior approximation uncontrolled. This paper proposes a novel and principled method to tackle this limitation, minimizing an $f$-divergence between the true posterior and a kernel density estimator in a function space. We analyze this objective from a combinatorial point of view, and show that it is submodular with respect to mixture components for any $f$. Subsequently, we consider the problem of greedy ensemble construction, and from the marginal gain of the total objective, we derive a novel diversity term for ensemble methods. The performance of our approach is demonstrated on computer vision out-of-distribution benchmarks in a range of architectures trained on multiple datasets. The source code of our method is publicly available at https://github.com/M IPT-Oulu/greedy_ense mbles_training.
翻訳日:2021-06-05 17:59:57 公開日:2021-06-01
# (参考訳) 文法精度評価(gae) : 機械翻訳モデルの量的固有性評価 [全文訳有]

Grammar Accuracy Evaluation (GAE): Quantifiable Intrinsic Evaluation of Machine Translation Models ( http://arxiv.org/abs/2105.14277v2 )

ライセンス: CC BY 4.0
Dojun Park, Youngjin Jang and Harksoo Kim(参考訳) 自然言語生成モデルの性能評価のための人間による本質的評価は、生成文の品質が外部的な評価だけでは完全に表現できないという事実を克服するために行われる。 それにもかかわらず、既存の内在的評価は評価者の基準に応じて大きなスコア偏差を有する。 本稿では,特定の評価基準を提供するための文法精度評価(GAE)を提案する。 bleuとgaeによる機械翻訳の品質分析の結果、bleuスコアは機械翻訳モデルの絶対的性能を表わさないこと、およびgaeがbleuの欠点を補うことを確認し、代替同義語や文構造の変化を柔軟に評価した。

Intrinsic evaluation by humans for the performance of natural language generation models is conducted to overcome the fact that the quality of generated sentences cannot be fully represented by only extrinsic evaluation. Nevertheless, existing intrinsic evaluations have a large score deviation according to the evaluator's criteria. In this paper, we propose Grammar Accuracy Evaluation (GAE) that can provide specific evaluating criteria. As a result of analyzing the quality of machine translation by BLEU and GAE, it was confirmed that the BLEU score does not represent the absolute performance of machine translation models and that GAE compensates for the shortcomings of BLEU with a flexible evaluation on alternative synonyms and changes in sentence structure.
翻訳日:2021-06-05 17:13:53 公開日:2021-06-01
# (参考訳) 畳み込みニューラルネットワークを用いた境界ボックスアノテーションの自動CT分割 [全文訳有]

Automatic CT Segmentation from Bounding Box Annotations using Convolutional Neural Networks ( http://arxiv.org/abs/2105.14314v2 )

ライセンス: CC BY 4.0
Yuanpeng Liu, Qinglei Hui, Zhiyi Peng, Shaolin Gong and Dexing Kong(参考訳) 臨床診断には医用画像の正確なセグメンテーションが重要である。 既存の自動セグメンテーション手法は、主に完全に教師ありの学習に基づいており、正確なアノテーションの需要が非常に高く、非常に費用がかかり、時間を要する。 この問題に対処するため,我々は,境界ボックスという形で,弱いアノテーションでのみ正確なセグメント化モデルを訓練できる,弱い教師付き学習に基づくctセグメント化手法を提案した。 提案手法は,1)k平均クラスタリングによる境界ボックスアノテーションによる擬似マスクの生成,2)分割モデルとして3次元U-Net畳み込みニューラルネットワークを反復的に訓練する。 いくつかのデータ前処理手法は性能向上に使用される。 この方法は3種類の臓器を含む4つのデータセットで627個のCTボリュームで検証された。 肝臓,脾臓,腎分画では95.19%,92.11%,91.45% の精度を示した。 実験の結果,本手法は正確で,効率的であり,臨床応用に適していることが示された。

Accurate segmentation for medical images is important for clinical diagnosis. Existing automatic segmentation methods are mainly based on fully supervised learning and have an extremely high demand for precise annotations, which are very costly and time-consuming to obtain. To address this problem, we proposed an automatic CT segmentation method based on weakly supervised learning, by which one could train an accurate segmentation model only with weak annotations in the form of bounding boxes. The proposed method is composed of two steps: 1) generating pseudo masks with bounding box annotations by k-means clustering, and 2) iteratively training a 3D U-Net convolutional neural network as a segmentation model. Some data pre-processing methods are used to improve performance. The method was validated on four datasets containing three types of organs with a total of 627 CT volumes. For liver, spleen and kidney segmentation, it achieved an accuracy of 95.19%, 92.11%, and 91.45%, respectively. Experimental results demonstrate that our method is accurate, efficient, and suitable for clinical use.
翻訳日:2021-06-05 16:02:37 公開日:2021-06-01
# (参考訳) 単一RGBカメラによるベイズ推定に基づくスペクトル分布の分離推定 [全文訳有]

Separated-Spectral-D istribution Estimation Based on Bayesian Inference with Single RGB Camera ( http://arxiv.org/abs/2106.01861v1 )

ライセンス: CC BY 4.0
Yuma Kinoshita and Hitoshi Kiya(参考訳) 本稿では,典型的なRGBカメラで撮影した画像からスペクトル分布を別々に推定する手法を提案する。 提案手法では,照明,反射率,カメラ感度のスペクトル分布を別々に推定できるが,近年のハイパースペクトルカメラはシーンからの同時スペクトル分布を捉えることに限られている。 さらに、ベイズ推定を用いることで、スペクトル分布と画像ノイズの両方の事前情報を確率分布として考慮することができる。 その結果,提案手法はスペクトル分布を統一的に推定することができ,従来のスペクトル分布推定法では不可能な雑音に対する推定の堅牢性を高めることができる。 ベイズ推論を用いることで,推定結果の信頼度も得ることができる。 実験では,提案手法が従来のrmse法を上回るだけでなく,雑音に対するロバスト性も示している。

In this paper, we propose a novel method for separately estimating spectral distributions from images captured by a typical RGB camera. The proposed method allows us to separately estimate a spectral distribution of illumination, reflectance, or camera sensitivity, while recent hyperspectral cameras are limited to capturing a joint spectral distribution from a scene. In addition, the use of Bayesian inference makes it possible to take into account prior information of both spectral distributions and image noise as probability distributions. As a result, the proposed method can estimate spectral distributions in a unified way, and it can enhance the robustness of the estimation against noise, which conventional spectral-distributio n estimation methods cannot. The use of Bayesian inference also enables us to obtain the confidence of estimation results. In an experiment, the proposed method is shown not only to outperform conventional estimation methods in terms of RMSE but also to be robust against noise.
翻訳日:2021-06-05 12:31:39 公開日:2021-06-01
# (参考訳) 気腫沈降のための深部クラスタリング活性化マップ [全文訳有]

Deep Clustering Activation Maps for Emphysema Subtyping ( http://arxiv.org/abs/2106.01351v1 )

ライセンス: CC BY 4.0
Weiyi Xie, Colin Jacobs, Bram van Ginneken(参考訳) 本稿では,CTスキャンから気腫のサブタイプを抽出するためのセグメンテーションネットワークから高密度な特徴を生かしたディープラーニングクラスタリング手法を提案する。 濃密な特徴を利用することで、高密度クラスタリングアクティベーションマップ(dCAM)を介して、クラスタ割り当てに対応する画像領域の高精細な可視化が可能になる。 このアプローチはモデル解釈性を提供する。 COPDGenestudyによる500名の被験者のクラスタリング結果について検討し,画像CTによる肺気腫サブタイプを手動でアノテートした。 教師なしクラスタリングの精度は43%で、ベースラインを41%で上回り、45%で教師付き分類に匹敵する結果を得た。 提案手法は, シルエット係数0.54, David-Bouldin スコア 0.55 に対して, ベースラインよりも優れたクラスタ形成を提供する。

We propose a deep learning clustering method that exploits dense features from a segmentation network for emphysema subtyping from computed tomography (CT) scans. Using dense features enables high-resolution visualization of image regions corresponding to the cluster assignment via dense clustering activation maps (dCAMs). This approach provides model interpretability. We evaluated clustering results on 500 subjects from the COPDGenestudy, where radiologists manually annotated emphysema sub-types according to their visual CT assessment. We achieved a 43% unsupervised clustering accuracy, outperforming our baseline at 41% and yielding results comparable to supervised classification at 45%. The proposed method also offers a better cluster formation than the baseline, achieving0.54 in silhouette coefficient and 0.55 in David-Bouldin scores.
翻訳日:2021-06-05 12:20:59 公開日:2021-06-01
# (参考訳) 深層学習を用いたSPECT MPIを用いた機械的不整脈からのCRT応答の新しい予測因子の探索 [全文訳有]

A method using deep learning to discover new predictors of CRT response from mechanical dyssynchrony on gated SPECT MPI ( http://arxiv.org/abs/2106.01355v1 )

ライセンス: CC BY 4.0
Zhuo He, Xinwei Zhang, Chen Zhao, Zhiyong Qian, Yao Wang, Xiaofeng Hou, Jiangang Zou, Weihua Zhou(参考訳) 背景。 従来の左室機械的同期(LVMD)パラメータには独自の統計的制限があることが研究で示されている。 本研究の目的は,CRT患者選択を支援するための深層学習により,ゲートSPECT MPIの位相解析から新しいLVMDパラメータを抽出することである。 方法。 SPECT SPECT MPI を施行した患者は 100 名, 3 名であった。 crt反応は6ヶ月+1カ月後に左室末端収縮容積 (lvesv) >=15%の減少と定義した。 教師なしのディープラーニング手法であるAutoencoder (AE) は、生のLVシストリック位相極写像を用いてトレーニングされ、AEベースのLVMDパラメータと呼ばれる新しいLVMDパラメータを抽出した。 新しいパラメータと従来のLVMDパラメータの関係を説明するために相関解析を用いた。 単変量および多変量解析を用いてCRT応答を予測する多変量モデルを構築した。 結果。 完全なデータは102例で得られ、44.1%はCRT応答薬に分類された。 AE-based LVMD parameters was significant in the univariate (OR 1.24, 95% CI 1.07 - 1.44, P = 0.006) and multivariate analysis (OR 1.03, 95% CI 1.01 - 1.06, P = 0.006)。 さらに, PSD (AUC 0.72 vs. 0.63, LH 8.06, P = 0.005) とPBW (AUC 0.72 vs. 0.64, LH 7.87, P = 0.005) を上回り, LVEF や性差など有意な臨床症状が認められた。 結論。 ベースラインゲートSPECT MPIからオートエンコーダによって抽出された新しいLVMDパラメータは、CRT応答の予測を改善する可能性がある。

Background. Studies have shown that the conventional left ventricular mechanical dyssynchrony (LVMD) parameters have their own statistical limitations. The purpose of this study is to extract new LVMD parameters from the phase analysis of gated SPECT MPI by deep learning to help CRT patient selection. Methods. One hundred and three patients who underwent rest gated SPECT MPI were enrolled in this study. CRT response was defined as a decrease in left ventricular end-systolic volume (LVESV) >= 15% at 6 +- 1 month follow up. Autoencoder (AE), an unsupervised deep learning method, was trained by the raw LV systolic phase polar maps to extract new LVMD parameters, called AE-based LVMD parameters. Correlation analysis was used to explain the relationships between new parameters with conventional LVMD parameters. Univariate and multivariate analyses were used to establish a multivariate model for predicting CRT response. Results. Complete data were obtained in 102 patients, 44.1% of them were classified as CRT responders. AE-based LVMD parameter was significant in the univariate (OR 1.24, 95% CI 1.07 - 1.44, P = 0.006) and multivariate analyses (OR 1.03, 95% CI 1.01 - 1.06, P = 0.006). Moreover, it had incremental value over PSD (AUC 0.72 vs. 0.63, LH 8.06, P = 0.005) and PBW (AUC 0.72 vs. 0.64, LH 7.87, P = 0.005), combined with significant clinic characteristics, including LVEF and gender. Conclusions. The new LVMD parameters extracted by autoencoder from the baseline gated SPECT MPI has the potential to improve the prediction of CRT response.
翻訳日:2021-06-05 11:59:52 公開日:2021-06-01
# (参考訳) Diffusion Schr\"odinger Bridgeとスコアベース生成モデルへの応用

Diffusion Schr\"odinger Bridge with Applications to Score-Based Generative Modeling ( http://arxiv.org/abs/2106.01357v1 )

ライセンス: CC0 1.0
Valentin De Bortoli, James Thornton, Jeremy Heng, Arnaud Doucet(参考訳) ガウス雑音の漸進的適用は、複素データ分布をおよそガウスに変換する。 このダイナミックな反転は生成モデルを定義する。 前方雑音発生過程が確率微分方程式(SDE)によって与えられる場合、Song et al。 (2021) スコアマッチングを用いて, 関連する逆時間SDEの時間不均一ドリフトを推定する方法を示した。 このアプローチの制限は、最終分布がほぼガウス的であるためには、前向きの SDE を十分に長い時間実行しなければならないことである。 対照的に、schr\"odinger bridge problem (sb) の解法である。 経路空間上のエントロピー規則化された最適輸送問題で、有限時間でデータ分布からサンプルを生成する拡散を生成する。 本稿では,SB問題を解くためにIterative Proportional Fitting (IPF) 法のオリジナル近似である Diffusion SB (DSB) を提案し,生成モデル実験とともに理論的解析を行った。 最初のDSBイテレーションは、Songらによって提案された方法論を復元する。 (2021年)は、後続のdsbの反復が前方(resp)の最終時間辺とのずれを減少させるため、より短い時間間隔を使用する柔軟性がある。 sde (複数形 sdes または sdes) データ)配信。 生成モデリング以外にも、DSBは人気のあるシンクホーンアルゴリズム(Cuturi, 2013)の連続状態空間アナログとして広く応用可能な計算最適輸送ツールを提供している。

Progressively applying Gaussian noise transforms complex data distributions to approximately Gaussian. Reversing this dynamic defines a generative model. When the forward noising process is given by a Stochastic Differential Equation (SDE), Song et al. (2021) demonstrate how the time inhomogeneous drift of the associated reverse-time SDE may be estimated using score-matching. A limitation of this approach is that the forward-time SDE must be run for a sufficiently long time for the final distribution to be approximately Gaussian. In contrast, solving the Schr\"odinger Bridge problem (SB), i.e. an entropy-regularized optimal transport problem on path spaces, yields diffusions which generate samples from the data distribution in finite time. We present Diffusion SB (DSB), an original approximation of the Iterative Proportional Fitting (IPF) procedure to solve the SB problem, and provide theoretical analysis along with generative modeling experiments. The first DSB iteration recovers the methodology proposed by Song et al. (2021), with the flexibility of using shorter time intervals, as subsequent DSB iterations reduce the discrepancy between the final-time marginal of the forward (resp. backward) SDE with respect to the prior (resp. data) distribution. Beyond generative modeling, DSB offers a widely applicable computational optimal transport tool as the continuous state-space analogue of the popular Sinkhorn algorithm (Cuturi, 2013).
翻訳日:2021-06-05 11:47:09 公開日:2021-06-01
# (参考訳) balanced spiking neural networkを用いたオンライン振動異常検出 [全文訳有]

Online Detection of Vibration Anomalies Using Balanced Spiking Neural Networks ( http://arxiv.org/abs/2106.00687v1 )

ライセンス: CC BY 4.0
Nik Dennler, Germain Haessig, Matteo Cartiglia, Giacomo Indiveri(参考訳) 振動パターンは、大規模産業システムの予測メンテナンスタスクに一般的に利用されるランニングマシンの健康状態に関する貴重な情報をもたらす。 しかし、この情報を利用する古典的な方法によって必要とされる、サイズ、複雑さ、電力予算のオーバーヘッドは、自動運転車、ドローン、ロボット工学のような小規模のアプリケーションでは、しばしば禁止される。 本稿では,幅広いシナリオに適用可能なスパイキングニューラルネットワークを用いた振動解析を行うためのニューロモルフィックアプローチを提案する。 本稿では,アナログディジタルニューロモルフィック回路と互換性のあるビルディングブロックを用いて,振動データからシステム異常を検出するスパイクベースのエンドツーエンドパイプラインを提案する。 このパイプラインはオンラインの教師なしの方法で動作し、コチェリーモデル、フィードバック適応、バランスの取れたスパイクニューラルネットワークに依存している。 提案手法は,2つの公開データセットに対して,最先端の性能あるいは優れた性能を実現する。 さらに,非同期なニューロモーフィックプロセッサデバイスに実装された概念実証を行う。 この研究は、オンライン振動監視のための自律低消費電力エッジコンピューティングデバイスの設計と実装に向けた重要な一歩である。

Vibration patterns yield valuable information about the health state of a running machine, which is commonly exploited in predictive maintenance tasks for large industrial systems. However, the overhead, in terms of size, complexity and power budget, required by classical methods to exploit this information is often prohibitive for smaller-scale applications such as autonomous cars, drones or robotics. Here we propose a neuromorphic approach to perform vibration analysis using spiking neural networks that can be applied to a wide range of scenarios. We present a spike-based end-to-end pipeline able to detect system anomalies from vibration data, using building blocks that are compatible with analog-digital neuromorphic circuits. This pipeline operates in an online unsupervised fashion, and relies on a cochlea model, on feedback adaptation and on a balanced spiking neural network. We show that the proposed method achieves state-of-the-art performance or better against two publicly available data sets. Further, we demonstrate a working proof-of-concept implemented on an asynchronous neuromorphic processor device. This work represents a significant step towards the design and implementation of autonomous low-power edge-computing devices for online vibration monitoring.
翻訳日:2021-06-05 11:45:55 公開日:2021-06-01
# (参考訳) 対称性-via-duality:パラメータ空間相関器からの不変ニューラルネットワーク密度 [全文訳有]

Symmetry-via-Duality : Invariant Neural Network Densities from Parameter-Space Correlators ( http://arxiv.org/abs/2106.00694v1 )

ライセンス: CC BY 4.0
Anindita Maiti, Keegan Stoner, James Halverson(参考訳) パラメータ空間と関数空間は、ニューラルネットワークを研究するための2つの異なる双対フレームを提供する。 ネットワーク密度の対称性は、密度が未知で同値でない場合でも、ネットワーク相関関数の双対計算によって決定できることを示す。 対称性と双対性は、ネットワークパラメータ分布の選択に由来する相関関数の不変性に依存する。 ニューラルネットワーク密度の入力および出力対称性が決定され、既知のガウス過程が回復すると無限の幅制限が生じる。 このメカニズムは、パラメータが相関している場合や、神経接核の対称性など、トレーニング中の対称性を決定するためにも利用できる。 初期化密度における対称性の量は、Fashion-MNISTで訓練されたネットワークの精度に影響を及ぼし、対称性の破れは、それが基底真理の方向にある場合にのみ役立つことを実証する。

Parameter-space and function-space provide two different duality frames in which to study neural networks. We demonstrate that symmetries of network densities may be determined via dual computations of network correlation functions, even when the density is unknown and the network is not equivariant. Symmetry-via-duality relies on invariance properties of the correlation functions, which stem from the choice of network parameter distributions. Input and output symmetries of neural network densities are determined, which recover known Gaussian process results in the infinite width limit. The mechanism may also be utilized to determine symmetries during training, when parameters are correlated, as well as symmetries of the Neural Tangent Kernel. We demonstrate that the amount of symmetry in the initialization density affects the accuracy of networks trained on Fashion-MNIST, and that symmetry breaking helps only when it is in the direction of ground truth.
翻訳日:2021-06-05 11:37:36 公開日:2021-06-01
# (参考訳) グラフニューラルネットワークを用いた協調的モバイルクラウドソーシングのための低複雑性リクルート [全文訳有]

Low Complexity Recruitment for Collaborative Mobile Crowdsourcing Using Graph Neural Networks ( http://arxiv.org/abs/2106.00717v1 )

ライセンス: CC BY 4.0
Aymen Hamrouni, Hakim Ghazzai, Turki Alelyani, Yehia Massoud(参考訳) コラボレーティブ・モバイル・クラウドソーシング(CMCS、Collaborative Mobile crowdsourcing)は、例えば地方自治体や個人が、接続された人々の群衆から労働者のチームを雇い、複雑なタスクを実行することを可能にする。 本稿では,タスク依頼者がソーシャル・コネクテッドで熟練した労働者のチームを作るための2つの異なるCMCS採用戦略について検討する。つまり,プラットフォームが作業員に関する自身の知識を活用してチームを編成するプラットフォームベースの戦略と,プラットフォームが自身のソーシャル・ネットワーク(SN)隣人について独自の知識を持つ適切なチームを採用するグループリーダーを指定するリーダベースの戦略である。 Integer Linear Program (ILP) として採用を定式化し、4つのファジィ論理に基づく基準(専門知識レベル、社会的関係の強さ、採用コスト、採用者の信頼度レベル)に従ってチームを最適に形成する。 NP硬度に対処するため,グラフニューラルネットワーク(GNN)を利用した新しい低複雑さCMCS採用手法を設計し,特にグラフ埋め込みとクラスタリング技術を用いて,作業者の検索空間を縮小し,その後,適切な作業者を選択するためにメタヒューリスティックな遺伝的アルゴリズムを活用する。 実世界のデータセットに適用したシミュレーション結果から,CMCS採用手法の有効性が示された。 提案手法は,大規模モバイルクラウドソーシングプラットフォーム上での計算時間削減と運用能力により,ベースライン型IPPと比較して高い性能を達成できることが示唆された。 また、リーダーベースの戦略と比較して、プラットフォームベースの戦略はより熟練したチームを採用するが、SN関係は低く、コストも高い。

Collaborative Mobile crowdsourcing (CMCS) allows entities, e.g., local authorities or individuals, to hire a team of workers from the crowd of connected people, to execute complex tasks. In this paper, we investigate two different CMCS recruitment strategies allowing task requesters to form teams of socially connected and skilled workers: i) a platform-based strategy where the platform exploits its own knowledge about the workers to form a team and ii) a leader-based strategy where the platform designates a group leader that recruits its own suitable team given its own knowledge about its Social Network (SN) neighbors. We first formulate the recruitment as an Integer Linear Program (ILP) that optimally forms teams according to four fuzzy-logic-based criteria: level of expertise, social relationship strength, recruitment cost, and recruiter's confidence level. To cope with NP-hardness, we design a novel low-complexity CMCS recruitment approach relying on Graph Neural Networks (GNNs), specifically graph embedding and clustering techniques, to shrink the workers' search space and afterwards, exploiting a meta-heuristic genetic algorithm to select appropriate workers. Simulation results applied on a real-world dataset illustrate the performance of both proposed CMCS recruitment approaches. It is shown that our proposed low-complexity GNN-based recruitment algorithm achieves close performances to those of the baseline ILP with significant computational time saving and ability to operate on large-scale mobile crowdsourcing platforms. It is also shown that compared to the leader-based strategy, the platform-based strategy recruits a more skilled team but with lower SN relationships and higher cost.
翻訳日:2021-06-05 11:06:09 公開日:2021-06-01
# (参考訳) fair-net:識別可能なサブ人口間のパフォーマンス格差を軽減するネットワークアーキテクチャ [全文訳有]

Fair-Net: A Network Architecture For Reducing Performance Disparity Between Identifiable Sub-Populations ( http://arxiv.org/abs/2106.00720v1 )

ライセンス: CC BY 4.0
Arghya Datta, S. Joshua Swamidass(参考訳) 現実世界のデータセットでは、特定のグループは過度に表現され、他のものよりはるかにまれであり、マシンラーニングの分類器は、過度に表現された人口に先立つことが多い。 この問題は、データセットがクラス不均衡であり、マイノリティクラスが多数派クラスよりもはるかに稀な多くのドメインで悪化する。 下位表現とクラス不均衡を扱うための有望なアプローチには、クラス不均衡を扱うサブポピュレーション固有の分類器の訓練や、サブポピュレーションの格差を無視し、クラス不均衡を扱うことで高い全体的な精度を達成することを目的としたグローバルな分類器の訓練が含まれる。 本研究では,これらの手法が少数サブ人口のクラス不均衡データセットにおいて脆弱であることを示す。 fair-netは分岐型マルチタスクニューラルネットワークアーキテクチャで、クラス不均衡データセットにおける識別可能なサブポピュレーションの分類精度と確率校正を両立させる。 Fair-Netsは、ネットワークの出力層とエラー関数への直接的な拡張であり、より複雑なアーキテクチャに組み込むことができる。 3つの実世界のベンチマークデータセットを用いた実証研究により、Fair-Netは分類と校正性能を改善し、性別と人種のサブ人口間のパフォーマンス格差を大幅に減らした。

In real world datasets, particular groups are under-represented, much rarer than others, and machine learning classifiers will often preform worse on under-represented populations. This problem is aggravated across many domains where datasets are class imbalanced, with a minority class far rarer than the majority class. Naive approaches to handle under-representation and class imbalance include training sub-population specific classifiers that handle class imbalance or training a global classifier that overlooks sub-population disparities and aims to achieve high overall accuracy by handling class imbalance. In this study, we find that these approaches are vulnerable in class imbalanced datasets with minority sub-populations. We introduced Fair-Net, a branched multitask neural network architecture that improves both classification accuracy and probability calibration across identifiable sub-populations in class imbalanced datasets. Fair-Nets is a straightforward extension to the output layer and error function of a network, so can be incorporated in far more complex architectures. Empirical studies with three real world benchmark datasets demonstrate that Fair-Net improves classification and calibration performance, substantially reducing performance disparity between gender and racial sub-populations.
翻訳日:2021-06-05 10:33:41 公開日:2021-06-01
# (参考訳) 関数型オブジェクト指向ネットワークから生成するレシピの評価 [全文訳有]

Evaluating Recipes Generated from Functional Object-Oriented Network ( http://arxiv.org/abs/2106.00728v1 )

ライセンス: CC BY 4.0
Md Sadman Sakib, Hailey Baez, David Paulius, and Yu Sun(参考訳) 関数型オブジェクト指向ネットワーク(foon)は,シンボリックタスク計画のためのグラフ形式の知識表現として導入された。 ロボットは、操作タスクのシーケンシャルプランを得るために、FOONから知識検索プロセスを通じてタスクツリーを得ることができる。 獲得したタスクツリーの品質を評価するため,レシピやマニュアルなどの従来のタスク知識と比較した。 まずタスクツリーをレシピに自動的に変換し、それをRecipe1M+データセットの人間が作ったレシピと比較します。 Recipe1M+のレシピとFOONタスクツリーのレシピの間には,正確性,完全性,明確性という点で有意な差は認められなかった。

The functional object-oriented network (FOON) has been introduced as a knowledge representation, which takes the form of a graph, for symbolic task planning. To get a sequential plan for a manipulation task, a robot can obtain a task tree through a knowledge retrieval process from the FOON. To evaluate the quality of an acquired task tree, we compare it with a conventional form of task knowledge, such as recipes or manuals. We first automatically convert task trees to recipes, and we then compare them with the human-created recipes in the Recipe1M+ dataset via a survey. Our preliminary study finds no significant difference between the recipes in Recipe1M+ and the recipes generated from FOON task trees in terms of correctness, completeness, and clarity.
翻訳日:2021-06-05 10:21:06 公開日:2021-06-01
# (参考訳) 英語アラビア語機械翻訳における音声と普遍的依存の影響 [全文訳有]

Part of Speech and Universal Dependency effects on English Arabic Machine Translation ( http://arxiv.org/abs/2106.00745v1 )

ライセンス: CC0 1.0
Omri Abend, Leshem Choshen, Dmitry Nikolaev, Ofek Rafaeli(参考訳) 本稿では,英語とアラビア語の文法的現象を基礎とした機械翻訳モデルの評価手法について述べる。 このような「神経」や「機械学習」は微調整や変化が難しいため、この方法は特に重要である。 したがって、それらを容易かつ多様に評価する方法を見つけることは、それらを改善するタスクに大いに役立ちます。

In this research paper, I will elaborate on a method to evaluate machine translation models based on their performance on underlying syntactical phenomena between English and Arabic languages. This method is especially important as such "neural" and "machine learning" are hard to fine-tune and change. Thus, finding a way to evaluate them easily and diversely would greatly help the task of bettering them.
翻訳日:2021-06-05 10:06:06 公開日:2021-06-01
# (参考訳) 無限水平動的計画法におけるオンラインポリシーイテレーション [全文訳有]

On-Line Policy Iteration for Infinite Horizon Dynamic Programming ( http://arxiv.org/abs/2106.00746v1 )

ライセンス: CC BY 4.0
Dimitri Bertsekas(参考訳) 本稿では,有限状態無限大地平線ディスカウント動的計画のためのオンラインポリシー反復 (pi) アルゴリズムを提案する。 これにより、現在のポリシの継続的な更新/改善が可能になり、結果として、改善されたコントロールを現在のポリシに組み込んだオンラインPIが生成される。 このアルゴリズムは、有限個の段階において局所最適ポリシーの一種に収束し、ポリシー改善を単純化したpiおよびマルチエージェントpiの変種の可能性を提案する。 さらに、このアルゴリズムはオンラインのリプランニングで使用することができ、また、値とポリシー近似を持つオンラインPIアルゴリズムにも適している。

In this paper we propose an on-line policy iteration (PI) algorithm for finite-state infinite horizon discounted dynamic programming, whereby the policy improvement operation is done on-line, only for the states that are encountered during operation of the system. This allows the continuous updating/improvement of the current policy, thus resulting in a form of on-line PI that incorporates the improved controls into the current policy as new states and controls are generated. The algorithm converges in a finite number of stages to a type of locally optimal policy, and suggests the possibility of variants of PI and multiagent PI where the policy improvement is simplified. Moreover, the algorithm can be used with on-line replanning, and is also well-suited for on-line PI algorithms with value and policy approximations.
翻訳日:2021-06-05 09:57:26 公開日:2021-06-01
# (参考訳) 重畳有限状態機械の高次微分 [全文訳有]

Higher-order Derivatives of Weighted Finite-state Machines ( http://arxiv.org/abs/2106.00749v1 )

ライセンス: CC BY 4.0
Ran Zmigrod, Tim Vieira, Ryan Cotterell(参考訳) 重み付き有限状態機械はNLPシステムの基本的な構成要素である。 彼らは、1990年代にノイズの多いチャネルモデルで初期の使用から、現代のニューラルなパラメータ化条件付きランダムフィールドまで、時間の試験を再考した。 本研究では,重み付き有限状態機械の正規化定数に関する高次導関数の計算について検討する。 文献に記載されていないすべての順序の導関数を評価するための一般アルゴリズムを提案する。 2階微分の場合、我々のスキームは最適な$\mathcal{O}(A^2 N^4)$時間で実行され、$A$はアルファベットサイズ、$N$は状態の数である。 我々のアルゴリズムは以前のアルゴリズムよりはるかに高速である。 さらに,本手法により,共分散行列や一階期待勾配などの2階期待値を計算するアルゴリズムが大幅に高速化される。

Weighted finite-state machines are a fundamental building block of NLP systems. They have withstood the test of time -- from their early use in noisy channel models in the 1990s up to modern-day neurally parameterized conditional random fields. This work examines the computation of higher-order derivatives with respect to the normalization constant for weighted finite-state machines. We provide a general algorithm for evaluating derivatives of all orders, which has not been previously described in the literature. In the case of second-order derivatives, our scheme runs in the optimal $\mathcal{O}(A^2 N^4)$ time where $A$ is the alphabet size and $N$ is the number of states. Our algorithm is significantly faster than prior algorithms. Additionally, our approach leads to a significantly faster algorithm for computing second-order expectations, such as covariance matrices and gradients of first-order expectations.
翻訳日:2021-06-05 09:50:45 公開日:2021-06-01
# (参考訳) 老いぼれのGRAPPAは死んだのか? [全文訳有]

Is good old GRAPPA dead? ( http://arxiv.org/abs/2106.00753v1 )

ライセンス: CC BY 4.0
Zaccharie Ramzi, Alexandre Vignaud, Jean-Luc Starck, Philippe Ciuciu(参考訳) 我々はMRI再建のための最先端深層学習手法であるXPDNetの性能を,従来のGRAPPAと比較して定性的に解析する。 私たちはこれを複数の設定で実行し、特にXPDNetの堅牢性をテストすることで、XPDNetがある程度の一般化が可能であることを示しています。

We perform a qualitative analysis of performance of XPDNet, a state-of-the-art deep learning approach for MRI reconstruction, compared to GRAPPA, a classical approach. We do this in multiple settings, in particular testing the robustness of the XPDNet to unseen settings, and show that the XPDNet can to some degree generalize well.
翻訳日:2021-06-05 09:37:26 公開日:2021-06-01
# (参考訳) 入力表現の復号化によるニューラルネットワークの構成性向上 [全文訳有]

Improving Compositionality of Neural Networks by Decoding Representations to Inputs ( http://arxiv.org/abs/2106.00769v1 )

ライセンス: CC BY 4.0
Mike Wu, Noah Goodman, Stefano Ermon(参考訳) 従来のソフトウェアプログラムでは、変数から入力までプログラムロジックをトレースし、ユニットテストとアサーションステートメントを適用して誤った振る舞いをブロックし、プログラムを一緒に構成することで、コードのデバッグがいかに簡単かを考慮します。 しかし、プログラムが複雑化するにつれて、コンピュータビジョンや自然言語のようなアプリケーションに従来のソフトウェアを適用するのは難しくなります。 ディープラーニングプログラムはこれらのアプリケーションで強いパフォーマンスを示しているが、従来のソフトウェアプログラムの機能の多くを犠牲にしている。 本稿では,ニューラルネットワークのアクティベーションを"デコード"に制約するために,生成モデルを共同でトレーニングすることにより,従来型および深層学習プログラムの利点を橋渡しする。 そうすることで、実践者はアクティベーションで符号化された情報を探索し追跡し、アクティベーションで符号化された情報にアサーションのような制約を適用し、プラグインとプレイで別々のニューラルネットワークを構成することができる。 実験では、分散検出、逆例、キャリブレーション、公平性に対するデコダラブル表現の応用を、標準ニューラルネットワークの精度と一致させながら実証する。

In traditional software programs, we take for granted how easy it is to debug code by tracing program logic from variables back to input, apply unit tests and assertion statements to block erroneous behavior, and compose programs together. But as the programs we write grow more complex, it becomes hard to apply traditional software to applications like computer vision or natural language. Although deep learning programs have demonstrated strong performance on these applications, they sacrifice many of the functionalities of traditional software programs. In this paper, we work towards bridging the benefits of traditional and deep learning programs by jointly training a generative model to constrain neural network activations to "decode" back to inputs. Doing so enables practitioners to probe and track information encoded in activation(s), apply assertion-like constraints on what information is encoded in an activation, and compose separate neural networks together in a plug-and-play fashion. In our experiments, we demonstrate applications of decodable representations to out-of-distribution detection, adversarial examples, calibration, and fairness -- while matching standard neural networks in accuracy.
翻訳日:2021-06-05 09:33:43 公開日:2021-06-01
# (参考訳) フェアネスを考慮した特徴選択のための情報理論 [全文訳有]

Information Theoretic Measures for Fairness-aware Feature Selection ( http://arxiv.org/abs/2106.00772v1 )

ライセンス: CC BY 4.0
Sajad Khodadadian, Mohamed Nafea, AmirEmad Ghassami, Negar Kiyavash(参考訳) 機械利得アルゴリズムは、関連する特徴に基づいて個人に関する一連の意思決定にますます使われている。 しかし、正確な決定に関係のある特徴は、特定の人種や性別のような非特権集団に対する明示的または暗黙的な差別に繋がる可能性がある。 これはトレーニングデータに既存のバイアスがあり、学習アルゴリズムによってしばしば複製されるか、さらに悪化する。 これらのバイアスをデータレベルで識別し、測定することは、特徴間の相互依存と決定結果のために難しい問題である。 本研究では,特徴の精度と識別的影響に関する情報理論に基づく,公正な特徴選択のためのフレームワークを開発する。 特に当社の目標は,この機能が正確性や非差別的判断に与える影響を定量化する,各機能に対する公平性ユーティリティスコアの設計にあります。 まず,モデルの精度と識別に異なる特徴のサブセットが与える影響に関する情報理論的な尺度を提案する。 その後,shapley値関数を用いて各特徴の限界影響を推定する。 我々のフレームワークは、特定の分類器の設計よりもデータの合同統計に依存する。 提案する実データおよび合成データに関する枠組みについて検討し,その性能評価を行った。

Machine earning algorithms are increasingly used for consequential decision making regarding individuals based on their relevant features. Features that are relevant for accurate decisions may however lead to either explicit or implicit forms of discrimination against unprivileged groups, such as those of certain race or gender. This happens due to existing biases in the training data, which are often replicated or even exacerbated by the learning algorithm. Identifying and measuring these biases at the data level is a challenging problem due to the interdependence among the features, and the decision outcome. In this work, we develop a framework for fairness-aware feature selection, based on information theoretic measures for the accuracy and discriminatory impacts of features. Specifically, our goal is to design a fairness utility score for each feature which quantifies how this feature influences accurate as well as nondiscriminatory decisions. We first propose information theoretic measures for the impact of different subsets of features on the accuracy and discrimination of the model. Subsequently, we deduce the marginal impact of each feature using Shapley value function. Our framework depends on the joint statistics of the data rather than a particular classifier design. We examine our proposed framework on real and synthetic data to evaluate its performance.
翻訳日:2021-06-05 09:16:15 公開日:2021-06-01
# (参考訳) K$-best非射影依存ツリーの探索について [全文訳有]

On Finding the $K$-best Non-projective Dependency Trees ( http://arxiv.org/abs/2106.00780v1 )

ライセンス: CC BY 4.0
Ran Zmigrod, Tim Vieira, Ryan Cotterell(参考訳) 有向グラフにおける最大スパンニングツリーと文の最高の依存ツリーとの接続は、NLPコミュニティによって活用されている。 しかし、多くの依存性解析スキームにおいて、このアプローチの重要な詳細は、スパンニングツリーがルートからちょうど1つのエッジを持つ必要があることである。 一流の依存性ツリーを見つけるために、この問題を効率的に解決する作業が行われているが、k$-best依存性ツリーを見つけるためにこのソリューションを拡張する研究は行われていない。 これはおそらくより重要な拡張であり、デコードされた木の割合が依存性ツリーのルート制約の対象にならないためである。 実際、ルート制約違反の率は、$K\!=\!50$でデコードした場合、$K\!=\!1$とは対照的に平均13ドルずつ増加する。 本稿では,camerini et al の $k$-best spaning tree アルゴリズムの単純化について述べる。 (1980). 我々の単純化により、元のアルゴリズム上で一定の時間短縮が得られる。 さらに、ルート制約を受けるグラフの$k$-best依存性木を復号するアルゴリズムの新たな拡張を提案する。

The connection between the maximum spanning tree in a directed graph and the best dependency tree of a sentence has been exploited by the NLP community. However, for many dependency parsing schemes, an important detail of this approach is that the spanning tree must have exactly one edge emanating from the root. While work has been done to efficiently solve this problem for finding the one-best dependency tree, no research has attempted to extend this solution to finding the $K$-best dependency trees. This is arguably a more important extension as a larger proportion of decoded trees will not be subject to the root constraint of dependency trees. Indeed, we show that the rate of root constraint violations increases by an average of $13$ times when decoding with $K\!=\!50$ as opposed to $K\!=\!1$. In this paper, we provide a simplification of the $K$-best spanning tree algorithm of Camerini et al. (1980). Our simplification allows us to obtain a constant time speed-up over the original algorithm. Furthermore, we present a novel extension of the algorithm for decoding the $K$-best dependency trees of a graph which are subject to a root constraint.
翻訳日:2021-06-05 08:59:43 公開日:2021-06-01
# (参考訳) Cセキュリティ脆弱性検出のためのソースコードの分散表現について [全文訳有]

On using distributed representations of source code for the detection of C security vulnerabilities ( http://arxiv.org/abs/2106.01367v1 )

ライセンス: CC BY 4.0
David Coimbra, Sofia Reis, Rui Abreu, Corina P\u{a}s\u{a}reanu, Hakan Erdogmus(参考訳) 本稿では,c ソースコードのセキュリティ脆弱性検出タスクにおいて,コード表現モデル code2vec の評価を行う。 我々はオープンソースライブラリのastminerを利用してラベル付きc関数のコーパスの抽象構文木からパスコンテキストを抽出する。 code2vecは、関数を脆弱か非破壊可能かを分類するタスクで、結果のパスコンテキストでトレーニングされる。 CodeXGLUEベンチマークを用いて、このタスクのCode2vecの精度は、事前訓練されたRoBERTaのような単純なトランスフォーマーベースのメソッドに匹敵し、より単純なNLPベースのメソッドよりも優れていることを示す。 我々は,より大きなモデルに対して低計算要求を維持しながら,61.43%の精度を実現した。

This paper presents an evaluation of the code representation model Code2vec when trained on the task of detecting security vulnerabilities in C source code. We leverage the open-source library astminer to extract path-contexts from the abstract syntax trees of a corpus of labeled C functions. Code2vec is trained on the resulting path-contexts with the task of classifying a function as vulnerable or non-vulnerable. Using the CodeXGLUE benchmark, we show that the accuracy of Code2vec for this task is comparable to simple transformer-based methods such as pre-trained RoBERTa, and outperforms more naive NLP-based methods. We achieved an accuracy of 61.43% while maintaining low computational requirements relative to larger models.
翻訳日:2021-06-05 08:22:53 公開日:2021-06-01
# 可逆適応正規化による単一領域一般化

Adversarially Adaptive Normalization for Single Domain Generalization ( http://arxiv.org/abs/2106.01899v1 )

ライセンス: Link先を確認
Xinjie Fan, Qifei Wang, Junjie Ke, Feng Yang, Boqing Gong, Mingyuan Zhou(参考訳) 単一ドメインの一般化は、トレーニング用の1つのドメインデータだけで、見えない多くのドメインでうまく機能するモデルを学ぶことを目的としています。 既存の研究は、モデルの一般化能力を改善するために、adversarial domain augmentation (ada)の研究に焦点を当てている。 正規化層の統計の領域一般化への影響はいまだ検討されていない。 本稿では,従来の研究の欠如を補うために,一般化正規化アプローチ,適応標準化と再スケーリング正規化(ASR-Norm)を提案する。 ASR-Normは、ニューラルネットワークを介して標準化と再スケーリングの統計学を学ぶ。 この新しい正規化の形式は、伝統的な正規化の一般的な形式と見なすことができる。 ADAでトレーニングすると、ASR-Normの統計は異なるドメインから来るデータに適応することが学習され、したがって、特にソースドメインと大きな差があるターゲットドメインにおいて、ドメイン間でのモデルの一般化性能が向上する。 実験の結果,asr-normは平均1.6%,2.7%,6.3%,cifar -10-c,pacsベンチマークにおいて,最先端adaアプローチに一貫した改善をもたらすことがわかった。 一般的なツールとして、ASR-Normによって導入された改善はADAメソッドの選択に依存しない。

Single domain generalization aims to learn a model that performs well on many unseen domains with only one domain data for training. Existing works focus on studying the adversarial domain augmentation (ADA) to improve the model's generalization capability. The impact on domain generalization of the statistics of normalization layers is still underinvestigated. In this paper, we propose a generic normalization approach, adaptive standardization and rescaling normalization (ASR-Norm), to complement the missing part in previous works. ASR-Norm learns both the standardization and rescaling statistics via neural networks. This new form of normalization can be viewed as a generic form of the traditional normalizations. When trained with ADA, the statistics in ASR-Norm are learned to be adaptive to the data coming from different domains, and hence improves the model generalization performance across domains, especially on the target domain with large discrepancy from the source domain. The experimental results show that ASR-Norm can bring consistent improvement to the state-of-the-art ADA approaches by 1.6%, 2.7%, and 6.3% averagely on the Digits, CIFAR-10-C, and PACS benchmarks, respectively. As a generic tool, the improvement introduced by ASR-Norm is agnostic to the choice of ADA methods.
翻訳日:2021-06-04 16:07:47 公開日:2021-06-01
# memory wrap: 画像分類モデルへのデータ効率と解釈可能な拡張

Memory Wrap: a Data-Efficient and Interpretable Extension to Image Classification Models ( http://arxiv.org/abs/2106.01440v1 )

ライセンス: Link先を確認
Biagio La Rosa, Roberto Capobianco and Daniele Nardi(参考訳) ブラックボックスとデータ処理の性質のため、ディープラーニング技術は医療や司法といった重要な分野における現実世界の応用にはまだ広く採用されていない。 本稿では,任意の画像分類モデルのプラグアンドプレイ拡張であるMemory Wrapを提案する。 メモリラップはデータ効率とモデル解釈性の両方を改善し、過去のトレーニングサンプルのメモリと入力の間にコンテントアテンション機構を採用する。 メモリラップは、限られたデータ集合から学習すると標準的な分類器よりも優れており、完全なデータセットから学習すると同等のパフォーマンスに達することを示す。 本稿では,その構造と内容認識機構が,標準分類器と比較して解釈可能かを論じる。 この目的のために,記憶内容に基づいて実例と実例による説明を構築する手法と,その意思決定プロセスに関する洞察を得るためにそれらを活用する方法を示す。 我々は,CIFAR10,SVHN,CINIC1 0という3つの異なるデータセット上で,複数のアーキテクチャを用いて画像分類タスクをテストする。

Due to their black-box and data-hungry nature, deep learning techniques are not yet widely adopted for real-world applications in critical domains, like healthcare and justice. This paper presents Memory Wrap, a plug-and-play extension to any image classification model. Memory Wrap improves both data-efficiency and model interpretability, adopting a content-attention mechanism between the input and some memories of past training samples. We show that Memory Wrap outperforms standard classifiers when it learns from a limited set of data, and it reaches comparable performance when it learns from the full dataset. We discuss how its structure and content-attention mechanisms make predictions interpretable, compared to standard classifiers. To this end, we both show a method to build explanations by examples and counterfactuals, based on the memory content, and how to exploit them to get insights about its decision process. We test our approach on image classification tasks using several architectures on three different datasets, namely CIFAR10, SVHN, and CINIC10.
翻訳日:2021-06-04 16:05:28 公開日:2021-06-01
# (参考訳) 深部生成モデルのための潜時空間再構成 [全文訳有]

Latent Space Refinement for Deep Generative Models ( http://arxiv.org/abs/2106.00792v1 )

ライセンス: CC BY 4.0
Ramon Winterhalder, Marco Bellagente, Benjamin Nachman(参考訳) 深層生成モデルは様々な目的のために科学や産業で広く利用されている。 一般的な課題は、データ確率密度の正確な暗黙的あるいは明示的な表現を達成することである。 最近の提案では、深層生成モデルの学習密度を向上するために分類器重みを用いた。 我々は、このアイデアをあらゆる種類の生成モデルに拡張し、反復生成モデリングによる潜在空間の洗練が位相的障害を回避し、精度を向上させる方法を示す。 この方法論は、対象モデルが微分不能で、改良前に限界化されなければならない多くの内部潜在次元を持つ場合にも適用される。 本稿では,LaSeR(Latent Space Refinement)プロトコルを実例で紹介し,正規化フローと生成逆数ネットワークの組み合わせに着目した。

Deep generative models are becoming widely used across science and industry for a variety of purposes. A common challenge is achieving a precise implicit or explicit representation of the data probability density. Recent proposals have suggested using classifier weights to refine the learned density of deep generative models. We extend this idea to all types of generative models and show how latent space refinement via iterated generative modeling can circumvent topological obstructions and improve precision. This methodology also applies to cases were the target model is non-differentiable and has many internal latent dimensions which must be marginalized over before refinement. We demonstrate our Latent Space Refinement (LaSeR) protocol on a variety of examples, focusing on the combinations of Normalizing Flows and Generative Adversarial Networks.
翻訳日:2021-06-04 12:12:28 公開日:2021-06-01
# (参考訳) 機械学習会議のレビュープロセスにおける倫理的課題 [全文訳有]

Some Ethical Issues in the Review Process of Machine Learning Conferences ( http://arxiv.org/abs/2106.00810v1 )

ライセンス: CC BY 4.0
Alessio Russo(参考訳) 最近の機械学習コミュニティの成功により、カンファレンスに提出された論文の数が大幅に増加した。 この増加は、これらのカンファレンスが使用している現在のレビュープロセスに影響を及ぼすいくつかの問題をより顕著にした。 レビュープロセスには科学研究の性質を損なういくつかの問題があり、これは完全に客観的で、政治的で、偏見がなく、不正行為(盗作、不正行為、不適切な影響、その他の不利益など)がない。 本研究では,レビュワーの募集問題,二重盲検過程の侵害,不正行為,数値評価におけるバイアス,付録現象(すなわち,論文の付録部に結果を公開することが一般的になっていること)について検討する。 これら各問題に対して、簡単な説明と可能な解決策を提供する。 この作業の目標は、これらの問題に対する機械学習コミュニティの意識を高めることにある。

Recent successes in the Machine Learning community have led to a steep increase in the number of papers submitted to conferences. This increase made more prominent some of the issues that affect the current review process used by these conferences. The review process has several issues that may undermine the nature of scientific research, which is of being fully objective, apolitical, unbiased and free of misconduct (such as plagiarism, cheating, improper influence, and other improprieties). In this work, we study the problem of reviewers' recruitment, infringements of the double-blind process, fraudulent behaviors, biases in numerical ratings, and the appendix phenomenon (i.e., the fact that it is becoming more common to publish results in the appendix section of a paper). For each of these problems, we provide a short description and possible solutions. The goal of this work is to raise awareness in the Machine Learning community regarding these issues.
翻訳日:2021-06-04 11:56:52 公開日:2021-06-01
# (参考訳) iMetコレクション2020のラベルスペースのクリーン化と構造化 [全文訳有]

Cleaning and Structuring the Label Space of the iMet Collection 2020 ( http://arxiv.org/abs/2106.00815v1 )

ライセンス: CC BY 4.0
Vivien Nguyen and Sunnie S. Y. Kim(参考訳) iMet 2020データセットは、細粒度アート属性認識の分野で貴重なリソースだが、その真の可能性には達していないと私たちは信じている。 我々は、データセットのユニークな特性を文書化し、多くの属性ラベルが、データセット記述によって示唆されるよりもノイズが多いことを観察する。 しばしば、ラベル間の意味的関係(例えば、同一性、相互排除、仮定、不確実性との重なり)も、私たちが利用していないと信じている。 我々は,iMet 2020ラベルのクリーニングと構造化のアプローチを提案し,その意義と価値について議論する。 さらに,提案手法の利点をいくつかの実験により示す。 私たちのコードとクリーニングラベルは、https://github.com/s unniesuhyoung/imet20 20cleanedで利用可能です。

The iMet 2020 dataset is a valuable resource in the space of fine-grained art attribution recognition, but we believe it has yet to reach its true potential. We document the unique properties of the dataset and observe that many of the attribute labels are noisy, more than is implied by the dataset description. Oftentimes, there are also semantic relationships between the labels (e.g., identical, mutual exclusion, subsumption, overlap with uncertainty) which we believe are underutilized. We propose an approach to cleaning and structuring the iMet 2020 labels, and discuss the implications and value of doing so. Further, we demonstrate the benefits of our proposed approach through several experiments. Our code and cleaned labels are available at https://github.com/s unniesuhyoung/iMet20 20cleaned.
翻訳日:2021-06-04 11:50:32 公開日:2021-06-01
# (参考訳) ConvoSumm: 会話要約ベンチマークとArgument Miningによる抽象要約の改善 [全文訳有]

ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive Summarization with Argument Mining ( http://arxiv.org/abs/2106.00829v1 )

ライセンス: CC BY 4.0
Alexander R. Fabbri, Faiaz Rahman, Imad Rizvi, Borui Wang, Haoran Li, Yashar Mehdad, Dragomir Radev(参考訳) オンライン会話は膨大な情報をさまざまな形式でカバーすることができるが、抽象的なテキスト要約は主にニュース記事のモデリングに重点を置いている。 この研究のギャップは、部分的にはオンラインの議論を要約するための標準化されたデータセットの欠如によるものだ。 このギャップに対処するため、我々は、ニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドの4つの新しいデータセットをクラウドソースする、課題視点フレームワークによって動機付けられたアノテーションプロトコルを設計する。 我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析する。 包括的ベンチマークを作成するために、この領域で強力なベースラインを確立するために、広く使われている会話要約データセット上でこれらのモデルを評価する。 さらに,会話に含まれる問題や視点,アサーションを直接モデル化するために,グラフ構築による議論マイニングを取り入れ,ノイズ入力をフィルタリングし,自動評価や人間評価による比較や改善結果を示す。

While online conversations can cover a vast amount of information in many different formats, abstractive text summarization has primarily focused on modeling solely news articles. This research gap is due, in part, to the lack of standardized datasets for summarizing online discussions. To address this gap, we design annotation protocols motivated by an issues--viewpoints-- assertions framework to crowdsource four new datasets on diverse online conversation forms of news comments, discussion forums, community question answering forums, and email threads. We benchmark state-of-the-art models on our datasets and analyze characteristics associated with the data. To create a comprehensive benchmark, we also evaluate these models on widely-used conversation summarization datasets to establish strong baselines in this domain. Furthermore, we incorporate argument mining through graph construction to directly model the issues, viewpoints, and assertions present in a conversation and filter noisy input, showing comparable or improved results according to automatic and human evaluations.
翻訳日:2021-06-04 11:38:20 公開日:2021-06-01
# (参考訳) 価格アルゴリズム保険

Pricing Algorithmic Insurance ( http://arxiv.org/abs/2106.00839v1 )

ライセンス: CC BY 4.0
Dimitris Bertsimas, Agni Orfanoudaki(参考訳) 機械学習アルゴリズムが企業や組織の意思決定プロセスに統合され始めると、保険製品は所有者をリスクから守るために開発される。 本稿では, アルゴリズム保険の概念を導入し, 導出保険契約の価格設定を実現するための定量的枠組みを提案する。 本稿では,バイナリ分類モデルのリスク露出と価格を推定する最適化式を提案する。 本稿では,モデルの性質,すなわち正確性,解釈性,一般化性が保険契約評価に与える影響について概説する。 提案手法の実践的実装を示すために,乳がん検出の文脈における医療的誤りの事例研究を行った。 本分析は,モデルパラメータが期待される損失に与える影響を計測し,契約の価格に大きく影響するアルゴリズム性能の側面を特定することに焦点を当てる。

As machine learning algorithms start to get integrated into the decision-making process of companies and organizations, insurance products will be developed to protect their owners from risk. We introduce the concept of algorithmic insurance and present a quantitative framework to enable the pricing of the derived insurance contracts. We propose an optimization formulation to estimate the risk exposure and price for a binary classification model. Our approach outlines how properties of the model, such as accuracy, interpretability and generalizability, can influence the insurance contract evaluation. To showcase a practical implementation of the proposed framework, we present a case study of medical malpractice in the context of breast cancer detection. Our analysis focuses on measuring the effect of the model parameters on the expected financial loss and identifying the aspects of algorithmic performance that predominantly affect the price of the contract.
翻訳日:2021-06-04 11:16:18 公開日:2021-06-01
# (参考訳) 項目応答理論によるテストセットの比較 [全文訳有]

Comparing Test Sets with Item Response Theory ( http://arxiv.org/abs/2106.00840v1 )

ライセンス: CC BY 4.0
Clara Vania, Phu Mon Htut, William Huang, Dhara Mungra, Richard Yuanzhe Pang, Jason Phang, Haokun Liu, Kyunghyun Cho, Samuel R. Bowman(参考訳) 近年,自然言語理解タスクにおける微調整モデルの性能を評価するために,多くのNLPデータセットが導入された。 しかし、大規模な事前訓練されたモデルによる最近の結果は、これらのデータセットの大部分は飽和しており、さらなる進歩を検出することができないことを示している。 強力なモデル間での差別化に依然として有効なデータセットは何か、将来の改善を検出できるデータセットはどのようなものか? これをデータセット全体にわたって一様に測定するために、項目応答理論に基づき、個別のテスト例で18の事前学習トランスフォーマーモデルの予測を用いて29のデータセットを評価する。 Quoref、HellaSwag、MC-TACOは最先端のモデルの区別に最適であるのに対して、SNLI、MNLI、CommitmentBankは現在の強力なモデルに飽和しているようだ。 また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。

Recent years have seen numerous NLP datasets introduced to evaluate the performance of fine-tuned models on natural language understanding tasks. Recent results from large pretrained models, though, show that many of these datasets are largely saturated and unlikely to be able to detect further progress. What kind of datasets are still effective at discriminating among strong models, and what kind of datasets should we expect to be able to detect future improvements? To measure this uniformly across datasets, we draw on Item Response Theory and evaluate 29 datasets using predictions from 18 pretrained Transformer models on individual test examples. We find that Quoref, HellaSwag, and MC-TACO are best suited for distinguishing among state-of-the-art models, while SNLI, MNLI, and CommitmentBank seem to be saturated for current strong models. We also observe span selection task format, which is used for QA datasets like QAMR or SQuAD2.0, is effective in differentiating between strong and weak models.
翻訳日:2021-06-04 11:15:24 公開日:2021-06-01
# (参考訳) 多変量環境における非線形関係発見のための事前画像の活用 [全文訳有]

Leveraging Pre-Images to Discover Nonlinear Relationships in Multivariate Environments ( http://arxiv.org/abs/2106.00842v1 )

ライセンス: CC BY 4.0
M. Ali Vosoughi and Axel Wismuller(参考訳) 因果発見は、接続された点の集合としてのネットワークの推論を超えて、人工知能を用いた科学的発見において重要な機能を提供する。 物理学、生理学、不確定な環境における複数のエージェントによる戦略的決定、気候学、その他多くの領域で発生する問題は、因果関係や推論にルーツを持つ。 多くの実世界の時間観測が互いに非線形に関連していることが判明した。 観測の回数は数百万ポイントにも達するが、時間サンプルの数は倫理的あるいは実践的な理由から最小限に抑えられ、大規模システムにおける次元の呪いにつながる。 本稿では,カーネルの主成分分析と事前イメージを用いて,多変量時系列データの非線形依存関係を求める手法を提案する。 本手法は, 観測が時間的に制限され, 非線形関係にある場合に, 最先端の因果発見手法よりも優れることを示す。 提案手法を評価するために,様々なトポロジを持つ実世界および合成データセットの広範なシミュレーションを行った。

Causal discovery, beyond the inference of a network as a collection of connected dots, offers a crucial functionality in scientific discovery using artificial intelligence. The questions that arise in multiple domains, such as physics, physiology, the strategic decision in uncertain environments with multiple agents, climatology, among many others, have roots in causality and reasoning. It became apparent that many real-world temporal observations are nonlinearly related to each other. While the number of observations can be as high as millions of points, the number of temporal samples can be minimal due to ethical or practical reasons, leading to the curse-of-dimensional ity in large-scale systems. This paper proposes a novel method using kernel principal component analysis and pre-images to obtain nonlinear dependencies of multivariate time-series data. We show that our method outperforms state-of-the-art causal discovery methods when the observations are restricted by time and are nonlinearly related. Extensive simulations on both real-world and synthetic datasets with various topologies are provided to evaluate our proposed methods.
翻訳日:2021-06-04 09:29:26 公開日:2021-06-01
# (参考訳) グラフリッチドキュメンテーション表現を用いたパラメータ効率の良いニューラル質問応答モデル [全文訳有]

Parameter-Efficient Neural Question Answering Models via Graph-Enriched Document Representations ( http://arxiv.org/abs/2106.00851v1 )

ライセンス: CC BY 4.0
Louis Castricato, Stephen Fitz, Won Young Shin(参考訳) 現代のNLPシステムの計算フットプリントが増加するにつれて、より効率的なモデルに到達することがますます重要になる。 グラフ畳み込み文書表現を用いることで、学習可能なパラメータの観点でリソースの5\%未満を消費しながら、somaソリューションを両立し、場合によっては超越する質問応答システムが得られることを示す。 現在、GCNをNLPに適用する際の大きな問題は文書表現である。 本稿では,GCNに富んだ文書表現が,自明なトポロジを用いてもHotPotQAで見られる結果を大幅に改善することを示す。 我々のモデル(gQA)は、現在のSOTAと比較するとすばらしい性能を示し、前処理はほとんど必要としない。 シャオとアルで 2020年、著者らはマルチホップQAの性能向上のためにグラフネットワークは必要ないことを示唆した。 本稿では,GCNのna\{i}ve実装が事前訓練された言語モデルに基づくSoTAモデルと相容れない性能を示すことによって,大規模言語モデルは性能向上に必要ではないことを示唆する。

As the computational footprint of modern NLP systems grows, it becomes increasingly important to arrive at more efficient models. We show that by employing graph convolutional document representation, we can arrive at a question answering system that performs comparably to, and in some cases exceeds the SOTA solutions, while using less than 5\% of their resources in terms of trainable parameters. As it currently stands, a major issue in applying GCNs to NLP is document representation. In this paper, we show that a GCN enriched document representation greatly improves the results seen in HotPotQA, even when using a trivial topology. Our model (gQA), performs admirably when compared to the current SOTA, and requires little to no preprocessing. In Shao et al. 2020, the authors suggest that graph networks are not necessary for good performance in multi-hop QA. In this paper, we suggest that large language models are not necessary for good performance by showing a na\"{i}ve implementation of a GCN performs comparably to SoTA models based on pretrained language models.
翻訳日:2021-06-04 09:18:43 公開日:2021-06-01
# In-Distribution Counterfactuals を用いた社会適応型特徴重要度記述のための検索手法

Search Methods for Sufficient, Socially-Aligned Feature Importance Explanations with In-Distribution Counterfactuals ( http://arxiv.org/abs/2106.00786v1 )

ライセンス: Link先を確認
Peter Hase, Harry Xie, Mohit Bansal(参考訳) 特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。 例えば、標準sufficiencyメトリックでは、最も重要なトークンはトップkのみ保持される。 本稿では,fiベース説明の未検討次元をいくつか検討し,この説明形式に対する概念的および経験的改善について述べる。 まず、説明の作成や評価において、なぜインプットから特徴を取り除くことが問題となるのか、という新たな議論を前進させる: モデルに対するこれらの反事実入力がアウト・オブ・ディストリビューション(OOD)であるという事実は、結果として生じる説明が社会的に不一致であることを意味する。 問題の本質は、モデル事前化とランダムな重みの初期化が意図しない方法で説明(と説明メトリクス)に影響を与えることである。 この問題を解決するために、モデルトレーニングプロセスの簡単な変更を提案し、より社会的に整合した説明とメトリクスをもたらす。 第2に,モデル入力から機能を取り除くための5つのアプローチを比較した。 いくつかの手法はOOD対策を他の方法よりも多く生成し,機能置換関数を選択することを推奨する。 最後に,fi説明を識別し,lime,統合勾配,ランダム検索など,強力なベースラインと比較する検索ベース手法を4つ導入する。 6つの多様なテキスト分類データセットを用いて実験したところ、ランダム検索を一貫して上回る手法は並列局所探索のみであることがわかった。 第2の方法による改善は、十分で5.4ポイント、包括性で17ポイントである。 サポートコードはすべてhttps://github.com/p eterbhase/Explanatio nSearchで公開されている。

Feature importance (FI) estimates are a popular form of explanation, and they are commonly created and evaluated by computing the change in model confidence caused by removing certain input features at test time. For example, in the standard Sufficiency metric, only the top-k most important tokens are kept. In this paper, we study several under-explored dimensions of FI-based explanations, providing conceptual and empirical improvements for this form of explanation. First, we advance a new argument for why it can be problematic to remove features from an input when creating or evaluating explanations: the fact that these counterfactual inputs are out-of-distribution (OOD) to models implies that the resulting explanations are socially misaligned. The crux of the problem is that the model prior and random weight initialization influence the explanations (and explanation metrics) in unintended ways. To resolve this issue, we propose a simple alteration to the model training process, which results in more socially aligned explanations and metrics. Second, we compare among five approaches for removing features from model inputs. We find that some methods produce more OOD counterfactuals than others, and we make recommendations for selecting a feature-replacement function. Finally, we introduce four search-based methods for identifying FI explanations and compare them to strong baselines, including LIME, Integrated Gradients, and random search. On experiments with six diverse text classification datasets, we find that the only method that consistently outperforms random search is a Parallel Local Search that we introduce. Improvements over the second-best method are as large as 5.4 points for Sufficiency and 17 points for Comprehensiveness. All supporting code is publicly available at https://github.com/p eterbhase/Explanatio nSearch.
翻訳日:2021-06-03 14:52:15 公開日:2021-06-01
# 不変政策学習:因果的視点

Invariant Policy Learning: A Causal Perspective ( http://arxiv.org/abs/2106.00808v1 )

ライセンス: Link先を確認
Sorawit Saengkyongam, Nikolaj Thams, Jonas Peters and Niklas Pfister(参考訳) 過去10年間で、オンライン広告、レコメンダシステム、動的価格などの様々なインタラクティブな学習システムにおいて、文脈的帯域幅と強化学習アルゴリズムがうまく使われてきた。 しかし、医療などの高度なアプリケーション領域では、まだ広く採用されていない。 一つの理由は、既存のアプローチが、基盤となるメカニズムが、時間とともに異なる環境にまたがって変化しないという意味で静的であると仮定しているからかもしれない。 しかし、多くの現実世界のシステムでは、メカニズムは静的環境の仮定を無効にする可能性のある環境にまたがるシフトの対象となる。 本稿では,オフラインの文脈的帯域幅の枠組みの下での環境変化問題に対処する。 我々は,因果関係のレンズを通して環境変化の問題を考察し,基盤メカニズムの変化を可能にするマルチ環境コンテキストバンディットを提案する。 因果関係文献から不変性の概念を採用し,政策不変性の概念を導入する。 政策不変性は、観測されていない共同創設者が存在する場合にのみ重要であり、その場合、ある仮定の下で最適な不変性が環境全体にわたって一般化されることを示す。 本研究は,環境変化問題に対する解決策を提供するだけでなく,因果関係,不変性,文脈的バンディットの具体的関係を確立する。

In the past decade, contextual bandit and reinforcement learning algorithms have been successfully used in various interactive learning systems such as online advertising, recommender systems, and dynamic pricing. However, they have yet to be widely adopted in high-stakes application domains, such as healthcare. One reason may be that existing approaches assume that the underlying mechanisms are static in the sense that they do not change over time or over different environments. In many real world systems, however, the mechanisms are subject to shifts across environments which may invalidate the static environment assumption. In this paper, we tackle the problem of environmental shifts under the framework of offline contextual bandits. We view the environmental shift problem through the lens of causality and propose multi-environment contextual bandits that allow for changes in the underlying mechanisms. We adopt the concept of invariance from the causality literature and introduce the notion of policy invariance. We argue that policy invariance is only relevant if unobserved confounders are present and show that, in that case, an optimal invariant policy is guaranteed, under certain assumptions, to generalize across environments. Our results do not only provide a solution to the environmental shift problem but also establish concrete connections among causality, invariance and contextual bandits.
翻訳日:2021-06-03 14:49:35 公開日:2021-06-01
# 不確かさ特性曲線:予測間隔の体系的評価

Uncertainty Characteristics Curves: A Systematic Assessment of Prediction Intervals ( http://arxiv.org/abs/2106.00858v1 )

ライセンス: Link先を確認
Jiri Navratil, Benjamin Elder, Matthew Arnold, Soumya Ghosh, Prasanna Sattigeri(参考訳) モデル不確実性の正確な定量化は、信頼できるAIの基本的な要件として長年認識されてきた。 回帰タスクでは、不確実性は通常、特定の操作点に調整された予測間隔を用いて定量化され、異なる研究における評価と比較が困難になる。 本研究は,(1)操作特性曲線の概念,(2)単純な参照よりも利得の概念を活用して,予測間隔に対する新たな操作点非依存評価手法を導出する。 本稿では, 対応するアルゴリズムを記述し, 理論的解析を行い, 複数のシナリオでその有用性を実証する。 提案手法は予測間隔の包括的評価の必要性に対処し,不確実性定量化ツールボックスの付加価値を示すものである。

Accurate quantification of model uncertainty has long been recognized as a fundamental requirement for trusted AI. In regression tasks, uncertainty is typically quantified using prediction intervals calibrated to a specific operating point, making evaluation and comparison across different studies difficult. Our work leverages: (1) the concept of operating characteristics curves and (2) the notion of a gain over a simple reference, to derive a novel operating point agnostic assessment methodology for prediction intervals. The paper describes the corresponding algorithm, provides a theoretical analysis, and demonstrates its utility in multiple scenarios. We argue that the proposed method addresses the current need for comprehensive assessment of prediction intervals and thus represents a valuable addition to the uncertainty quantification toolbox.
翻訳日:2021-06-03 14:49:16 公開日:2021-06-01
# QLSD:ベイズ連邦学習のための量子Langevin確率力学

QLSD: Quantised Langevin stochastic dynamics for Bayesian federated learning ( http://arxiv.org/abs/2106.00797v1 )

ライセンス: Link先を確認
Maxime Vono, Vincent Plassier, Alain Durmus, Aymeric Dieuleveut, Eric Moulines(参考訳) フェデレーション学習は、データが分散化され、複数のクライアントにローカルに保存された場合に、データオーナシップと通信オーバーヘッドという2つの主な制約の下で推論を実行することを目的としている。 本稿では,これらの問題をベイズパラダイムのもとで扱う。 この目的のために,確率勾配ランジュバンダイナミクスの量子化バージョンを基盤とした,新しいマルコフ連鎖モンテカルロアルゴリズムを提案する。 ビッグデータシステムの性能向上のために,本稿では,<texttt{QLSD}$^\star$および<texttt{QLSD}$^{++}$と呼ばれる方法論の分散還元代替案を紹介する。 我々は,提案アルゴリズムの非漸近収束保証と漸近収束保証の両方を提供し,その利点を複数のフェデレート学習ベンチマークで示す。

Federated learning aims at conducting inference when data are decentralised and locally stored on several clients, under two main constraints: data ownership and communication overhead. In this paper, we address these issues under the Bayesian paradigm. To this end, we propose a novel Markov chain Monte Carlo algorithm coined \texttt{QLSD} built upon quantised versions of stochastic gradient Langevin dynamics. To improve performance in a big data regime, we introduce variance-reduced alternatives of our methodology referred to as \texttt{QLSD}$^\star$ and \texttt{QLSD}$^{++}$. We provide both non-asymptotic and asymptotic convergence guarantees for the proposed algorithms and illustrate their benefits on several federated learning benchmarks.
翻訳日:2021-06-03 14:48:37 公開日:2021-06-01
# ポリシーに基づく強化学習のためのエントロピー正規化自由機構

An Entropy Regularization Free Mechanism for Policy-based Reinforcement Learning ( http://arxiv.org/abs/2106.00707v1 )

ライセンス: Link先を確認
Changnan Xiao, Haosen Shi, Jiajun Fan, Shihong Deng(参考訳) 政策に基づく強化学習手法は、政策崩壊問題に苦しむ。 我々は,「epsilon」-greedy機構を用いた価値ベースの強化学習手法が,クローズド・フォーム・ダイバーシティ,客観的不変探索,適応的トレードオフという3つの特徴を享受できることを示す。 しかし、3つの特性をすべて達成するポリシーベース手法の並列メカニズムは存在しない。 本稿では,閉じた形態の多様性,客観的不変な探索,適応的トレードオフを実現する政策に基づく手法のために設計されたエントロピー正規化自由機構を提案する。 実験の結果,本機構は,政策に基づく手法では極めてサンプル効率が高く,アーケード学習環境における新たな最先端技術への政策ベースラインの強化が期待できることがわかった。

Policy-based reinforcement learning methods suffer from the policy collapse problem. We find valued-based reinforcement learning methods with {\epsilon}-greedy mechanism are capable of enjoying three characteristics, Closed-form Diversity, Objective-invariant Exploration and Adaptive Trade-off, which help value-based methods avoid the policy collapse problem. However, there does not exist a parallel mechanism for policy-based methods that achieves all three characteristics. In this paper, we propose an entropy regularization free mechanism that is designed for policy-based methods, which achieves Closed-form Diversity, Objective-invariant Exploration and Adaptive Trade-off. Our experiments show that our mechanism is super sample-efficient for policy-based methods and boosts a policy-based baseline to a new State-Of-The-Art on Arcade Learning Environment.
翻訳日:2021-06-03 14:46:15 公開日:2021-06-01
# NLUデータ収集作業の難しさに対する効果的なクラウドソーシングプロトコルについて

What Ingredients Make for an Effective Crowdsourcing Protocol for Difficult NLU Data Collection Tasks? ( http://arxiv.org/abs/2106.00794v1 )

ライセンス: Link先を確認
Nikita Nangia, Saku Sugawara, Harsh Trivedi, Alex Warstadt, Clara Vania, Samuel R. Bowman(参考訳) クラウドソーシングは、共通の自然言語理解タスクのためのデータを作成するために広く使われている。 これらのデータセットは、言語のモデル理解の測定と精細化において重要であるが、データセットの収集に使用されるクラウドソーシング手法にはほとんど焦点が当てられていない。 本稿では,データ品質向上手法として,先行研究で提案された介入の有効性を比較した。 複数項目の質問応答をテストベッドとして使用し、4つの異なるデータ収集プロトコルの1つで質問を書くようクラウドワーカーに割り当ててランダムに試行します。 我々は,NLU例の難易度を高めるための非効率なスタンドアロン戦略として,実例の説明書を書くよう労働者に求めた。 しかし,データ収集やフィードバックの送付,専門家の判断に基づく資格取得といった反復的なプロセスは,クラウドワーカーの育成に有効であることが判明した。 しかし、専門家の判断ではなくクラウドソーシングを使って労働者を認定し、フィードバックを送ることは効果的ではない。 専門家評価を伴う反復的プロトコルからのデータは、いくつかの尺度によりより困難である。 特に、このデータの満場一致部分におけるヒューマンモデルギャップは、平均して、ベースラインプロトコルデータのギャップの2倍の大きさである。

Crowdsourcing is widely used to create data for common natural language understanding tasks. Despite the importance of these datasets for measuring and refining model understanding of language, there has been little focus on the crowdsourcing methods used for collecting the datasets. In this paper, we compare the efficacy of interventions that have been proposed in prior work as ways of improving data quality. We use multiple-choice question answering as a testbed and run a randomized trial by assigning crowdworkers to write questions under one of four different data collection protocols. We find that asking workers to write explanations for their examples is an ineffective stand-alone strategy for boosting NLU example difficulty. However, we find that training crowdworkers, and then using an iterative process of collecting data, sending feedback, and qualifying workers based on expert judgments is an effective means of collecting challenging data. But using crowdsourced, instead of expert judgments, to qualify workers and send feedback does not prove to be effective. We observe that the data from the iterative protocol with expert assessments is more challenging by several measures. Notably, the human--model gap on the unanimous agreement portion of this data is, on average, twice as large as the gap for the baseline protocol data.
翻訳日:2021-06-03 14:44:41 公開日:2021-06-01
# 協調型非定常多変量ガウス過程モデル

Collaborative Nonstationary Multivariate Gaussian Process Model ( http://arxiv.org/abs/2106.00719v1 )

ライセンス: Link先を確認
Rui Meng, Herbie Lee, Kristofer Bouchard(参考訳) 現在、マルチ出力ガウス過程回帰モデルは非定常性をモデル化しないか、あるいは厳しい計算負荷とストレージ要求に関連付けられている。 非定常多変量ガウス過程モデル (NMGP) は、入力依存線形モデルを持つ非定常共分散関数を用いて、入力依存相関、スケール、出力の滑らかさを共同でモデル化する。 変分スパース近似は、スケーラブルな計算を可能にするために点の誘導に依存する。 そこで我々は,NMGPにおける潜在関数の変動フレームワークを誘導することを考えると,協調的非定常ガウス過程モデル(CNMGP)と呼ばれる新しいモデルを提案する。 cnmgpでは, 2倍の確率的変分推論が可能な計算可能な変分境界を導出する。 これにより、出力が共通の入力セットを共有していないデータを、入力と出力のサイズに依存しない計算複雑性でモデル化することができる。 本稿では,合成データと3つの実データを用いた手法の性能を概ね示し,そのモデルが概して最先端の予測性能よりも優れた予測性能を示すとともに,出力間で異なる時間変動相関の見積もりを提供する。

Currently, multi-output Gaussian process regression models either do not model nonstationarity or are associated with severe computational burdens and storage demands. Nonstationary multi-variate Gaussian process models (NMGP) use a nonstationary covariance function with an input-dependent linear model of coregionalisation to jointly model input-dependent correlation, scale, and smoothness of outputs. Variational sparse approximation relies on inducing points to enable scalable computations. Here, we take the best of both worlds: considering an inducing variable framework on the underlying latent functions in NMGP, we propose a novel model called the collaborative nonstationary Gaussian process model(CNMGP). For CNMGP, we derive computationally tractable variational bounds amenable to doubly stochastic variational inference. Together, this allows us to model data in which outputs do not share a common input set, with a computational complexity that is independent of the size of the inputs and outputs. We illustrate the performance of our method on synthetic data and three real datasets and show that our model generally pro-vides better predictive performance than the state-of-the-art, and also provides estimates of time-varying correlations that differ across outputs.
翻訳日:2021-06-03 14:43:41 公開日:2021-06-01
# 深層学習コンテストにおける反省会--シンプソンのパラドックスとスケールメトリクスと形状メトリクスの相補的役割

Post-mortem on a deep learning contest: a Simpson's paradox and the complementary roles of scale metrics versus shape metrics ( http://arxiv.org/abs/2106.00734v1 )

ライセンス: Link先を確認
Charles H. Martin and Michael W. Mahoney(参考訳) 最先端ニューラルネットワーク(NN)モデルにおいて,優れた一般化性能の原因をよりよく理解するために,NNの一般化精度を予測するコンテストで公開されているモデルのコーパスを分析した。 これらのモデルには幅広い品質が含まれ、様々なアーキテクチャと正規化ハイパーパラメータで訓練された。 We identify what amounts to a Simpson's paradox: where "scale" metrics (from traditional statistical learning theory) perform well overall but perform poorly on subpartitions of the data of a given depth, when regularization hyperparameters are varied; and where "shape" metrics (from Heavy-Tailed Self Regularization theory) perform well on subpartitions of the data, when hyperparameters are varied for models of a given depth, but perform poorly overall when models with varying depths are aggregated. この結果から,アーキテクチャとハイパーパラメータが異なる場合と,NNモデル品質の理解における暗黙的スケールと暗黙的形状パラメータの相補的役割について,モデルの比較を行った。 また,データ収集に応用した1つの指標を用いて因果的洞察を抽出しようとする場合,さらに,一般化理論の上限値に基づいて,最先端のNNモデルの性能を記述することの必要性を強調した。 これらの結果に基づき,データ非依存とデータ依存の2つの新しい形状指標を示し,解法ハイパーパラメータを変化させる際に,nnの連続したテスト精度の傾向を予測できる。

To understand better the causes of good generalization performance in state-of-the-art neural network (NN) models, we analyze of a corpus of models that was made publicly-available for a contest to predict the generalization accuracy of NNs. These models include a wide range of qualities and were trained with a range of architectures and regularization hyperparameters. We identify what amounts to a Simpson's paradox: where "scale" metrics (from traditional statistical learning theory) perform well overall but perform poorly on subpartitions of the data of a given depth, when regularization hyperparameters are varied; and where "shape" metrics (from Heavy-Tailed Self Regularization theory) perform well on subpartitions of the data, when hyperparameters are varied for models of a given depth, but perform poorly overall when models with varying depths are aggregated. Our results highlight the subtly of comparing models when both architectures and hyperparameters are varied, as well as the complementary role of implicit scale versus implicit shape parameters in understanding NN model quality. Our results also suggest caution when one tries to extract causal insight with a single metric applied to aggregate data, and they highlight the need to go beyond one-size-fits-all metrics based on upper bounds from generalization theory to describe the performance of state-of-the-art NN models. Based on these findings, we present two novel shape metrics, one data-independent, and the other data-dependent, which can predict trends in the test accuracy of a series of NNs, of a fixed architecture/depth, when varying solver hyperparameters.
翻訳日:2021-06-03 14:43:19 公開日:2021-06-01
# 時間近傍符号化による時系列の教師なし表現学習

Unsupervised Representation Learning for Time Series with Temporal Neighborhood Coding ( http://arxiv.org/abs/2106.00750v1 )

ライセンス: Link先を確認
Sana Tonekaboni, Danny Eytan, Anna Goldenberg(参考訳) 時系列はしばしば複雑で情報に富んでいるが、わずかにラベル付けされているためモデル化が難しい。 本稿では,非定常時系列の一般化表現を学習するための自己教師付きフレームワークを提案する。 我々の手法は、TNC(Temporal Neighborhood Coding)と呼ばれ、信号の生成過程の局所的滑らかさを利用して、定常特性のある近傍を定義する。 偏りのある対比目的を用いて, 符号化空間において, 近傍からの信号の分布と非隣接信号の分布を区別できることを保証することにより, 時系列表現を学習する。 我々のモチベーションは、時系列データのダイナミックな性質をモデル化する能力が、ラベル付けデータが事実上不可能な環境で患者の潜伏状態を特定し、追跡し、予測するのに特に有用である医療分野に起因している。 提案手法と最近開発された教師なし表現学習手法を比較し,クラスタリングおよび複数のデータセットの分類タスクにおける優れた性能を示す。

Time series are often complex and rich in information but sparsely labeled and therefore challenging to model. In this paper, we propose a self-supervised framework for learning generalizable representations for non-stationary time series. Our approach, called Temporal Neighborhood Coding (TNC), takes advantage of the local smoothness of a signal's generative process to define neighborhoods in time with stationary properties. Using a debiased contrastive objective, our framework learns time series representations by ensuring that in the encoding space, the distribution of signals from within a neighborhood is distinguishable from the distribution of non-neighboring signals. Our motivation stems from the medical field, where the ability to model the dynamic nature of time series data is especially valuable for identifying, tracking, and predicting the underlying patients' latent states in settings where labeling data is practically impossible. We compare our method to recently developed unsupervised representation learning approaches and demonstrate superior performance on clustering and classification tasks for multiple datasets.
翻訳日:2021-06-03 14:42:51 公開日:2021-06-01
# 入力凸ニューラルネットワークを用いた確率空間上の関数の最適化

Optimizing Functionals on the Space of Probabilities with Input Convex Neural Networks ( http://arxiv.org/abs/2106.00774v1 )

ライセンス: Link先を確認
David Alvarez-Melis, Yair Schiff, Youssef Mroueh(参考訳) グラディエントフローは、ワッサーシュタイン計量によって与えられる確率の空間を含む一般計量空間における関数を最適化するための強力なツールである。 この最適化問題を解決する典型的なアプローチは、最適輸送の動的定式化と有名なjordan-kinderlehrer- otto (jko) スキームとの関係に依存している。 しかし、この定式化は凸関数の最適化を伴い、特に高次元では困難である。 本研究では,最近導入された入力凸ニューラルネットワーク(ICNN)を用いて,JKOスキームを近似するために凸関数の空間をパラメータ化し,収束保証を享受する尺度よりも関数を設計する手法を提案する。 我々は、このJKO-ICNNフレームワークの計算効率の良い実装を導き、その実現可能性と、既知の解を用いた低次元偏微分方程式の近似解の妥当性と妥当性を示す。 また、分子発見のための制御生成実験により、JKO-ICNNアプローチを高次元に利用することについても検討する。

Gradient flows are a powerful tool for optimizing functionals in general metric spaces, including the space of probabilities endowed with the Wasserstein metric. A typical approach to solving this optimization problem relies on its connection to the dynamic formulation of optimal transport and the celebrated Jordan-Kinderlehrer- Otto (JKO) scheme. However, this formulation involves optimization over convex functions, which is challenging, especially in high dimensions. In this work, we propose an approach that relies on the recently introduced input-convex neural networks (ICNN) to parameterize the space of convex functions in order to approximate the JKO scheme, as well as in designing functionals over measures that enjoy convergence guarantees. We derive a computationally efficient implementation of this JKO-ICNN framework and use various experiments to demonstrate its feasibility and validity in approximating solutions of low-dimensional partial differential equations with known solutions. We also explore the use of our JKO-ICNN approach in high dimensions with an experiment in controlled generation for molecular discovery.
翻訳日:2021-06-03 14:40:54 公開日:2021-06-01
# 機械学習のための重み付けベクトル:境界検出に適用した数値調和解析

Weighting vectors for machine learning: numerical harmonic analysis applied to boundary detection ( http://arxiv.org/abs/2106.00827v1 )

ライセンス: Link先を確認
Eric Bunch, Jeffery Kline, Daniel Dickinson, Suhaas Bhat, Glenn Fung(参考訳) 計量空間等級(英: Metric space magnitude)は、代数トポロジーの研究の活発な分野であるスカラー量であり、一般的な計量空間に存在している異なる点の有効個数をまとめたものである。 ヘーディングベクトル(英: {\em weighting vector)は、原距離空間の基底幾何学の多くを非自明な方法で捉える、密接に関連する概念である。 最近の研究は、計量空間がユークリッドであるとき、重み付けベクトルが境界検出の有効なツールであることを示した。 我々はこの結果を再放送し、重み付けベクトルをカーネル化されたSVMの解と見なせることを示す。 結果として、この新たな洞察を異常検出タスクに適用し、ベンチマークデータセットにおける最先端技術のパフォーマンスよりも競争力のある性能を示す。 穏やかな仮定の下では、行列反転の計算コストを持つ重み付けベクトルを線形時間で効率的に近似できることを示す。 SVM が定義する最小化問題に対して,近傍の手法がいかに近似できるかを示す。

Metric space magnitude, an active field of research in algebraic topology, is a scalar quantity that summarizes the effective number of distinct points that live in a general metric space. The {\em weighting vector} is a closely-related concept that captures, in a nontrivial way, much of the underlying geometry of the original metric space. Recent work has demonstrated that when the metric space is Euclidean, the weighting vector serves as an effective tool for boundary detection. We recast this result and show the weighting vector may be viewed as a solution to a kernelized SVM. As one consequence, we apply this new insight to the task of outlier detection, and we demonstrate performance that is competitive or exceeds performance of state-of-the-art techniques on benchmark data sets. Under mild assumptions, we show the weighting vector, which has computational cost of matrix inversion, can be efficiently approximated in linear time. We show how nearest neighbor methods can approximate solutions to the minimization problems defined by SVMs.
翻訳日:2021-06-03 14:40:36 公開日:2021-06-01
# ニューラルネットワークモデルにおける意味の含意表現

Implicit Representations of Meaning in Neural Language Models ( http://arxiv.org/abs/2106.00737v1 )

ライセンス: Link先を確認
Belinda Z. Li, Maxwell Nye, Jacob Andreas(参考訳) ニューラルランゲージモデルの有効性は、表層単語共起統計の正確なモデリングから完全に導かれるのか、それとも、これらのモデルが彼らが記述した世界と理性を表すのか? BARTおよびT5トランスフォーマー言語モデルでは、会話を通して進化するエンティティや状況のモデルとして機能する文脈的単語表現を識別する。 これらのニューラル表現は、動的意味論の言語モデルと機能的類似性を持ち、それぞれのエンティティの現在の特性と関係の線形な読み出しをサポートし、言語生成に予測可能な効果で操作できる。 その結果,少なくとも部分的には,意味の動的表現と実体状態の暗黙的シミュレーションによって,事前学習されたニューラルネットワークモデルの予測がサポートされ,学習データとしてテキストだけで学習できることがわかった。 コードとデータはhttps://github.com/b elindal/state-probes で入手できる。

Does the effectiveness of neural language models derive entirely from accurate modeling of surface word co-occurrence statistics, or do these models represent and reason about the world they describe? In BART and T5 transformer language models, we identify contextual word representations that function as models of entities and situations as they evolve throughout a discourse. These neural representations have functional similarities to linguistic models of dynamic semantics: they support a linear readout of each entity's current properties and relations, and can be manipulated with predictable effects on language generation. Our results indicate that prediction in pretrained neural language models is supported, at least in part, by dynamic representations of meaning and implicit simulation of entity state, and that this behavior can be learned with only text as training data. Code and data are available at https://github.com/b elindal/state-probes .
翻訳日:2021-06-03 14:37:37 公開日:2021-06-01
# DYPLOC:テキスト生成のための混合言語モデルを用いたコンテンツの動的計画

DYPLOC: Dynamic Planning of Content Using Mixed Language Models for Text Generation ( http://arxiv.org/abs/2106.00791v1 )

ライセンス: Link先を確認
Xinyu Hua, Ashwin Sreevatsa, and Lu Wang(参考訳) 我々は,少なくとも2つの異なる課題に直面する長文意見テキスト生成の課題について検討する。 まず、既存のニューラルジェネレーションモデルはコヒーレンスに欠けており、効率的なコンテンツプランニングが必要である。 第二に、主観的コンテンツと客観的コンテンツの両方をカバーするようにジェネレータを導くには、多様な種類の情報が必要である。 そこで本研究では,混合言語モデルの新たな設計に基づく出力生成をしながら,コンテンツの動的計画を行う生成フレームワークdyplocを提案する。 多様なコンテンツで生成を豊かにするために、より大規模な事前学習モデルを用いて関連する概念を予測し、クレームを生成することを提案する。 我々は,(1)Reddit ChangeMyViewを用いた引数生成,(2)New York Timesのオピニオンセクションを用いた記事作成という,新たに収集されたデータセットに関する2つの課題を実験した。 自動評価は,本モデルが競合比較を著しく上回ることを示す。 人間の審査員は、われわれの世代がよりリッチなコンテンツに忠実であることをさらに確認する。

We study the task of long-form opinion text generation, which faces at least two distinct challenges. First, existing neural generation models fall short of coherence, thus requiring efficient content planning. Second, diverse types of information are needed to guide the generator to cover both subjective and objective content. To this end, we propose DYPLOC, a generation framework that conducts dynamic planning of content while generating the output based on a novel design of mixed language models. To enrich the generation with diverse content, we further propose to use large pre-trained models to predict relevant concepts and to generate claims. We experiment with two challenging tasks on newly collected datasets: (1) argument generation with Reddit ChangeMyView, and (2) writing articles using New York Times' Opinion section. Automatic evaluation shows that our model significantly outperforms competitive comparisons. Human judges further confirm that our generations are more coherent with richer content.
翻訳日:2021-06-03 14:37:22 公開日:2021-06-01
# CoRI:オープン情報抽出のためのデータ拡張と集合関係の統合

CoRI: Collective Relation Integration with Data Augmentation for Open Information Extraction ( http://arxiv.org/abs/2106.00793v1 )

ライセンス: Link先を確認
Zhengbao Jiang, Jialong Han, Bunyamin Sisman, Xin Luna Dong(参考訳) Webから抽出された知識を知識グラフ(KG)に統合することで、質問応答のような作業が容易になる。 本研究では,対象kgにおける関係関係に対する主観-関係-対象抽出における自由テキスト関係の整合を目的とした関係統合について検討する。 自由テキスト関係が曖昧であるという課題に対処するために、以前の方法は、追加の文脈で隣のエンティティとリレーションを利用する。 しかし、予測は独立して行われ、相互に矛盾する可能性がある。 本稿では,第1段階が個別に候補予測を行い,第2段階が全ての候補予測にアクセスしてグローバルにコヒーレントな予測を行う2段階集団関係統合(cori)モデルを提案する。 さらに、未使用のターゲットKGの一部からデータを付加することで、集合モデルをさらに改善する。 2つのデータセットの実験結果から、CoRIはベースラインを大幅に上回り、AUCは.677から.748に、AUCは.716から.780に改善された。

Integrating extracted knowledge from the Web to knowledge graphs (KGs) can facilitate tasks like question answering. We study relation integration that aims to align free-text relations in subject-relation-obj ect extractions to relations in a target KG. To address the challenge that free-text relations are ambiguous, previous methods exploit neighbor entities and relations for additional context. However, the predictions are made independently, which can be mutually inconsistent. We propose a two-stage Collective Relation Integration (CoRI) model, where the first stage independently makes candidate predictions, and the second stage employs a collective model that accesses all candidate predictions to make globally coherent predictions. We further improve the collective model with augmented data from the portion of the target KG that is otherwise unused. Experiment results on two datasets show that CoRI can significantly outperform the baselines, improving AUC from .677 to .748 and from .716 to .780, respectively.
翻訳日:2021-06-03 14:37:06 公開日:2021-06-01
# 英語以外のクレームマッチングによるグローバルなファクトチェックのスケールアップ

Claim Matching Beyond English to Scale Global Fact-Checking ( http://arxiv.org/abs/2106.00853v1 )

ライセンス: Link先を確認
Ashkan Kazemi, Kiran Garimella, Devin Gaffney and Scott A. Hale(参考訳) 手動の事実チェックは、インターネットのニーズを満たすためにうまくスケールしない。 この問題は英語以外の文脈でさらに複雑になる。 本稿では,ファクトチェックをスケールする手段として,クレームマッチングについて論じる。 我々は、クレームマッチングを、1つのファクトチェックで提供可能なクレームを含むテキストメッセージのペアを特定するタスクとして定義する。 我々は、WhatsAppのチップラインと公開グループメッセージのデータセットを、ファクトチェックされたクレームとともに構築し、最初に“claim-like statement”を含むアノテートされ、潜在的に類似したアイテムとマッチし、クレームマッチングのためのアノテートされる。 我々のデータセットには、高リソース(英語、ヒンディー語)と低リソース(ベンガル語、マラヤラム語、タミル語)のコンテンツが含まれています。 データセット内の低リソース言語と高リソース言語間の品質の不均衡に対処するため、知識の蒸留と高品質な"教師"モデルを使って、独自の組込みモデルをトレーニングします。 本稿では,本ソリューションの性能評価を行い,ベースラインと既存の多言語埋め込みモデルであるLASERとLaBSEと比較する。 すべての設定において、私たちのパフォーマンスがLASERとLaBSEを超えていることを示します。 アノテーション付きデータセット、コードブック、トレーニングされた埋め込みモデルをリリースし、さらなる研究を可能にします。

Manual fact-checking does not scale well to serve the needs of the internet. This issue is further compounded in non-English contexts. In this paper, we discuss claim matching as a possible solution to scale fact-checking. We define claim matching as the task of identifying pairs of textual messages containing claims that can be served with one fact-check. We construct a novel dataset of WhatsApp tipline and public group messages alongside fact-checked claims that are first annotated for containing "claim-like statements" and then matched with potentially similar items and annotated for claim matching. Our dataset contains content in high-resource (English, Hindi) and lower-resource (Bengali, Malayalam, Tamil) languages. We train our own embedding model using knowledge distillation and a high-quality "teacher" model in order to address the imbalance in embedding quality between the low- and high-resource languages in our dataset. We provide evaluations on the performance of our solution and compare with baselines and existing state-of-the-art multilingual embedding models, namely LASER and LaBSE. We demonstrate that our performance exceeds LASER and LaBSE in all settings. We release our annotated datasets, codebooks, and trained embedding model to allow for further research.
翻訳日:2021-06-03 14:36:48 公開日:2021-06-01
# 小さなトレーニングハイパースペクトルデータを用いた高密度森林における樹木種マッピングのためのマルチタスク完全畳み込みネットワーク

Multi-task fully convolutional network for tree species mapping in dense forests using small training hyperspectral data ( http://arxiv.org/abs/2106.00799v1 )

ライセンス: Link先を確認
Laura Elena Cu\'e La Rosa, Camile Sothe, Raul Queiroz Feitosa, Cl\'audia Maria de Almeida, Marcos Benedito Schimalski, Dario Augusto Borges Oliveira(参考訳) 本研究は,超スペクトルuavデータを用いた多角形アノテーションによる密林の樹種マッピングのためのマルチタスク完全畳み込みアーキテクチャを提案する。 本モデルでは, 樹冠境界制約を強制し, モデル性能を大幅に改善する距離回帰補完タスクを, 非密度トレーニングサンプルから高密度ツリーセマンティックラベリング結果を実現する部分損失関数を実装した。 我々のマルチタスクアーキテクチャは、タスクと2つのタスク固有のデコーダの共通表現を学習する共有バックボーンネットワークを用いており、ひとつはセマンティックセグメンテーション出力、もう一つは距離マップレグレッションである。 補完課題の導入により, 熱帯林の樹木種分類において, 総合F1スコア87.5%, 総合精度85.9%のセマンティックセマンティックセマンティクス性能が10%向上し, 木種分類の最先端性能が達成されたことを報告した。

This work proposes a multi-task fully convolutional architecture for tree species mapping in dense forests from sparse and scarce polygon-level annotations using hyperspectral UAV-borne data. Our model implements a partial loss function that enables dense tree semantic labeling outcomes from non-dense training samples, and a distance regression complementary task that enforces tree crown boundary constraints and substantially improves the model performance. Our multi-task architecture uses a shared backbone network that learns common representations for both tasks and two task-specific decoders, one for the semantic segmentation output and one for the distance map regression. We report that introducing the complementary task boosts the semantic segmentation performance compared to the single-task counterpart in up to 10% reaching an overall F1 score of 87.5% and an overall accuracy of 85.9%, achieving state-of-art performance for tree species classification in tropical forests.
翻訳日:2021-06-03 14:29:19 公開日:2021-06-01
# nnDetection:医療対象検出のための自己設定方法

nnDetection: A Self-configuring Method for Medical Object Detection ( http://arxiv.org/abs/2106.00817v1 )

ライセンス: Link先を確認
Michael Baumgartner, Paul F. Jaeger, Fabian Isensee, Klaus H. Maier-Hein(参考訳) 医学画像における物体の同時局所化と分類は、医学的対象検出とも呼ばれ、診断決定は、例えば、対象の格付けに依存することが多いため、高い臨床関連性を有する。 ピクセル このタスクでは、メソッド構成の面倒で反復的なプロセスが大きな研究ボトルネックとなります。 近年、nnU-Netは画像分割の課題に対して大きな成功を収めている。 nnu-netのアジェンダに従って,医療用オブジェクト検出の構成プロセスを体系化し,自動化する。 結果の自己設定方法であるnnDetectionは、手動による介入なしに、任意の医学的検出問題に適応し、その結果を最先端に匹敵する結果を得る。 我々は,adam と luna16 の2つの公開ベンチマークにおいて nndetection の有効性を実証し,総合的手法評価のために10の医療用物体検出タスクを提案する。 コードはhttps://github.com/M IC-DKFZ/nnDetectionにある。

Simultaneous localisation and categorization of objects in medical images, also referred to as medical object detection, is of high clinical relevance because diagnostic decisions often depend on rating of objects rather than e.g. pixels. For this task, the cumbersome and iterative process of method configuration constitutes a major research bottleneck. Recently, nnU-Net has tackled this challenge for the task of image segmentation with great success. Following nnU-Net's agenda, in this work we systematize and automate the configuration process for medical object detection. The resulting self-configuring method, nnDetection, adapts itself without any manual intervention to arbitrary medical detection problems while achieving results en par with or superior to the state-of-the-art. We demonstrate the effectiveness of nnDetection on two public benchmarks, ADAM and LUNA16, and propose 10 further medical object detection tasks on public data sets for comprehensive method evaluation. Code is at https://github.com/M IC-DKFZ/nnDetection .
翻訳日:2021-06-03 14:29:00 公開日:2021-06-01
# 大規模ワッサースタイン勾配流れ

Large-Scale Wasserstein Gradient Flows ( http://arxiv.org/abs/2106.00736v1 )

ライセンス: Link先を確認
Petr Mokrov, Alexander Korotin, Lingxiao Li, Aude Genevay, Justin Solomon, Evgeny Burnaev(参考訳) ワッサーシュタイン勾配流は多くの拡散方程式を理解・解く強力な手段を提供する。 具体的には、確率測度の拡散をモデル化するフォッカー・プランク方程式は、ワッサーシュタイン空間におけるエントロピー汎函数の勾配勾配として理解することができる。 この同値性はjordan、kinderlehrer、ottoによって導入され、いわゆるjkoスキームに触発され、ワッサーシュタイン空間の勾配流の暗黙の離散化を通じてこれらの拡散過程を近似した。 しかし、各JKOステップに関連する最適化問題を解くことは、深刻な計算上の課題をもたらす。 機械学習アプリケーションを対象として,Wasserstein勾配流を近似するスケーラブルな手法を提案する。 提案手法は, 確率勾配降下により最適化できるJKOステップを識別するために, 入力凸ニューラルネットワーク(ICNN)に依存する。 従来の研究と異なり, この手法では領域離散化や粒子シミュレーションは不要である。 その結果、拡散の各時間ステップにおける測度からサンプルを採取し、その確率密度を計算することができる。 フォッカー・プランク方程式に従う拡散を計算し,非正規化密度サンプリングや非線形フィルタリングに適用することにより,アルゴリズムの性能を実証する。

Wasserstein gradient flows provide a powerful means of understanding and solving many diffusion equations. Specifically, Fokker-Planck equations, which model the diffusion of probability measures, can be understood as gradient descent over entropy functionals in Wasserstein space. This equivalence, introduced by Jordan, Kinderlehrer and Otto, inspired the so-called JKO scheme to approximate these diffusion processes via an implicit discretization of the gradient flow in Wasserstein space. Solving the optimization problem associated to each JKO step, however, presents serious computational challenges. We introduce a scalable method to approximate Wasserstein gradient flows, targeted to machine learning applications. Our approach relies on input-convex neural networks (ICNNs) to discretize the JKO steps, which can be optimized by stochastic gradient descent. Unlike previous work, our method does not require domain discretization or particle simulation. As a result, we can sample from the measure at each time step of the diffusion and compute its probability density. We demonstrate our algorithm's performance by computing diffusions following the Fokker-Planck equation and apply it to unnormalized density sampling as well as nonlinear filtering.
翻訳日:2021-06-03 14:26:11 公開日:2021-06-01
# ICDAR 2021 オンライン署名検証に関するコンペティション

ICDAR 2021 Competition on On-Line Signature Verification ( http://arxiv.org/abs/2106.00739v1 )

ライセンス: Link先を確認
Ruben Tolosana, Ruben Vera-Rodriguez, Carlos Gonzalez-Garcia, Julian Fierrez, Santiago Rengifo, Aythami Morales, Javier Ortega-Garcia, Juan Carlos Ruiz-Garcia, Sergio Romero-Tapiador, Jiajia Jiang, Songxuan Lai, Lianwen Jin, Yecheng Zhu, Javier Galbally, Moises Diaz, Miguel Angel Ferrer, Marta Gomez-Barrero, Ilya Hodashinsky, Konstantin Sarin, Artem Slezkin, Marina Bardamova, Mikhail Svetlakov, Mohammad Saleem, Cintia Lia Sz\"ucs, Bence Kovari, Falk Pulsmeyer, Mohamad Wehbi, Dario Zanca, Sumaiya Ahmad, Sarthak Mishra and Suraiya Jabin(参考訳) 本稿では,オンライン署名検証 (SVC 2021) に関する ICDAR 2021 コンペティションの枠組みと成果について述べる。 SVC 2021の目標は、一般的なシナリオ(オフィス/モバイル)におけるオンライン署名検証システムの限界を評価し、大規模なパブリックデータベースを通じて入力(スタイラス/フィンガー)を書くことである。 競技では3つの異なるタスクが考慮され、各タスクにランダムと熟練した偽造が同時に考慮されるように、現実的なシナリオをシミュレートする。 svc 2021で得られた結果は,深層学習手法の可能性が高いことを証明した。 特に、SVC 2021の最良のオンライン署名検証システムでは、EERの値は3.33%(Task 1)、 7.41%(Task2)、 6.04%(Task3)である。 SVC 2021は、現在進行中のコンペティションとして確立され、DeepSignDBやSVC2021_EvalDBといった大規模公開データベースと標準実験プロトコルを使用して、オープンな共通プラットフォームにおける最先端技術に対して、システムを簡単にベンチマークすることができる。

This paper describes the experimental framework and results of the ICDAR 2021 Competition on On-Line Signature Verification (SVC 2021). The goal of SVC 2021 is to evaluate the limits of on-line signature verification systems on popular scenarios (office/mobile) and writing inputs (stylus/finger) through large-scale public databases. Three different tasks are considered in the competition, simulating realistic scenarios as both random and skilled forgeries are simultaneously considered on each task. The results obtained in SVC 2021 prove the high potential of deep learning methods. In particular, the best on-line signature verification system of SVC 2021 obtained Equal Error Rate (EER) values of 3.33% (Task 1), 7.41% (Task 2), and 6.04% (Task 3). SVC 2021 will be established as an on-going competition, where researchers can easily benchmark their systems against the state of the art in an open common platform using large-scale public databases such as DeepSignDB and SVC2021_EvalDB, and standard experimental protocols.
翻訳日:2021-06-03 14:24:19 公開日:2021-06-01
# 知覚画像の高分解能化のためのフーリエ空間損失

Fourier Space Losses for Efficient Perceptual Image Super-Resolution ( http://arxiv.org/abs/2106.00783v1 )

ライセンス: Link先を確認
Dario Fuoli, Luc Van Gool, and Radu Timofte(参考訳) 多くの超解像モデル (SR) は高性能に最適化されているため、大きなモデルの複雑さのために効率が良くない。 大規模モデルは実世界の応用では実用的ではないことが多いため、より効率的なモデルから高い知覚品質のSRを実現するために、新しい損失関数を研究・提案する。 与えられた低複雑性ジェネレータネットワークの代表電力は、パラメータの最適セットに対する強いガイダンスによってのみ活用できる。 提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。 特に,フーリエ領域において直接動作する識別器アーキテクチャを設計し,対象のhf分布をよりよく一致させるため,フーリエ空間監督損失を用いて,地上真理画像から欠落した高周波(hf)コンテンツを復元する。 フーリエ空間における損失の直接的強調は知覚的画質を著しく向上させると同時に,従来提案されていた損失関数と比較して高い復元品質を維持していることを示す。 両方の表現がトレーニング中に相補的な情報を提供するので、空間領域と周波数領域の損失の組み合わせを利用してさらに性能を向上する。 それに加えて、訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。

Many super-resolution (SR) models are optimized for high performance only and therefore lack efficiency due to large model complexity. As large models are often not practical in real-world applications, we investigate and propose novel loss functions, to enable SR with high perceptual quality from much more efficient models. The representative power for a given low-complexity generator network can only be fully leveraged by strong guidance towards the optimal set of parameters. We show that it is possible to improve the performance of a recently introduced efficient generator architecture solely with the application of our proposed loss functions. In particular, we use a Fourier space supervision loss for improved restoration of missing high-frequency (HF) content from the ground truth image and design a discriminator architecture working directly in the Fourier domain to better match the target HF distribution. We show that our losses' direct emphasis on the frequencies in Fourier-space significantly boosts the perceptual image quality, while at the same time retaining high restoration quality in comparison to previously proposed loss functions for this task. The performance is further improved by utilizing a combination of spatial and frequency domain losses, as both representations provide complementary information during training. On top of that, the trained generator achieves comparable results with and is 2.4x and 48x faster than state-of-the-art perceptual SR methods RankSRGAN and SRFlow respectively.
翻訳日:2021-06-03 14:23:58 公開日:2021-06-01
# ボクセル化点雲幾何の無損失圧縮のための境界体積の精錬

Refining the bounding volumes for lossless compression of voxelized point clouds geometry ( http://arxiv.org/abs/2106.00828v1 )

ライセンス: Link先を確認
Emre Can Kaya, Sebastian Schwarz, Ioan Tabus(参考訳) 本稿では, 点雲の体積のみを再構成することを目的とした, 最新の損失圧縮法を基にした, 点雲幾何学の新しい無損失圧縮法について述べる。 提案手法は1つの投影方向に関連する2つの深度マップから幾何を部分的に再構成することから始まる。 深度マップから得られた部分再構成は、一方向に沿って断面分割し、2つの深さマップに含まれない点を符号化することにより、点雲の完全な再構成に完成する。 主成分は、入力データに存在する回転不変性を効率的に利用する新規な算術的3次元コンテキスト符号化手順により、内点(実現可能領域内)の一覧に基づく符号化である。 ベンチマークデータセットでは、最先端のビット毎voxel結果が得られる。

This paper describes a novel lossless compression method for point cloud geometry, building on a recent lossy compression method that aimed at reconstructing only the bounding volume of a point cloud. The proposed scheme starts by partially reconstructing the geometry from the two depthmaps associated to a single projection direction. The partial reconstruction obtained from the depthmaps is completed to a full reconstruction of the point cloud by sweeping section by section along one direction and encoding the points which were not contained in the two depthmaps. The main ingredient is a list-based encoding of the inner points (situated inside the feasible regions) by a novel arithmetic three dimensional context coding procedure that efficiently utilizes rotational invariances present in the input data. State-of-the-art bits-per-voxel results are obtained on benchmark datasets.
翻訳日:2021-06-03 14:23:36 公開日:2021-06-01
# 物体マニフォールドのニューラルプロセッシングの統計力学

Statistical Mechanics of Neural Processing of Object Manifolds ( http://arxiv.org/abs/2106.00790v1 )

ライセンス: Link先を確認
SueYeon Chung(参考訳) 不変物体認識は、脳が行う最も基本的な認知タスクの1つである。 神経状態空間では、刺激変動を持つ異なる物体は異なる多様体として表現される。 この幾何学的な観点では、オブジェクト認識は異なるオブジェクト多様体を線形に分離する問題となる。 フィードフォワードの視覚階層では、オブジェクト多様体の表現は層全体に再フォーマットされ、より線形に分離可能であることが示唆されている。 したがって、知覚の完全な理論は、可変神経応答から対象多様体を分類する線形読み出しネットワークの能力を特徴付ける必要がある。 孤立点の知覚論は、E. Gardnerがこれを統計力学問題として定式化し、レプリカ理論を用いて解析した。 本稿では、ガードナーの解析を一般化し、高次元信号の統計的および幾何学的性質を合成する多様体の線形分類の理論を確立する。 次に、我々の理論をさらに一般化して、点雲のような一般的な知覚多様体の線形分類を行う。 多様体のキャパシティは,有効半径, R_M, 有効次元, D_Mと決定される。 最後に、相関多様体、異種多様体ジオメトリ、スパースラベル、非線形分類を含む実データへの応用に関する拡張を示す。 次に、オブジェクトベース多様体が標準深層ネットワークでどのように変換されるかを示す。 この論文は、対象の神経処理の計算理論の基礎を定め、対象多様体の線形分離性に関する定量的測度を提供する。 この理論が、生体および人工ニューラルネットワークにおける感覚表現の処理の基礎となる計算原理に新たな洞察を与えることを期待している。

Invariant object recognition is one of the most fundamental cognitive tasks performed by the brain. In the neural state space, different objects with stimulus variabilities are represented as different manifolds. In this geometrical perspective, object recognition becomes the problem of linearly separating different object manifolds. In feedforward visual hierarchy, it has been suggested that the object manifold representations are reformatted across the layers, to become more linearly separable. Thus, a complete theory of perception requires characterizing the ability of linear readout networks to classify object manifolds from variable neural responses. A theory of the perceptron of isolated points was pioneered by E. Gardner who formulated it as a statistical mechanics problem and analyzed it using replica theory. In this thesis, we generalize Gardner's analysis and establish a theory of linear classification of manifolds synthesizing statistical and geometric properties of high dimensional signals. [..] Next, we generalize our theory further to linear classification of general perceptual manifolds, such as point clouds. We identify that the capacity of a manifold is determined that effective radius, R_M, and effective dimension, D_M. Finally, we show extensions relevant for applications to real data, incorporating correlated manifolds, heterogenous manifold geometries, sparse labels and nonlinear classifications. Then, we demonstrate how object-based manifolds transform in standard deep networks. This thesis lays the groundwork for a computational theory of neuronal processing of objects, providing quantitative measures for linear separability of object manifolds. We hope this theory will provide new insights into the computational principles underlying processing of sensory representations in biological and artificial neural networks.
翻訳日:2021-06-03 14:22:49 公開日:2021-06-01
# 極端分類におけるラベル木の効率-精度トレードオフ

Enabling Efficiency-Precision Trade-offs for Label Trees in Extreme Classification ( http://arxiv.org/abs/2106.00730v1 )

ライセンス: Link先を確認
Tavor Z. Baharav, Daniel L. Jiang, Kedarnath Kolluri, Sujay Sanghavi, Inderjit S. Dhillon(参考訳) Extreme Multi-label Classification (XMC) は、非常に大きなラベルセットから関連するラベルのサブセットでデータポイントをタグ付けできるモデルを学ぶことを目的としている。 パーソナライズされたレコメンデーションや製品広告のような現実世界のeコマースアプリケーションは、XMC問題として定式化することができる。 このようなアプリケーションでは、ラベルを木に整理し、ラベル数に対数的なトレーニングと推論時間を可能にするのが一般的なアプローチである。 ラベルツリーが利用可能になったらモデルをトレーニングすることはよく研究されていますが、ツリーの構造を設計することは、まだよく理解されていない難しい作業であり、モデルのレイテンシと統計パフォーマンスの両方に劇的に影響を与えます。 既存のツリー構築アプローチは、統計的なパフォーマンスにのみ最適化するか、レイテンシーに最適化される。 我々は,両者の利益をトレードオフする中間操作点を構築するための効率的な情報理論インスパイアアルゴリズムを提案する。 本アルゴリズムは,従来不可能であったこれらの目的間の補間を可能にする。 wiki-500kベンチマークデータセットでは、パラベルと同じ精度を維持しつつ、予測レイテンシのプロキシを最大28%削減できることを示した。 電子商取引の顧客ログから得られたいくつかのデータセットでは、修正されたラベルツリーが、同じ精度を維持しながら、この予測レイテンシメトリックを最大20%改善することができます。 最後に,デプロイモデルのレイテンシ向上を実現する上での課題について論じる。

Extreme multi-label classification (XMC) aims to learn a model that can tag data points with a subset of relevant labels from an extremely large label set. Real world e-commerce applications like personalized recommendations and product advertising can be formulated as XMC problems, where the objective is to predict for a user a small subset of items from a catalog of several million products. For such applications, a common approach is to organize these labels into a tree, enabling training and inference times that are logarithmic in the number of labels. While training a model once a label tree is available is well studied, designing the structure of the tree is a difficult task that is not yet well understood, and can dramatically impact both model latency and statistical performance. Existing approaches to tree construction fall at an extreme point, either optimizing exclusively for statistical performance, or for latency. We propose an efficient information theory inspired algorithm to construct intermediary operating points that trade off between the benefits of both. Our algorithm enables interpolation between these objectives, which was not previously possible. We corroborate our theoretical analysis with numerical results, showing that on the Wiki-500K benchmark dataset our method can reduce a proxy for expected latency by up to 28% while maintaining the same accuracy as Parabel. On several datasets derived from e-commerce customer logs, our modified label tree is able to improve this expected latency metric by up to 20% while maintaining the same accuracy. Finally, we discuss challenges in realizing these latency improvements in deployed models.
翻訳日:2021-06-03 14:21:43 公開日:2021-06-01
# マルチドメイン環境におけるc2意思決定を改善するための画像オーディオ符号化

Image-Audio Encoding to Improve C2 Decision-Making in Multi-Domain Environment ( http://arxiv.org/abs/2106.00787v1 )

ライセンス: Link先を確認
Piyush K. Sharma and Adrienne Raglin(参考訳) 軍は、MDO(Multi- Domain Operation)におけるコミュニケーションと機敏性を改善する方法を調査している。 IoT(Internet of Things)が最近人気になったのは、パブリックドメインと政府ドメインだ。 MDOにおけるその使用は将来の戦場に革命をもたらし、戦略的優位性をもたらす可能性がある。 この技術は軍事能力の活用を提供するが、不確実性と関連するリスクが問題となる。 重要な疑問は、これらの不確実性に対処する方法だ。 近年、あるデータ領域から別のデータ領域へ情報を変換するための情報カモフラージュが提案されている。 これは比較的新しいアプローチであるため、このような変革の課題と、関連する不確実性の検出と対処方法、特に未知の未知の意思決定の改善について検討する。

The military is investigating methods to improve communication and agility in its multi-domain operations (MDO). Nascent popularity of Internet of Things (IoT) has gained traction in public and government domains. Its usage in MDO may revolutionize future battlefields and may enable strategic advantage. While this technology offers leverage to military capabilities, it comes with challenges where one is the uncertainty and associated risk. A key question is how can these uncertainties be addressed. Recently published studies proposed information camouflage to transform information from one data domain to another. As this is comparatively a new approach, we investigate challenges of such transformations and how these associated uncertainties can be detected and addressed, specifically unknown-unknowns to improve decision-making.
翻訳日:2021-06-03 14:19:20 公開日:2021-06-01
# 分散型マルチエージェントq-learningによるuav基地局の省エネルギー配置最適化

Energy-aware placement optimization of UAV base stations via decentralized multi-agent Q-learning ( http://arxiv.org/abs/2106.00845v1 )

ライセンス: Link先を確認
Babatunji Omoniwa, Boris Galkin, Ivana Dusparic(参考訳) 航空基地局(uav-bss)として機能する無人航空機は、ネットワーク需要の増加、既存のインフラの障害点、災害発生時の地上機器への無線接続を提供する。 しかし、バッテリー容量の制限を考慮すると、長時間のカバー作業においてUAVのエネルギーを節約することは困難である。 強化学習ベース(rl)アプローチは、これまで複数のuavのエネルギー利用を改善するために用いられてきたが、中央のクラウドコントローラは、エンドデバイスの位置に関する完全な知識を持っていると仮定されている。 この仮定は、モバイルグラウンドデバイスを用いた動的ネットワーク環境では現実的ではない。 この問題に対処するため,各UAV-BSには,地上機器との接続性を最大化し,エネルギー利用の向上を図る自律エージェントが備わっている。 実験の結果,UAV-BSの連接する接地装置の数とエネルギー利用の最大化において,提案手法は集中型アプローチよりも有意に優れていた。

Unmanned aerial vehicles serving as aerial base stations (UAV-BSs) can be deployed to provide wireless connectivity to ground devices in events of increased network demand, points-of-failure in existing infrastructure, or disasters. However, it is challenging to conserve the energy of UAVs during prolonged coverage tasks, considering their limited on-board battery capacity. Reinforcement learning-based (RL) approaches have been previously used to improve energy utilization of multiple UAVs, however, a central cloud controller is assumed to have complete knowledge of the end-devices' locations, i.e., the controller periodically scans and sends updates for UAV decision-making. This assumption is impractical in dynamic network environments with mobile ground devices. To address this problem, we propose a decentralized Q-learning approach, where each UAV-BS is equipped with an autonomous agent that maximizes the connectivity to ground devices while improving its energy utilization. Experimental results show that the proposed design significantly outperforms the centralized approaches in jointly maximizing the number of connected ground devices and the energy utilization of the UAV-BSs.
翻訳日:2021-06-03 14:19:07 公開日:2021-06-01
# (参考訳) スパースグラフのサンプルfr\'echet平均はスパースである [全文訳有]

The Sample Fr\'echet Mean of Sparse Graphs is Sparse ( http://arxiv.org/abs/2105.14397v2 )

ライセンス: CC BY 4.0
Daniel Ferguson, Francois G. Meyer(参考訳) グラフからなる大規模なデータセットが利用可能になったことで、"グラフ値のランダム変数"の統計学習において、新しいツールを発明する必要がなくなった。 グラフのサンプルの「平均」を特徴づけるために、サンプルFr\'echet平均を計算することができる。 サンプル平均はグラフサンプルの解釈可能な要約を与える必要があるので、サンプルの構造的性質がFr'echet平均に伝達されると予想される。 サンプル Fr\'echet は標本中のグラフの構造的性質を継承することを意味するのか? 具体的には、以下の結果を示す: スパースグラフの集合のサンプルfr\'echet平均はスパースである。 グラフハミング距離とスペクトル隣接擬メトリックに対する結果は、非常に異なる引数を用いて証明する。 実際に、サンプルFr'echet平均のエッジ密度は、サンプル内のグラフのエッジ密度によって束縛されるという、より強い結果が証明される。 この結果は、サンプルFr\'echet平均を推定するために用いられる方法にかかわらず、グラフサンプルからサンプルFr\'echet平均に伝達できる空間が遺伝性であることを保証している。

The availability of large datasets composed of graphs creates an unprecedented need to invent novel tools in statistical learning for "graph-valued random variables". To characterize the "average" of a sample of graphs, one can compute the sample Fr\'echet mean. Because the sample mean should provide an interpretable summary of the graph sample, one would expect that the structural properties of the sample be transmitted to the Fr\'echet mean. In this paper, we address the following foundational question: does the sample Fr\'echet mean inherit the structural properties of the graphs in the sample? Specifically, we prove the following result: the sample Fr\'echet mean of a set of sparse graphs is sparse. We prove the result for the graph Hamming distance, and the spectral adjacency pseudometric, using very different arguments. In fact, we prove a stronger result: the edge density of the sample Fr\'echet mean is bounded by the edge density of the graphs in the sample. This result guarantees that sparsity is an hereditary property, which can be transmitted from a graph sample to its sample Fr\'echet mean, irrespective of the method used to estimate the sample Fr\'echet mean.
翻訳日:2021-06-03 13:21:05 公開日:2021-06-01
# 周期gp:ガウス過程バンディットを用いた周期世界学習

Periodic-GP: Learning Periodic World with Gaussian Process Bandits ( http://arxiv.org/abs/2105.14422v2 )

ライセンス: Link先を確認
Hengrui Cai, Zhihao Cen, Ling Leng, Rui Song(参考訳) 配車におけるドライバーの日々の需要や交通の動的な交通パターンなど、データが季節性を伴う場合に、様々な実世界のアプリケーションで発生する周期的環境における逐次的決定最適化を考える。 本研究では,この季節法則を活用し,確率的周期世界を学ぶことに注力する。 一般作用空間に対処するために,ガウス過程(GP)に基づくバンドイットを基本モデルとして,その柔軟性と一般性から用い,高信頼度境界に基づく周期的カーネルを用いた周期的GP法を提案する。 理論的には、周期的定常モデルにおいて周期的核を明示的に特徴付けることにより、提案手法の新たな後悔のバウンドを与える。 実験的に,提案アルゴリズムは,マドリードの交通汚染に対する合成データ実験と実データ応用の両方において,既存の手法を著しく上回っている。

We consider the sequential decision optimization on the periodic environment, that occurs in a wide variety of real-world applications when the data involves seasonality, such as the daily demand of drivers in ride-sharing and dynamic traffic patterns in transportation. In this work, we focus on learning the stochastic periodic world by leveraging this seasonal law. To deal with the general action space, we use the bandit based on Gaussian process (GP) as the base model due to its flexibility and generality, and propose the Periodic-GP method with a temporal periodic kernel based on the upper confidence bound. Theoretically, we provide a new regret bound of the proposed method, by explicitly characterizing the periodic kernel in the periodic stationary model. Empirically, the proposed algorithm significantly outperforms the existing methods in both synthetic data experiments and a real data application on Madrid traffic pollution.
翻訳日:2021-06-03 11:02:46 公開日:2021-06-01
# (参考訳) 自然災害評価のためのUAVデータセットの注意に基づくセマンティックセマンティックセグメンテーション [全文訳有]

Attention Based Semantic Segmentation on UAV Dataset for Natural Disaster Damage Assessment ( http://arxiv.org/abs/2105.14540v2 )

ライセンス: CC BY 4.0
Tashnim Chowdhury, Maryam Rahnemoonfar(参考訳) 気候変動による有害な影響には、世界中の強大で破壊的なハリケーンが含まれる。 自然災害による被害を最小限に抑えるため、救助隊の計画を支援するため、建物や道路を含む地域の被害の異なる構造物の特定が不可欠である。 セマンティックセグメンテーションは、画像の異なる部分を特定するのに役立つ。 我々は,高分解能UAVデータセット上に,自己注意に基づくセマンティックセマンティックセマンティクスモデルを実装し,テストセットで約88%のMean IoUスコアを得る。 その結果、人命を救うとともに経済損失を減らす自然災害被害評価に自己注意型スキームを使うことが示唆された。

The detrimental impacts of climate change include stronger and more destructive hurricanes happening all over the world. Identifying different damaged structures of an area including buildings and roads are vital since it helps the rescue team to plan their efforts to minimize the damage caused by a natural disaster. Semantic segmentation helps to identify different parts of an image. We implement a novel self-attention based semantic segmentation model on a high resolution UAV dataset and attain Mean IoU score of around 88% on the test set. The result inspires to use self-attention schemes in natural disaster damage assessment which will save human lives and reduce economic losses.
翻訳日:2021-06-03 09:18:59 公開日:2021-06-01
# (参考訳) 変分オートエンコーダ:調和的視点 [全文訳有]

Variational Autoencoders: A Harmonic Perspective ( http://arxiv.org/abs/2105.14866v2 )

ライセンス: CC BY 4.0
Alexander Camuto, Matthew Willetts(参考訳) 本研究では,高調波解析の観点から変分オートエンコーダ(VAE)について検討する。 VAEの潜伏空間を様々な測度空間であるガウス空間として見ることにより、VAEのエンコーダ分散がVAEエンコーダとデコーダニューラルネットワークによってパラメータ化された関数の周波数内容を制御することを示す一連の結果を得る。 特に、より大きなエンコーダ分散がこれらの関数の高周波含量を減少させることを示す。 解析により,この分散の増大がvaeのデコーダネットワークにソフトリプシッツ制約を効果的に生じさせることを示した。 さらに、VAEの入力にガウス雑音を加えることで、VAEエンコーダネットワークの周波数内容とリプシッツ定数をより細かく制御できることを示す。 理論解析を支援するために、我々は、小さな完全連結ニューラルネットワークとより大きな畳み込みネットワークを用いたVAEの実験を行い、我々の理論が様々なニューラルネットワークアーキテクチャを実証した。

In this work we study Variational Autoencoders (VAEs) from the perspective of harmonic analysis. By viewing a VAE's latent space as a Gaussian Space, a variety of measure space, we derive a series of results that show that the encoder variance of a VAE controls the frequency content of the functions parameterised by the VAE encoder and decoder neural networks. In particular we demonstrate that larger encoder variances reduce the high frequency content of these functions. Our analysis allows us to show that increasing this variance effectively induces a soft Lipschitz constraint on the decoder network of a VAE, which is a core contributor to the adversarial robustness of VAEs. We further demonstrate that adding Gaussian noise to the input of a VAE allows us to more finely control the frequency content and the Lipschitz constant of the VAE encoder networks. To support our theoretical analysis we run experiments with VAEs with small fully-connected neural networks and with larger convolutional networks, demonstrating empirically that our theory holds for a variety of neural network architectures.
翻訳日:2021-06-03 08:44:05 公開日:2021-06-01
# (参考訳) semeval-2021タスク4 : 抽象的意味の理解 [全文訳有]

SemEval-2021 Task 4: Reading Comprehension of Abstract Meaning ( http://arxiv.org/abs/2105.14879v2 )

ライセンス: CC BY 4.0
Boyuan Zheng, Xiaoyu Yang, Yu-Ping Ruan, Zhenhua Ling, Quan Liu, Si Wei, Xiaodan Zhu(参考訳) 本稿では, semeval-2021 共通タスク4: read comprehension of abstract meaning (recam) を紹介する。 この共有タスクは抽象概念を表現・理解する機械の能力を評価するために設計されている。 質問文とそれに対応する質問文が与えられた場合、参加システムは5つの抽象概念候補の中から正しい回答を選択することが期待される。 抽象性の2つの典型的な定義、すなわち非受容性と非特異性に基づいて、我々のタスクは参加モデルを評価するための3つのサブタスクを提供する。 特に、subtask 1は、システムが物理的世界で直接知覚できない概念をいかにうまくモデル化できるかを評価することを目的としている。 Subtask 2は、パスの文脈から、ハイパーネム階層にある非特異な概念を解釈するモデルの能力に焦点を当てている。 Subtask 3は、2種類の抽象性に対するモデルの一般化可能性に関する洞察を提供することを目的としている。 SemEval-2021 の公式評価期間中に,Subtask 1 に 23 件,Subtask 2 に 28 件を提出した。 参加チームはさらに29件をSubtask 3に提出した。 leaderboard and competitionのウェブサイトはhttps://competitions .codalab.org/competi tions/26153にある。 データとベースラインコードはhttps://github.com/b oyuanzheng010/SemEva l2021-Reading-Compre hension-of-Abstract- Meaningで入手できる。

This paper introduces the SemEval-2021 shared task 4: Reading Comprehension of Abstract Meaning (ReCAM). This shared task is designed to help evaluate the ability of machines in representing and understanding abstract concepts. Given a passage and the corresponding question, a participating system is expected to choose the correct answer from five candidates of abstract concepts in a cloze-style machine reading comprehension setup. Based on two typical definitions of abstractness, i.e., the imperceptibility and nonspecificity, our task provides three subtasks to evaluate the participating models. Specifically, Subtask 1 aims to evaluate how well a system can model concepts that cannot be directly perceived in the physical world. Subtask 2 focuses on models' ability in comprehending nonspecific concepts located high in a hypernym hierarchy given the context of a passage. Subtask 3 aims to provide some insights into models' generalizability over the two types of abstractness. During the SemEval-2021 official evaluation period, we received 23 submissions to Subtask 1 and 28 to Subtask 2. The participating teams additionally made 29 submissions to Subtask 3. The leaderboard and competition website can be found at https://competitions .codalab.org/competi tions/26153. The data and baseline code are available at https://github.com/b oyuanzheng010/SemEva l2021-Reading-Compre hension-of-Abstract- Meaning.
翻訳日:2021-06-03 08:24:41 公開日:2021-06-01
# (参考訳) スパースなエキスパートモデルとそれ以上を探求する [全文訳有]

Exploring Sparse Expert Models and Beyond ( http://arxiv.org/abs/2105.15082v2 )

ライセンス: CC BY 4.0
An Yang, Junyang Lin, Rui Men, Chang Zhou, Le Jiang, Xianyan Jia, Ang Wang, Jie Zhang, Jiamang Wang, Yong Li, Di Zhang, Wei Lin, Lin Qu, Jingren Zhou, Hongxia Yang(参考訳) Mixture-of-Experts (MoE) モデルは、無数のパラメータを持つ有望な結果が得られるが、計算コストは一定であり、モデルスケーリングのトレンドとなっている。 それでも、MoE層がパラメータをスパースアクティベーションで活用することで、どのように品質向上をもたらすのかは謎である。 本研究では,スパースエキスパートモデルにおけるいくつかの要因について検討する。 負荷の不均衡は、最近の研究の視点とは対照的に、モデル品質に重大な問題ではない可能性があるが、sparsely activated experts $k$とexpert capacity $c$トップ$k$ routingは、この文脈で大きな違いをもたらす可能性がある。 さらに私たちは、エキスパートプロトタイピングと呼ばれる、専門家を異なるプロトタイプに分割し、トップクラスのルーティングに$k$を適用するシンプルな方法を提案します。 この戦略は, モデル品質を向上させるが, 一定の計算コストを維持するとともに, 大規模モデルのさらなる探索により, 大規模モデルの訓練に有効であることが示唆された。 私たちはモデルスケールを1兆ドル以上のパラメータにし、NVIDIA V100-32GBのGPUのみに実装します。 提案する巨大モデルは,同規模のベースライン上での収束の大幅な高速化を実現する。

Mixture-of-Experts (MoE) models can achieve promising results with outrageous large amount of parameters but constant computation cost, and thus it has become a trend in model scaling. Still it is a mystery how MoE layers bring quality gains by leveraging the parameters with sparse activation. In this work, we investigate several key factors in sparse expert models. We observe that load imbalance may not be a significant problem affecting model quality, contrary to the perspectives of recent studies, while the number of sparsely activated experts $k$ and expert capacity $C$ in top-$k$ routing can significantly make a difference in this context. Furthermore, we take a step forward to propose a simple method called expert prototyping that splits experts into different prototypes and applies $k$ top-$1$ routing. This strategy improves the model quality but maintains constant computational costs, and our further exploration on extremely large-scale models reflects that it is more effective in training larger models. We push the model scale to over $1$ trillion parameters and implement it on solely $480$ NVIDIA V100-32GB GPUs, in comparison with the recent SOTAs on $2048$ TPU cores. The proposed giant model achieves substantial speedup in convergence over the same-size baseline.
翻訳日:2021-06-03 08:02:58 公開日:2021-06-01
# (参考訳) 単調分類器の説明 [全文訳有]

Explanations for Monotonic Classifiers ( http://arxiv.org/abs/2106.00154v1 )

ライセンス: CC BY 4.0
Joao Marques-Silva, Thomas Gerspacher, Martin Cooper, Alexey Ignatiev, Nina Narodytska(参考訳) 多くの分類課題では単調性が要求される。 具体的には、もし他のすべてが一定であるならば、増加(resp)する。 減少) 1つ以上の特徴の値が減少してはいけない(resp)。 増加) 予測の値。 単調分類子を学ぶための包括的な取り組みにもかかわらず、単調分類子を説明するための専門的なアプローチは乏しく、分類子特有のものである。 本稿では,ブラックボックス型単調分類器の一形式的説明の計算アルゴリズムについて述べる。 これらの新しいアルゴリズムは、分類器のランタイム複雑性と特徴数における多項式である。 さらに,形式的説明を列挙する実用的なモデル非依存アルゴリズムを提案する。

In many classification tasks there is a requirement of monotonicity. Concretely, if all else remains constant, increasing (resp. decreasing) the value of one or more features must not decrease (resp. increase) the value of the prediction. Despite comprehensive efforts on learning monotonic classifiers, dedicated approaches for explaining monotonic classifiers are scarce and classifier-specific. This paper describes novel algorithms for the computation of one formal explanation of a (black-box) monotonic classifier. These novel algorithms are polynomial in the run time complexity of the classifier and the number of features. Furthermore, the paper presents a practically efficient model-agnostic algorithm for enumerating formal explanations.
翻訳日:2021-06-03 03:26:05 公開日:2021-06-01
# (参考訳) スパース出力を用いた軌道予測の強化:チームスポーツへの応用 [全文訳有]

Enhancing Trajectory Prediction using Sparse Outputs: Application to Team Sports ( http://arxiv.org/abs/2106.00173v1 )

ライセンス: CC BY 4.0
Brandon Victor, Aiden Nibali, Zhen He, David L. Carey(参考訳) チームのダイナミクスを効果的に模倣する洗練された軌道予測モデルは、スポーツコーチ、放送局、観客に多くの潜在的用途がある。 しかし、サッカーデータを用いた実験により、予測と真の将来の軌跡の間の平均距離で線形外挿を上回り、プレイヤー軌道予測のためのディープラーニングモデルをトレーニングすることは驚くほど困難であることがわかった。 本研究では,スパース軌道の予測と一定加速度による補間により訓練を改善する新しい手法を提案し,実験を行った。 この補間は、スパースアウトプットで訓練されていないモデルでも使用することができ、テストされたすべてのモデルのパフォーマンスを一貫して改善することがわかった。 さらに,他のプレイヤーの完全な軌跡を条件にすることで,プレイヤーのサブセットに対する予測軌跡の精度が向上し,スパース予測と組み合わせることでさらに改善できることが判明した。 また、グラフネットワークとマルチヘッドアテンション(gran-ma)を用いた新しいアーキテクチャを提案する。このアーキテクチャは、データセット上の他のテストされた最先端モデルよりも優れた性能を実現し、スパーストラジェクタとフルトラジェクション条件付き軌道予測の両方に自明に適合する。

Sophisticated trajectory prediction models that effectively mimic team dynamics have many potential uses for sports coaches, broadcasters and spectators. However, through experiments on soccer data we found that it can be surprisingly challenging to train a deep learning model for player trajectory prediction which outperforms linear extrapolation on average distance between predicted and true future trajectories. We propose and test a novel method for improving training by predicting a sparse trajectory and interpolating using constant acceleration, which improves performance for several models. This interpolation can also be used on models that aren't trained with sparse outputs, and we find that this consistently improves performance for all tested models. Additionally, we find that the accuracy of predicted trajectories for a subset of players can be improved by conditioning on the full trajectories of the other players, and that this is further improved when combined with sparse predictions. We also propose a novel architecture using graph networks and multi-head attention (GraN-MA) which achieves better performance than other tested state-of-the-art models on our dataset and is trivially adapted for both sparse trajectories and full-trajectory conditioned trajectory prediction.
翻訳日:2021-06-03 03:08:31 公開日:2021-06-01
# (参考訳) 2次元データセットのハイブリッド生成モデル [全文訳有]

Hybrid Generative Models for Two-Dimensional Datasets ( http://arxiv.org/abs/2106.00203v1 )

ライセンス: CC BY 4.0
Hoda Shajari, Jaemoon Lee, Sanjay Ranka, Anand Rangarajan(参考訳) 2次元配列に基づくデータセットは、様々な領域にまたがっている。 現在の生成モデリングのアプローチは、通常、従来の画像データセットに限定され、ピクセル間の相関を明示的にキャプチャしないピクセルドメインで実行される。 さらに、これらのアプローチは、各要素値が連続で固定範囲に制限されない科学や他の応用に拡張されない。 本稿では,計算を表現基盤の空間に移動させることにより,二次元データセットを生成する新しい手法を提案し,画像から,科学計算から2つの異なるデータセットにその有用性を示す。 提案手法は汎用的で,任意のデータセット,表現ベース,生成モデルに適用可能である。 生成モデルと表現ベース空間の様々な組み合わせを総合的に比較する。 また,画素空間における画像生成の不足を捉える新しい評価指標を提案する。

Two-dimensional array-based datasets are pervasive in a variety of domains. Current approaches for generative modeling have typically been limited to conventional image datasets and performed in the pixel domain which do not explicitly capture the correlation between pixels. Additionally, these approaches do not extend to scientific and other applications where each element value is continuous and is not limited to a fixed range. In this paper, we propose a novel approach for generating two-dimensional datasets by moving the computations to the space of representation bases and show its usefulness for two different datasets, one from imaging and another from scientific computing. The proposed approach is general and can be applied to any dataset, representation basis, or generative model. We provide a comprehensive performance comparison of various combinations of generative models and representation basis spaces. We also propose a new evaluation metric which captures the deficiency of generating images in pixel space.
翻訳日:2021-06-03 02:50:58 公開日:2021-06-01
# (参考訳) 最大傾き発見としての不連続名前付きエンティティ認識 [全文訳有]

Discontinuous Named Entity Recognition as Maximal Clique Discovery ( http://arxiv.org/abs/2106.00218v1 )

ライセンス: CC BY 4.0
Yucheng Wang, Bowen Yu, Hongsong Zhu, Tingwen Liu, Nan Yu and Limin Sun(参考訳) 名前付きエンティティ認識(NER)は、エンティティの言及が不連続である場合、依然として困難である。 既存の方法は、認識プロセスをいくつかの逐次ステップに分割する。 トレーニングにおいて、彼らは、前のステップのモデル出力に依存する推論を行いながら、黄金の中間結果を条件付きで予測する。 この問題を解決するために、まず各文のセグメントグラフを構築し、各ノードがセグメント(自身上の連続エンティティ、または不連続エンティティの一部)を表現し、エッジが同一エンティティに属する2つのノードをリンクする。 ノードとエッジはそれぞれ1つのステージでグリッドタグ方式で生成でき、macという新しいアーキテクチャを使って共同で学習することができる。 すると、不連続な NER はグラフ内の最大傾きを発見し、各傾きのスパンを連結する非パラメトリックな過程として再構成することができる。 3つのベンチマーク実験により,本手法はf1において最大3.5ポイント向上し,somaモデルよりも5倍の高速化を達成した。

Named entity recognition (NER) remains challenging when entity mentions can be discontinuous. Existing methods break the recognition process into several sequential steps. In training, they predict conditioned on the golden intermediate results, while at inference relying on the model output of the previous steps, which introduces exposure bias. To solve this problem, we first construct a segment graph for each sentence, in which each node denotes a segment (a continuous entity on its own, or a part of discontinuous entities), and an edge links two nodes that belong to the same entity. The nodes and edges can be generated respectively in one stage with a grid tagging scheme and learned jointly using a novel architecture named Mac. Then discontinuous NER can be reformulated as a non-parametric process of discovering maximal cliques in the graph and concatenating the spans in each clique. Experiments on three benchmarks show that our method outperforms the state-of-the-art (SOTA) results, with up to 3.5 percentage points improvement on F1, and achieves 5x speedup over the SOTA model.
翻訳日:2021-06-03 02:41:11 公開日:2021-06-01
# (参考訳) VA-GCN:ポイントクラウド上での学習のためのベクトル注意グラフ畳み込みネットワーク [全文訳有]

VA-GCN: A Vector Attention Graph Convolution Network for learning on Point Clouds ( http://arxiv.org/abs/2106.00227v1 )

ライセンス: CC BY 4.0
Haotian Hu, Fanyi Wang, Huixiao Le(参考訳) 局所集約演算子の研究の発展により、ポイントクラウド解析モデルにおいて劇的なブレークスルーが行われた。 しかし、現在の文献における既存の局所集約演算子は、モデルのパワーを制限する点雲の局所的な情報に十分な重要性を持たない。 そこで我々は,K-Nearest Neighbor (KNN) を用いて各入力点の近傍点を抽出し,中心点とその近傍点間のベクトルの標高と方位関係を利用して,エッジ特徴に対する注目重み行列を構築する,効率的なベクトル注意変換モジュール(VAConv)を提案する。 その後、VAConvは二重チャネル構造を採用し、重み付けされたエッジ特徴とグローバル特徴を融合させる。 VAConvの効率を検証するために,VAConvsを異なる受容領域に並列に接続し,マルチスケールグラフ畳み込みネットワークVA-GCNを得る。 提案したVA-GCNは、ModelNet40、S3DIS、ShapeNetなどの標準ベンチマークで最先端のパフォーマンスを実現する。 3D分類のためのModelNet40データセットでは、VA-GCNはベースラインに比べて2.4%増加した。

Owing to the development of research on local aggregation operators, dramatic breakthrough has been made in point cloud analysis models. However, existing local aggregation operators in the current literature fail to attach decent importance to the local information of the point cloud, which limits the power of the models. To fit this gap, we propose an efficient Vector Attention Convolution module (VAConv), which utilizes K-Nearest Neighbor (KNN) to extract the neighbor points of each input point, and then uses the elevation and azimuth relationship of the vectors between the center point and its neighbors to construct an attention weight matrix for edge features. Afterwards, the VAConv adopts a dual-channel structure to fuse weighted edge features and global features. To verify the efficiency of the VAConv, we connect the VAConvs with different receptive fields in parallel to obtain a Multi-scale graph convolutional network, VA-GCN. The proposed VA-GCN achieves state-of-the-art performance on standard benchmarks including ModelNet40, S3DIS and ShapeNet. Remarkably, on the ModelNet40 dataset for 3D classification, VA-GCN increased by 2.4% compared to the baseline.
翻訳日:2021-06-03 02:26:11 公開日:2021-06-01
# (参考訳) ロバスト画像と画像セット分類のための統計的・空間的疎結合の再検討 [全文訳有]

Reconciliation of Statistical and Spatial Sparsity For Robust Image and Image-Set Classification ( http://arxiv.org/abs/2106.00256v1 )

ライセンス: CC BY 4.0
Hao Cheng, Kim-Hui Yap, and Bihan Wen(参考訳) 最近の画像分類アルゴリズムは、大規模データセットから深い特徴を学習することで、従来の特徴ベースアプローチと比較してかなり優れた結果を得た。 しかしながら、ノイズ画像や画像集合クエリの分類や、限られたスケールのデータセット上での深層画像分類モデルのトレーニングなど、実際にはさまざまな画像分類の課題がある。 汎用的な深い特徴を適用する代わりに、モデルベースのアプローチは、画像と画像セットの分類タスクにおいてより効果的でデータ効率が良い。 本研究では,局所パッチ構造とリーマン多様体に写像された大域ガウス分布とを調和させることにより,画像や画像データセットの分類をモデル化する,新たな統計的・空間的スパース表現法である \textit{j3s} を提案する。 我々の知る限りでは、グローバル統計と局所パッチ構造をジョイントスパース表現を通じて併用する作業は行われていない。 ジョイントスパース性を用いて局所画像表現と大域画像表現を結合することにより,j3sモデルに基づくジョイントスパース符号化問題を解く。 学習したJ3Sモデルは、堅牢な画像分類とイメージセット分類に使用される。 実験の結果,提案手法はFMD, UIUC, ETH-80, YTCデータベース上での競合手法よりも高い性能を示した。

Recent image classification algorithms, by learning deep features from large-scale datasets, have achieved significantly better results comparing to the classic feature-based approaches. However, there are still various challenges of image classifications in practice, such as classifying noisy image or image-set queries and training deep image classification models over the limited-scale dataset. Instead of applying generic deep features, the model-based approaches can be more effective and data-efficient for robust image and image-set classification tasks, as various image priors are exploited for modeling the inter- and intra-set data variations while preventing over-fitting. In this work, we propose a novel Joint Statistical and Spatial Sparse representation, dubbed \textit{J3S}, to model the image or image-set data for classification, by reconciling both their local patch structures and global Gaussian distribution mapped into Riemannian manifold. To the best of our knowledge, no work to date utilized both global statistics and local patch structures jointly via joint sparse representation. We propose to solve the joint sparse coding problem based on the J3S model, by coupling the local and global image representations using joint sparsity. The learned J3S models are used for robust image and image-set classification. Experiments show that the proposed J3S-based image classification scheme outperforms the popular or state-of-the-art competing methods over FMD, UIUC, ETH-80 and YTC databases.
翻訳日:2021-06-03 02:14:06 公開日:2021-06-01
# (参考訳) 分割とルール: 動的プロセスのための繰り返し分割ネットワーク [全文訳有]

Divide and Rule: Recurrent Partitioned Network for Dynamic Processes ( http://arxiv.org/abs/2106.00258v1 )

ライセンス: CC BY 4.0
Qianyu Feng, Bang Zhang, Yi Yang(参考訳) 一般に、多くの動的プロセスは相互作用変数(物理システムから社会学的分析まで)に関与している。 システム内のコンポーネントの相互作用は、相反する動的な振る舞いを引き起こす可能性がある。 多くのアプローチは、プロトゲン運動を捉えるのに有効な内部相互作用を無視した時間配列をモデル化する。 異なることに、我々のゴールは、部分全体階層を持つシステムを表現し、システム内変数間のインプリート依存性を発見することであり、これは、Recurrent partItioned Network (REIN) によるサブシステム動作に因果関係を持つ相互作用を推論することである。 提案アーキテクチャは, (i) 複数のレベルにおける観測の階層的かつ時間的に一貫した表現を抽出する知覚モジュール, (ii) 各レベルにおけるニューロン間の関係性を決定する導出モジュール, (iii)時間分布推定を条件に未来を予測する統計的モジュールからなる。 本モデルは,様々な物理システムを用いた長期予測において,限られた観測と安定なコンポーネント間相互作用の同定に有効であることが実証された。

In general, many dynamic processes are involved with interacting variables, from physical systems to sociological analysis. The interplay of components in the system can give rise to confounding dynamic behavior. Many approaches model temporal sequences holistically ignoring the internal interaction which are impotent in capturing the protogenic actuation. Differently, our goal is to represent a system with a part-whole hierarchy and discover the implied dependencies among intra-system variables: inferring the interactions that possess causal effects on the sub-system behavior with REcurrent partItioned Network (REIN). The proposed architecture consists of (i) a perceptive module that extracts a hierarchical and temporally consistent representation of the observation at multiple levels, (ii) a deductive module for determining the relational connection between neurons at each level, and (iii) a statistical module that can predict the future by conditioning on the temporal distributional estimation. Our model is demonstrated to be effective in identifying the componential interactions with limited observation and stable in long-term future predictions experimented with diverse physical systems.
翻訳日:2021-06-03 01:51:48 公開日:2021-06-01
# (参考訳) 3d waveunet:3d wavelet integrated encoder-decoder network for neuron segmentation [全文訳有]

3D WaveUNet: 3D Wavelet Integrated Encoder-Decoder Network for Neuron Segmentation ( http://arxiv.org/abs/2106.00259v1 )

ライセンス: CC BY 4.0
Qiufu Li and Linlin Shen(参考訳) 3Dニューロンセグメンテーションは、脳回路の探索と脳機能の理解に不可欠なニューロンのデジタル再構成の重要なステップである。 しかし、ニューロンの細い線状神経繊維は広い領域に広がり、3Dニューロン画像のセグメンテーションに多大な計算コストをもたらす可能性がある。 一方、画像内の強いノイズと断線された神経繊維は、タスクに大きな課題をもたらします。 本稿では,3次元ウェーブレットとディープラーニングに基づく3次元ニューロン分割法を提案する。 ニューロンイメージは、セグメンテーションタスクを単純化するために、まずニューロンキューブに分割される。 次に、最初の3dウェーブレット統合エンコーダ・デコーダネットワークである3d waveunetを設計し、キューブ内の神経繊維を分割する。 また、3D WaveUNetをトレーニングするために、最大の注釈付きニューロン画像データセットであるBigNeuronを用いて、NeuCuDa(NeuCuDa)を作成する。 最後に、キューブに区切られた神経線維を組み立てて完全なニューロンを生成し、利用可能な自動追跡アルゴリズムを用いてデジタル再構成する。 実験結果から, ノイズニューロン画像中の標的ニューロンを完全に抽出できる可能性が示唆された。 統合された3Dウェーブレットは、3Dニューロンセグメンテーションと再構成の性能を効率よく向上させることができる。 この作業のコードと事前訓練されたモデルはhttps://github.com/L iQiufu/3D-WaveUNet.c omで入手できる。

3D neuron segmentation is a key step for the neuron digital reconstruction, which is essential for exploring brain circuits and understanding brain functions. However, the fine line-shaped nerve fibers of neuron could spread in a large region, which brings great computational cost to the segmentation in 3D neuronal images. Meanwhile, the strong noises and disconnected nerve fibers in the image bring great challenges to the task. In this paper, we propose a 3D wavelet and deep learning based 3D neuron segmentation method. The neuronal image is first partitioned into neuronal cubes to simplify the segmentation task. Then, we design 3D WaveUNet, the first 3D wavelet integrated encoder-decoder network, to segment the nerve fibers in the cubes; the wavelets could assist the deep networks in suppressing data noise and connecting the broken fibers. We also produce a Neuronal Cube Dataset (NeuCuDa) using the biggest available annotated neuronal image dataset, BigNeuron, to train 3D WaveUNet. Finally, the nerve fibers segmented in cubes are assembled to generate the complete neuron, which is digitally reconstructed using an available automatic tracing algorithm. The experimental results show that our neuron segmentation method could completely extract the target neuron in noisy neuronal images. The integrated 3D wavelets can efficiently improve the performance of 3D neuron segmentation and reconstruction. The code and pre-trained models for this work will be available at https://github.com/L iQiufu/3D-WaveUNet.
翻訳日:2021-06-03 01:41:06 公開日:2021-06-01
# (参考訳) コード生成のための分岐展開順序の動的選択の探索 [全文訳有]

Exploring Dynamic Selection of Branch Expansion Orders for Code Generation ( http://arxiv.org/abs/2106.00261v1 )

ライセンス: CC BY 4.0
Hui Jiang, Chulun Zhou, Fandong Meng, Biao Zhang, Jie Zhou, Degen Huang, Qingqiang Wu, Jinsong Su(参考訳) ソフトウェア開発を促進する大きな可能性のために、コード生成は最近注目を集めています。 一般に、支配的なモデルはseq2treeモデルであり、入力された自然言語記述を抽象構文木(ast)のプレオーダートラバーサルに対応するツリー構築アクションのシーケンスに変換する。 しかし、そのようなトラバース順序は、すべてのマルチブランチノードを扱うのに適していないかもしれない。 本稿では,複数分岐ノードに対する分岐の最適拡張順序を動的に決定できるコンテキストベース分岐セレクタを備えたSeq2Treeモデルを提案する。 特に,拡張順序の選択は非微分可能な多段階演算であるため,強化学習によりセレクタを最適化し,異なる拡張順序によって得られるモデル損失の差として報酬関数を定式化する。 いくつかの一般的なデータセットに対する実験結果と詳細な分析により,本手法の有効性と汎用性を示した。 コードをhttps://github.com/D eepLearnXMU/CG-RLでリリースしました。

Due to the great potential in facilitating software development, code generation has attracted increasing attention recently. Generally, dominant models are Seq2Tree models, which convert the input natural language description into a sequence of tree-construction actions corresponding to the pre-order traversal of an Abstract Syntax Tree (AST). However, such a traversal order may not be suitable for handling all multi-branch nodes. In this paper, we propose to equip the Seq2Tree model with a context-based Branch Selector, which is able to dynamically determine optimal expansion orders of branches for multi-branch nodes. Particularly, since the selection of expansion orders is a non-differentiable multi-step operation, we optimize the selector through reinforcement learning, and formulate the reward function as the difference of model losses obtained through different expansion orders. Experimental results and in-depth analysis on several commonly-used datasets demonstrate the effectiveness and generality of our approach. We have released our code at https://github.com/D eepLearnXMU/CG-RL.
翻訳日:2021-06-03 00:56:42 公開日:2021-06-01
# (参考訳) 私がやったの? 強化学習における制御効果を識別する手段としての非難 [全文訳有]

Did I do that? Blame as a means to identify controlled effects in reinforcement learning ( http://arxiv.org/abs/2106.00266v1 )

ライセンス: CC BY-SA 4.0
Oriol Corcoll, Raul Vicente(参考訳) 環境の制御可能な側面をモデル化することで、介入の優先順位付けが向上し、強化学習法における一般的な探索戦略となっている。 繰り返し最先端の成果が得られたにもかかわらず、このアプローチは報酬ベースのタスクのプロキシとしてのみ研究されており、それ自体ではまだ評価されていない。 我々は、アクション予測に依存するソリューションが重要なイベントをモデル化しないことを示す。 一方、人間は自分の行動に責任を負い、自分がコントロールしたものを決定する。 本稿では, 非難対策に基づく教師なし手法である制御効果ネットワーク(CEN)を提案する。 cenは、アクション予測に基づいて、人気のあるモデルよりも制御された効果を識別できることを示す幅広い環境で評価される。

Modeling controllable aspects of the environment enable better prioritization of interventions and has become a popular exploration strategy in reinforcement learning methods. Despite repeatedly achieving State-of-the-Art results, this approach has only been studied as a proxy to a reward-based task and has not yet been evaluated on its own. We show that solutions relying on action prediction fail to model important events. Humans, on the other hand, assign blame to their actions to decide what they controlled. Here we propose Controlled Effect Network (CEN), an unsupervised method based on counterfactual measures of blame. CEN is evaluated in a wide range of environments showing that it can identify controlled effects better than popular models based on action prediction.
翻訳日:2021-06-03 00:28:55 公開日:2021-06-01
# (参考訳) 自己監督型学習による話者自動検証のための逆防御 [全文訳有]

Adversarial Defense for Automatic Speaker Verification by Self-Supervised Learning ( http://arxiv.org/abs/2106.00273v1 )

ライセンス: CC BY 4.0
Haibin Wu, Xu Li, Andy T. Liu, Zhiyong Wu, Helen Meng, Hung-yi Lee(参考訳) 以前の研究では、自動話者検証(ASV)が、リプレイ、合成音声、最近出現した敵攻撃などの悪意のある密封攻撃に深刻な脆弱性があることが示されている。 再生と合成音声に対するasvの防御に多大な努力が払われているが、敵対的な攻撃に対処するためのアプローチはごくわずかである。 ASVの敵攻撃に取り組むための既存のアプローチは、敵のサンプル生成の知識を必要とするが、敵の攻撃者によって適用される正確な攻撃アルゴリズムを知ることは現実的ではない。 この研究は、特定の攻撃アルゴリズムを知らずにASVの敵防衛を行う最初の試みの一つである。 自己教師型学習モデル(SSLMs)により、入力中の表面ノイズを緩和し、中断されたものからクリーンなサンプルを再構築する利点を持つが、この研究は、敵の摂動を一種のノイズとみなし、SSLMsによるASVに対する敵の防御を行う。 具体的には,1) 対向摂動浄化と2) 対向摂動検出の2つの観点から対向防御を行うことを提案する。 実験の結果, 検出モジュールは, 約80%の精度で対向検体を検出することにより, ASVを効果的に遮蔽することがわかった。 さらに, ASV の敵防衛性能を評価するための一般的な指標は存在しないため, 浄化法と検出法の両方を考慮した敵防衛評価指標を定式化した。 提案した評価フレームワークに基づいて,今後のアプローチのベンチマークを強く推奨する。

Previous works have shown that automatic speaker verification (ASV) is seriously vulnerable to malicious spoofing attacks, such as replay, synthetic speech, and recently emerged adversarial attacks. Great efforts have been dedicated to defending ASV against replay and synthetic speech; however, only a few approaches have been explored to deal with adversarial attacks. All the existing approaches to tackle adversarial attacks for ASV require the knowledge for adversarial samples generation, but it is impractical for defenders to know the exact attack algorithms that are applied by the in-the-wild attackers. This work is among the first to perform adversarial defense for ASV without knowing the specific attack algorithms. Inspired by self-supervised learning models (SSLMs) that possess the merits of alleviating the superficial noise in the inputs and reconstructing clean samples from the interrupted ones, this work regards adversarial perturbations as one kind of noise and conducts adversarial defense for ASV by SSLMs. Specifically, we propose to perform adversarial defense from two perspectives: 1) adversarial perturbation purification and 2) adversarial perturbation detection. Experimental results show that our detection module effectively shields the ASV by detecting adversarial samples with an accuracy of around 80%. Moreover, since there is no common metric for evaluating the adversarial defense performance for ASV, this work also formalizes evaluation metrics for adversarial defense considering both purification and detection based approaches into account. We sincerely encourage future works to benchmark their approaches based on the proposed evaluation framework.
翻訳日:2021-06-03 00:11:31 公開日:2021-06-01
# (参考訳) 雑音ラベルに頑健な分類器の解析 [全文訳有]

Analysis of classifiers robust to noisy labels ( http://arxiv.org/abs/2106.00274v1 )

ライセンス: CC BY 4.0
Alex D\'iaz and Damian Steele(参考訳) 我々は,クラス依存ラベリングノイズを克服するための現代ロバスト分類アルゴリズムについて検討する。 最終試験データがクリーンである間に、クラス条件ランダムラベルノイズデータに基づいて分類器を訓練し評価する。 ノイズデータを扱う際の分類器の性能を向上させるために,遷移行列を推定する手法を示す。 深層学習を3つのデータセットに適用し,CIFARデータセット上の未知ノイズを用いたエンドツーエンド解析をスクラッチから導出する。 分類器の有効性とロバスト性を分析し,各実験の結果をtop-1精度を用いて比較対照した。

We explore contemporary robust classification algorithms for overcoming class-dependant labelling noise: Forward, Importance Re-weighting and T-revision. The classifiers are trained and evaluated on class-conditional random label noise data while the final test data is clean. We demonstrate methods for estimating the transition matrix in order to obtain better classifier performance when working with noisy data. We apply deep learning to three data-sets and derive an end-to-end analysis with unknown noise on the CIFAR data-set from scratch. The effectiveness and robustness of the classifiers are analysed, and we compare and contrast the results of each experiment are using top-1 accuracy as our criterion.
翻訳日:2021-06-02 23:43:07 公開日:2021-06-01
# (参考訳) AAPM DL-Sparse-View CT Challenge Submission Report: Designing a Iterative Network for Fanbeam-CT with unknown Geometry [全文訳有]

AAPM DL-Sparse-View CT Challenge Submission Report: Designing an Iterative Network for Fanbeam-CT with Unknown Geometry ( http://arxiv.org/abs/2106.00280v1 )

ライセンス: CC BY 4.0
Martin Genzel, Jan Macdonald, Maximilian M\"arz(参考訳) 本報告は、AAPM DL-Sparse-View CT Challenge(チーム名「robust-and-stable」)への私たちの貢献の短い動機と説明に捧げるものである。 データ駆動再建技術を用いて,限られたビューファンビーム測定から乳房モデルファントム画像の復元を行う。 この課題は、参加者が基底真理画像のコレクションと、ノイズのないサブサンプリングされたシンノグラム(および関連する限定ビューフィルターされたバックプロジェクション画像)を提供するが、実際のフォワードモデルでは提供されないという意味で特徴的である。 そこで,本手法では,まずファンビーム形状をデータ駆動幾何キャリブレーションステップで推定する。 その後の2段階の手順で、ほぼ正確な解の計算を可能にする反復的なエンドツーエンドネットワークを設計する。

This report is dedicated to a short motivation and description of our contribution to the AAPM DL-Sparse-View CT Challenge (team name: "robust-and-stable&qu ot;). The task is to recover breast model phantom images from limited view fanbeam measurements using data-driven reconstruction techniques. The challenge is distinctive in the sense that participants are provided with a collection of ground truth images and their noiseless, subsampled sinograms (as well as the associated limited view filtered backprojection images), but not with the actual forward model. Therefore, our approach first estimates the fanbeam geometry in a data-driven geometric calibration step. In a subsequent two-step procedure, we design an iterative end-to-end network that enables the computation of near-exact solutions.
翻訳日:2021-06-02 23:34:19 公開日:2021-06-01
# (参考訳) マルチドメイン対話状態追跡のためのスキーマ対応カリキュラム学習のプレビュー,参加,レビュー [全文訳有]

Preview, Attend and Review: Schema-Aware Curriculum Learning for Multi-Domain Dialog State Tracking ( http://arxiv.org/abs/2106.00291v1 )

ライセンス: CC BY 4.0
Yinpei Dai, Hangyu Li, Yongbin Li, Jian Sun, Fei Huang, Luo Si, Xiaodan Zhu(参考訳) 既存のダイアログ状態追跡(DST)モデルは、データセットの豊富な構造情報を無視して、ランダムにダイアログデータをトレーニングする。 本稿では,課題指向対話におけるカリキュラム構造とスキーマ構造の両方をよりよく活用するために,カリキュラム学習(CL)を提案する。 具体的には,Schema-aware Curriculum Learning for Dialog State Tracking (SaCLog) と呼ばれるモデルに依存しないフレームワークを提案する。このフレームワークは,DSTモデルをスキーマ情報で事前トレーニングするプレビューモジュールと,CLでモデルを最適化するカリキュラムモジュールと,CLトレーニングの強化のために誤予測データを拡張するレビューモジュールから構成される。 提案手法は変換器ベースおよびRNNベースDSTモデル(TripPyおよびTRADE)よりもDST性能が向上し,WOZ2.0およびMultiWOZ2.1における新たな最先端結果が得られることを示す。

Existing dialog state tracking (DST) models are trained with dialog data in a random order, neglecting rich structural information in a dataset. In this paper, we propose to use curriculum learning (CL) to better leverage both the curriculum structure and schema structure for task-oriented dialogs. Specifically, we propose a model-agnostic framework called Schema-aware Curriculum Learning for Dialog State Tracking (SaCLog), which consists of a preview module that pre-trains a DST model with schema information, a curriculum module that optimizes the model with CL, and a review module that augments mispredicted data to reinforce the CL training. We show that our proposed approach improves DST performance over both a transformer-based and RNN-based DST model (TripPy and TRADE) and achieves new state-of-the-art results on WOZ2.0 and MultiWOZ2.1.
翻訳日:2021-06-02 23:23:48 公開日:2021-06-01
# (参考訳) 正半定因子化のためのリー・ソンのアルゴリズムの非可換拡張 [全文訳有]

A Non-commutative Extension of Lee-Seung's Algorithm for Positive Semidefinite Factorizations ( http://arxiv.org/abs/2106.00293v1 )

ライセンス: CC BY 4.0
Yong Sheng Soh, Antonios Varvitsiotis(参考訳) 非負の成分を持つ行列 $X\in \mathbb{R}_+^{m\times n}$ が与えられたとき、$X$ の正半定値 (PSD) 分解は$r \times r$-dimensional PSD 行列 $\{A_i\}$ と $\{B_j\}$ の集合であり、すべての$\i\in [m],\ j\in [n]$ に対して$X_{ij}= \mathrm{tr}(A_i B_j)$ を満たす。 psd因子分解は、情報理論における量子資源の力と限界だけでなく、半定値プログラムの表現力の理解と基本的に結びついている。 psd因子分解タスクは、非負行列因子分解(nmf)問題を一般化し、r$-次元非負ベクトルの集まりである$\{a_i\}$と$\{b_j\}$を満たす$x_{ij}= a_i^\top b_j$, for all $i\in [m],\j\in [n]$ -- ここで、psd因子分解の行列を対角化として選択することで後者の問題を回復することができる。 行列のNMFを計算するための最も広く使われているアルゴリズムは、Lee and Seungによって開発された乗算更新アルゴリズムであり、更新の非負性は正の対角行列でスケーリングすることで保存される。 本稿では,PSD分解の計算のために,行列乗法更新(MMU)アルゴリズムと呼ぶLee-Seungアルゴリズムの非可換拡張について述べる。 MMUアルゴリズムは、適切なPSD行列の行列幾何学平均と一致スケーリングによって更新がPSDのままであることを保証する。 また,Majorization-Minimi zationフレームワークに基づいて,2乗損失目標が非増加的であり,固定点が臨界点に対応することを示す。 この分析はリーブのConcavity Theoremに依存する。 PSD分解以外にも、MMUアルゴリズムをプリミティブとしてブロック対角PSD分解とテンソルPSD分解を計算する。 実データと合成データの実験により,本手法の有用性を実証する。

Given a matrix $X\in \mathbb{R}_+^{m\times n}$ with nonnegative entries, a Positive Semidefinite (PSD) factorization of $X$ is a collection of $r \times r$-dimensional PSD matrices $\{A_i\}$ and $\{B_j\}$ satisfying $X_{ij}= \mathrm{tr}(A_i B_j)$ for all $\ i\in [m],\ j\in [n]$. PSD factorizations are fundamentally linked to understanding the expressiveness of semidefinite programs as well as the power and limitations of quantum resources in information theory. The PSD factorization task generalizes the Non-negative Matrix Factorization (NMF) problem where we seek a collection of $r$-dimensional nonnegative vectors $\{a_i\}$ and $\{b_j\}$ satisfying $X_{ij}= a_i^\top b_j$, for all $i\in [m],\ j\in [n]$ -- one can recover the latter problem by choosing matrices in the PSD factorization to be diagonal. The most widely used algorithm for computing NMFs of a matrix is the Multiplicative Update algorithm developed by Lee and Seung, in which nonnegativity of the updates is preserved by scaling with positive diagonal matrices. In this paper, we describe a non-commutative extension of Lee-Seung's algorithm, which we call the Matrix Multiplicative Update (MMU) algorithm, for computing PSD factorizations. The MMU algorithm ensures that updates remain PSD by congruence scaling with the matrix geometric mean of appropriate PSD matrices, and it retains the simplicity of implementation that Lee-Seung's algorithm enjoys. Building on the Majorization-Minimiz ation framework, we show that under our update scheme the squared loss objective is non-increasing and fixed points correspond to critical points. The analysis relies on Lieb's Concavity Theorem. Beyond PSD factorizations, we use the MMU algorithm as a primitive to calculate block-diagonal PSD factorizations and tensor PSD factorizations. We demonstrate the utility of our method with experiments on real and synthetic data.
翻訳日:2021-06-02 23:12:40 公開日:2021-06-01
# (参考訳) 電力請求書の裏側:非インタラクティブ負荷監視のためのデュアルdnnアプローチ [全文訳有]

More Behind Your Electricity Bill: a Dual-DNN Approach to Non-Intrusive Load Monitoring ( http://arxiv.org/abs/2106.00297v1 )

ライセンス: CC BY 4.0
Yu Zhang, Guoming Tang, Qianyi Huang, Yi Wang, Hong Xu(参考訳) 非侵入負荷モニタリング(NILM)は、家庭のエネルギー消費を個々の家電の項目別エネルギー利用に分解することを目的とした、よく知られた単一チャネルブラインドソース分離問題である。 このように、家庭のエネルギー利用に対する意識を高めることで、かなりの省エネが達成できる。 近年の研究では、ディープニューラルネットワーク(DNN)ベースのアプローチがNILMタスクに有望であることが示されている。 それでも、彼らは通常、ネットワーク設計におけるアプライアンス操作の固有の特性を無視し、不可解な結果をもたらす可能性がある。 そこで我々は,DNNの潜在特徴の学習能力を活かしたデュアルディープニューラルネットワーク(Dual-DNN)を開発した。 具体的には,2重DNNの設計において,異なる機器の動作状態のパワーレーティングを測定するサブネットワークと,対象機器の動作状態を特定するサブネットワークを採用する。 最終結果は、これら2つのネットワーク出力を乗算し、一方、家電製品の多状態特性を考慮して得られる。 家電の動作状態の空間特性を強制するために, 正中フィルタリングとハードゲーティング機構をサブネットワークに適用し, 状態同定を行う。 最新のNILM手法と比較して、我々のデュアルDNNアプローチは、2つの公開ベンチマークデータセットで平均21.67%の性能改善を示す。

Non-intrusive load monitoring (NILM) is a well-known single-channel blind source separation problem that aims to decompose the household energy consumption into itemised energy usage of individual appliances. In this way, considerable energy savings could be achieved by enhancing household's awareness of energy usage. Recent investigations have shown that deep neural networks (DNNs) based approaches are promising for the NILM task. Nevertheless, they normally ignore the inherent properties of appliance operations in the network design, potentially leading to implausible results. We are thus motivated to develop the dual Deep Neural Networks (dual-DNN), which aims to i) take advantage of DNNs' learning capability of latent features and ii) empower the DNN architecture with identification ability of universal properties. Specifically in the design of dual-DNN, we adopt one subnetwork to measure power ratings of different appliances' operation states, and the other subnetwork to identify the running states of target appliances. The final result is then obtained by multiplying these two network outputs and meanwhile considering the multi-state property of household appliances. To enforce the sparsity property in appliance's state operating, we employ median filtering and hard gating mechanisms to the subnetwork for state identification. Compared with the state-of-the-art NILM methods, our dual-DNN approach demonstrates a 21.67% performance improvement in average on two public benchmark datasets.
翻訳日:2021-06-02 22:54:16 公開日:2021-06-01
# (参考訳) ゼロショット合成性のための独立プロトタイプ伝搬 [全文訳有]

Independent Prototype Propagation for Zero-Shot Compositionality ( http://arxiv.org/abs/2106.00305v1 )

ライセンス: CC BY 4.0
Frank Ruis, Gertjan Burghours, Doina Bucur(参考訳) 人間は作曲のゼロショット推論が得意で、シマウマを見たことがない人は、黒と白のストライプの馬のように見えると認識することができる。 一方、機械学習システムは通常、トレーニングデータの急激な相関を利用しており、そのような相関は、コンテキスト内でオブジェクトを認識するのに役立つが、一般化を損なう。 分類中の文脈的手がかりを活用しつつ,不特定なデータセットを扱うために,新しいプロトタイプ伝搬グラフ法protopropを提案する。 まず、条件付き独立なw.r.t.である物体(例えばゼブラ)の原型的表現を学ぶ。 彼らの属性ラベル(例:ストライプ)とその逆。 次に, 対象分布の依存関係を反映した新規属性・オブジェクトの組み合わせの合成プロトタイプを学習するために, 合成グラフを通して独立プロトタイプを伝搬する。 このメソッドはクラス階層グラフや事前学習された単語埋め込みといった外部データに依存しない。 AO-Cleverはクリーンなラベルを持つ合成的でビジュアルなデータセットであり、UT-Zapposはきめ細かい靴型のノイズの多い現実世界のデータセットである。 一般化された合成ゼロショット設定において、我々は最先端の結果よりも優れており、この手法のそれぞれの部分の重要性と最終的な結果への寄与を示す。

Humans are good at compositional zero-shot reasoning; someone who has never seen a zebra before could nevertheless recognize one when we tell them it looks like a horse with black and white stripes. Machine learning systems, on the other hand, usually leverage spurious correlations in the training data, and while such correlations can help recognize objects in context, they hurt generalization. To be able to deal with underspecified datasets while still leveraging contextual clues during classification, we propose ProtoProp, a novel prototype propagation graph method. First we learn prototypical representations of objects (e.g., zebra) that are conditionally independent w.r.t. their attribute labels (e.g., stripes) and vice versa. Next we propagate the independent prototypes through a compositional graph, to learn compositional prototypes of novel attribute-object combinations that reflect the dependencies of the target distribution. The method does not rely on any external data, such as class hierarchy graphs or pretrained word embeddings. We evaluate our approach on AO-Clever, a synthetic and strongly visual dataset with clean labels, and UT-Zappos, a noisy real-world dataset of fine-grained shoe types. We show that in the generalized compositional zero-shot setting we outperform state-of-the-art results, and through ablations we show the importance of each part of the method and their contribution to the final results.
翻訳日:2021-06-02 22:37:37 公開日:2021-06-01
# (参考訳) 世界ニュースを通して平和を理解する [全文訳有]

Understanding peacefulness through the world news ( http://arxiv.org/abs/2106.00306v1 )

ライセンス: CC BY 4.0
Vasiliki Voukelatou, Ioanna Miliou, Fosca Giannotti, Luca Pappalardo(参考訳) 平和性は全ての人類にとって幸福の主要な次元であり、不平等とあらゆる形態の暴力から抜け出す方法である。 そのため、近年は研究者や政策立案者の注目を集めている。 ここ数年、新しいデジタルデータストリームがこの分野の研究を大きく変えてきた。 本研究は,GDELT(Global Data on Events, Location, and Tone)デジタルニュースデータベースから抽出した情報を利用して,GPI(Global Peace Index)を通して平和性を捉えている。 予測機械学習モデルを適用することで,gdeltによるニュースメディアの注目度を月単位のgpi測定の指標として利用できることを示す。 さらに、shap方法論を使用して、予測を駆動する最も重要な変数を取得します。 この分析は各国のプロファイルを強調し、全体的な予測、特にこれらのエラーを駆動するエラーやイベントについての説明を提供する。 社会善研究者、政策立案者、平和構築者が活用するデジタルデータは、機械学習と同じくらい強力なデータサイエンスツールによって、社会的利益の最大化と平和へのリスクの最小化に寄与すると考えている。

Peacefulness is a principal dimension of well-being for all humankind and is the way out of inequity and every single form of violence. Thus, its measurement has lately drawn the attention of researchers and policy-makers. During the last years, novel digital data streams have drastically changed the research in this field. In the current study, we exploit information extracted from Global Data on Events, Location, and Tone (GDELT) digital news database, to capture peacefulness through the Global Peace Index (GPI). Applying predictive machine learning models, we demonstrate that news media attention from GDELT can be used as a proxy for measuring GPI at a monthly level. Additionally, we use the SHAP methodology to obtain the most important variables that drive the predictions. This analysis highlights each country's profile and provides explanations for the predictions overall, and particularly for the errors and the events that drive these errors. We believe that digital data exploited by Social Good researchers, policy-makers, and peace-builders, with data science tools as powerful as machine learning, could contribute to maximize the societal benefits and minimize the risks to peacefulness.
翻訳日:2021-06-02 22:22:23 公開日:2021-06-01
# (参考訳) Reinforce Security: セキュアなWiretapコーディングに向けたモデルフリーアプローチ [全文訳有]

Reinforce Security: A Model-Free Approach Towards Secure Wiretap Coding ( http://arxiv.org/abs/2106.00343v1 )

ライセンス: CC BY 4.0
Rick Fritschek, Rafael F. Schaefer, Gerhard Wunder(参考訳) セキュアな符号化関数を近似するためのディープラーニングベースの技術は、無線通信システムの一般的なコーディングとデコードタスクで得られた素晴らしい結果によって、無線通信にかなりの関心を集めている。 特に重要なのは、基礎となるチャネルを知らずに機能するモデルフリー技術の開発である。 このような手法は,例えば,条件付きチャネル分布の推定とモデル化,報奨関数としての相互情報推定,強化学習などに用いる。 本稿では,強化学習のアプローチについて検討し,特にニューラルネットワークを用いたセキュアエンコーディングのモデルフリーアプローチのためのポリシー勾配法について検討する。 従来開発された符号化プロセス上のコセット構造を強制する手法は、最近の強化学習手法と組み合わせることができる。 この新しい手法は広範囲のシミュレーションにより評価され, 盗聴者の復号性能が一定の誤差レベルに低下することが示されている。

The use of deep learning-based techniques for approximating secure encoding functions has attracted considerable interest in wireless communications due to impressive results obtained for general coding and decoding tasks for wireless communication systems. Of particular importance is the development of model-free techniques that work without knowledge about the underlying channel. Such techniques utilize for example generative adversarial networks to estimate and model the conditional channel distribution, mutual information estimation as a reward function, or reinforcement learning. In this paper, the approach of reinforcement learning is studied and, in particular, the policy gradient method for a model-free approach of neural network-based secure encoding is investigated. Previously developed techniques for enforcing a certain co-set structure on the encoding process can be combined with recent reinforcement learning approaches. This new approach is evaluated by extensive simulations, and it is demonstrated that the resulting decoding performance of an eavesdropper is capped at a certain error level.
翻訳日:2021-06-02 21:53:10 公開日:2021-06-01
# (参考訳) 頂点$p$-center問題の解法のためのグラフ畳み込みネットワークによる実験 [全文訳有]

Experiments with graph convolutional networks for solving the vertex $p$-center problem ( http://arxiv.org/abs/2106.00357v1 )

ライセンス: CC BY 4.0
Elisabeth Gaar and Markus Sinnl(参考訳) 過去数年間、グラフ畳み込みネットワーク(gcn)は、グラフ上で定義されたnp-hard combinatorial optimization problem(cops)に取り組むために、機械学習コミュニティで人気のある研究方向となっている。 得られた結果は、通常、オペレーションリサーチコミュニティの問題解決アプローチと競合しないが、GCNは、トラベルセールスパーソン問題(TSP)のような古典的なCOPに対する以前の機械学習アプローチと比べて改善されることが多い。 本稿では,グラフ上の別の古典的COPである頂点p中心問題(PCP)の解法としてGCNを用いた予備的検討を行う。 特に、TSPのエンド・ツー・エンドトレーニングに基づくモデルが、同様の2次元ユークリッドグラフ入力に基づいてTSPの通常使われるバージョンとして定義されたPCPに適応できるかどうかを検討する。 しかし、PCP の目的は min-max 構造であり、多くの対称最適解、すなわち、接地トラス解や学習の潜在的な困難をもたらす可能性がある。 得られた予備結果は,ネットワークアーキテクチャのアイデアの直接転送があまりうまくいかないことを示している。 したがって、我々はPCPがGCNの領域における新しいアイデアや開発のための興味深いベンチマーク問題になり得ると考えている。

In the last few years, graph convolutional networks (GCN) have become a popular research direction in the machine learning community to tackle NP-hard combinatorial optimization problems (COPs) defined on graphs. While the obtained results are usually still not competitive with problem-specific solution approaches from the operations research community, GCNs often lead to improvements compared to previous machine learning approaches for classical COPs such as the traveling salesperson problem (TSP). In this work we present a preliminary study on using GCNs for solving the vertex p-center problem (PCP), which is another classic COP on graphs. In particular, we investigate whether a successful model based on end-to-end training for the TSP can be adapted to a PCP, which is defined on a similar 2D Euclidean graph input as the usually used version of the TSP. However, the objective of the PCP has a min-max structure which could lead to many symmetric optimal, i.e., ground-truth solutions and other potential difficulties for learning. Our obtained preliminary results show that indeed a direct transfer of network architecture ideas does not seem to work too well. Thus we think that the PCP could be an interesting benchmark problem for new ideas and developments in the area of GCNs.
翻訳日:2021-06-02 21:41:16 公開日:2021-06-01
# (参考訳) フットボールのボディーオリエンテーションを分類として学ぶ [全文訳有]

Learning Football Body-Orientation as a Matter of Classification ( http://arxiv.org/abs/2106.00359v1 )

ライセンス: CC BY 4.0
Adri\`a Arbu\'es-Sang\"uesa, Adri\'an Mart\'in, Paulino Granero, Coloma Ballester, Gloria Haro(参考訳) オリエンテーションはサッカー選手にとって重要なスキルであり、多くのイベント、特にパスを含むイベントにおいて差別化要因となる。 しかし、既存の方向推定手法は、コンピュータビジョン技術に基づいているが、改善の余地は多い。 我々の知る限り、本論文はビデオ映像から直接向きを推定する最初のディープラーニングモデルを示す。 クラスが配向ビンに対応する分類問題としてこの課題にアプローチし、循環損失関数を導入することにより、有名な畳み込みネットワークを改良し、プレーヤの配向データを提供する。 このモデルは、現在のフレームの認識方向に対して個別に補償されるウェアラブルEPTSデバイスから得られる地中構造データを用いて訓練される。 得られた結果は従来の手法よりも優れており、特に絶対中央値誤差はプレイヤー当たり12度以下である。 あらゆる種類のフットボールビデオ映像に潜在的な一般化を示すために、アブレーション研究が行われる。

Orientation is a crucial skill for football players that becomes a differential factor in a large set of events, especially the ones involving passes. However, existing orientation estimation methods, which are based on computer-vision techniques, still have a lot of room for improvement. To the best of our knowledge, this article presents the first deep learning model for estimating orientation directly from video footage. By approaching this challenge as a classification problem where classes correspond to orientation bins, and by introducing a cyclic loss function, a well-known convolutional network is refined to provide player orientation data. The model is trained by using ground-truth orientation data obtained from wearable EPTS devices, which are individually compensated with respect to the perceived orientation in the current frame. The obtained results outperform previous methods; in particular, the absolute median error is less than 12 degrees per player. An ablation study is included in order to show the potential generalization to any kind of football video footage.
翻訳日:2021-06-02 21:33:58 公開日:2021-06-01
# (参考訳) 空間的・時間的制約を伴う大規模・動的・分散連立形成 [全文訳有]

Large-scale, Dynamic and Distributed Coalition Formation with Spatial and Temporal Constraints ( http://arxiv.org/abs/2106.00379v1 )

ライセンス: CC BY-SA 4.0
Luca Capezzuto, Danesh Tarapore, and Sarvapali D. Ramchurn(参考訳) 時間的制約問題と時間的制約問題(cfstp)による連立形成は、複数のエージェントがそれぞれ期限とワークロードで多くのタスクを実行しなければならないマルチエージェントタスク割り当て問題である。 完了したタスクの数を最大化するために、エージェントは連合を形成し、解散し、改革することで協力する必要がある。 CFSTPの元々の数学的プログラミングの定式化は、長大で問題のあるBig-M法に基づいているため、実装が難しい。 本稿では,コンパクトで実装が容易な定式化を提案する。 さらに、最先端CFSTPアルゴリズムの分散バージョンであるD-CTSを設計する。 ロンドン消防団の記録を使って、347588ドルのタスクと、動的環境における消防士の動員をシミュレートするテストフレームワークを備えたデータセットを作成します。 最先端の分散アルゴリズムであるDSA-SDPと比較して、150ドルのエージェントと3000ドルのタスクを持つ問題では、D-CTSは3.79\% \pm [42.22\%, 1.96\%]$以上のタスクを完了し、通信オーバーヘッドと時間複雑性の点で1桁の効率である。 D-CTSは、最初の大規模、動的、分散CFSTPベンチマークを設定。

The Coalition Formation with Spatial and Temporal constraints Problem (CFSTP) is a multi-agent task allocation problem in which few agents have to perform many tasks, each with its deadline and workload. To maximize the number of completed tasks, the agents need to cooperate by forming, disbanding and reforming coalitions. The original mathematical programming formulation of the CFSTP is difficult to implement, since it is lengthy and based on the problematic Big-M method. In this paper, we propose a compact and easy-to-implement formulation. Moreover, we design D-CTS, a distributed version of the state-of-the-art CFSTP algorithm. Using public London Fire Brigade records, we create a dataset with $347588$ tasks and a test framework that simulates the mobilization of firefighters in dynamic environments. In problems with up to $150$ agents and $3000$ tasks, compared to DSA-SDP, a state-of-the-art distributed algorithm, D-CTS completes $3.79\% \pm [42.22\%, 1.96\%]$ more tasks, and is one order of magnitude more efficient in terms of communication overhead and time complexity. D-CTS sets the first large-scale, dynamic and distributed CFSTP benchmark.
翻訳日:2021-06-02 21:21:45 公開日:2021-06-01
# (参考訳) 決定概念の格子対決定木とランダムフォレスト [全文訳有]

Decision Concept Lattice vs. Decision Trees and Random Forests ( http://arxiv.org/abs/2106.00387v1 )

ライセンス: CC BY 4.0
Egor Dudyrev, Sergei O. Kuznetsov(参考訳) 決定木とそのアンサンブルは、教師付き機械学習の非常に人気のあるモデルである。 本稿では、多項式時間で構築可能な新しい教師付き機械学習モデルを提案し、分類問題と回帰問題の両方に適用できる決定木、それらのアンサンブル、FCAの考え方を融合する。 具体的には,まず決定木に基づく概念格子の一部を構成する多項式時間アルゴリズムを提案する。 第2に,最先端モデルに匹敵する予測品質で分類タスクと回帰タスクの両方を解くための概念格子に基づく予測スキームについて述べる。

Decision trees and their ensembles are very popular models of supervised machine learning. In this paper we merge the ideas underlying decision trees, their ensembles and FCA by proposing a new supervised machine learning model which can be constructed in polynomial time and is applicable for both classification and regression problems. Specifically, we first propose a polynomial-time algorithm for constructing a part of the concept lattice that is based on a decision tree. Second, we describe a prediction scheme based on a concept lattice for solving both classification and regression tasks with prediction quality comparable to that of state-of-the-art models.
翻訳日:2021-06-02 21:05:08 公開日:2021-06-01
# (参考訳) 視覚に基づく異常赤血球分類の解析 [全文訳有]

Analysis of Vision-based Abnormal Red Blood Cell Classification ( http://arxiv.org/abs/2106.00389v1 )

ライセンス: CC BY 4.0
Annika Wong and Nantheera Anantrasirichai and Thanarat H. Chalidabhongse and Duangdao Palasuwan and Attakorn Palasuwan and David Bull(参考訳) 赤血球(RBC)の異常の同定は、貧血から肝疾患まで幅広い医学的疾患を診断する鍵となる。 現在、これは手動で行われ、時間がかかり、主観的なプロセスである。 本稿では,機械学習の利点を利用したセル異常検出のキャパシティ向上と標準化を行い,その性能を解析する。 従来の機械学習技術であるSVM(Support Vector Machine)、グラフデータのためのディープラーニングアーキテクチャであるTabNet、医用画像セグメンテーション用に設計されたセグメンテーションネットワークであるU-Netの3つの異なる機械学習技術が使用された。 重要な問題は、機械学習の有効性に影響を与えるデータセットの高度に不均衡な性質であった。 これを解決するために,SMOTE(Synthetic Minority Over-Sampling Technique)とコスト依存学習を用いて,特徴空間におけるマイノリティクラスサンプルの合成を検討した。 これら2つの手法を組み合わせて全体の性能を改善する。 これらの戦略は少数民族に対する感受性を高めることが判明した。 未知の細胞が意味的セグメンテーションに与える影響を実証し、このモデルがラベル付き細胞の学習をこれらの匿名細胞に適用する証拠を示す。 これらの結果は,RBC異常検出の自動化に期待できる手法として,古典的モデルと新しいディープラーニングネットワークの両方を示している。

Identification of abnormalities in red blood cells (RBC) is key to diagnosing a range of medical conditions from anaemia to liver disease. Currently this is done manually, a time-consuming and subjective process. This paper presents an automated process utilising the advantages of machine learning to increase capacity and standardisation of cell abnormality detection, and its performance is analysed. Three different machine learning technologies were used: a Support Vector Machine (SVM), a classical machine learning technology; TabNet, a deep learning architecture for tabular data; U-Net, a semantic segmentation network designed for medical image segmentation. A critical issue was the highly imbalanced nature of the dataset which impacts the efficacy of machine learning. To address this, synthesising minority class samples in feature space was investigated via Synthetic Minority Over-sampling Technique (SMOTE) and cost-sensitive learning. A combination of these two methods is investigated to improve the overall performance. These strategies were found to increase sensitivity to minority classes. The impact of unknown cells on semantic segmentation is demonstrated, with some evidence of the model applying learning of labelled cells to these anonymous cells. These findings indicate both classical models and new deep learning networks as promising methods in automating RBC abnormality detection.
翻訳日:2021-06-02 20:58:54 公開日:2021-06-01
# (参考訳) 春園寺井:中国語モデル事前学習のための言語的インフォームド・トケナイザー [全文訳有]

SHUOWEN-JIEZI: Linguistically Informed Tokenizers For Chinese Language Model Pretraining ( http://arxiv.org/abs/2106.00400v1 )

ライセンス: CC BY 4.0
Chenglei Si, Zhengyan Zhang, Yingfa Chen, Fanchao Qi, Xiaozhi Wang, Zhiyuan Liu, Maosong Sun(参考訳) 中国語事前訓練言語モデル(PLM)の従来のトークン化手法では、各文字を識別不可能なトークンとして扱う(Devlin et al., 2019)。 本研究では,PLMの中国語トークン化における3つの要因,すなわち発音,グリフ(形),単語境界の影響を包括的に研究する。 対応として,1) SHUOWEN(話し言葉),2) JIEZI(ソルブ文字),3) グリフベーストークン,3) 単語セグメント化トークン,および中国語単語セグメント化トークンの3種類を提案する。 検討したトークン化器の有効性を実証的に比較するために,BERTスタイルの言語モデルとそれらを事前学習し,下流NLUタスクのモデルを評価する。 SHUOWENとJIEZIは従来の単一文字のトークン化器よりも優れており、中国語のセグメンテーションは前処理のステップとして何の利益も示さない。 さらに,提案したSHUOWENおよびJIEZIトークンは,ノイズの多いテキストを扱う場合のロバスト性が著しく向上した。 コードと事前訓練されたモデルは、言語的に知らされた中国語NLPを促進するために公開される。

Conventional tokenization methods for Chinese pretrained language models (PLMs) treat each character as an indivisible token (Devlin et al., 2019), which ignores the characteristics of the Chinese writing system. In this work, we comprehensively study the influences of three main factors on the Chinese tokenization for PLM: pronunciation, glyph (i.e., shape), and word boundary. Correspondingly, we propose three kinds of tokenizers: 1) SHUOWEN (meaning Talk Word), the pronunciation-based tokenizers; 2) JIEZI (meaning Solve Character), the glyph-based tokenizers; 3) Word segmented tokenizers, the tokenizers with Chinese word segmentation. To empirically compare the effectiveness of studied tokenizers, we pretrain BERT-style language models with them and evaluate the models on various downstream NLU tasks. We find that SHUOWEN and JIEZI tokenizers can generally outperform conventional single-character tokenizers, while Chinese word segmentation shows no benefit as a preprocessing step. Moreover, the proposed SHUOWEN and JIEZI tokenizers exhibit significantly better robustness in handling noisy texts. The code and pretrained models will be publicly released to facilitate linguistically informed Chinese NLP.
翻訳日:2021-06-02 20:39:06 公開日:2021-06-01
# (参考訳) KGPool:関係抽出のための動的知識グラフコンテキスト選択 [全文訳有]

KGPool: Dynamic Knowledge Graph Context Selection for Relation Extraction ( http://arxiv.org/abs/2106.00459v1 )

ライセンス: CC BY 4.0
Abhishek Nadgeri, Anson Bastos, Kuldeep Singh, Isaiah Onando Mulang', Johannes Hoffart, Saeedeh Shekarpour, Vijay Saraswat(参考訳) 本稿では,1つの文から関係抽出(RE)を行い,文と2つの与えられた実体を知識グラフ(KG)の標準事実にマッピングする手法を提案する。 特にこの推定されたセンデンシャルRE設定では、単一の文のコンテキストはしばしばスパースである。 本稿では,KGPool法を用いて,KGから追加事実を付加してコンテキストを動的に拡張する手法を提案する。 これらの事実(エンティティエイリアス、エンティティ記述など)の表現を学習する。 知覚的文脈を補う 神経的手法を使います すべての拡張事実を静的に使用する既存の方法とは異なり、KGPoolはこの拡張を文に条件付ける。 ニューラルモデルとKG(WikidataとNYT Freebase)を用いてKGPoolの有効性を評価する。 標準データセットを用いた実験により,KGPool表現をグラフニューラルネットワークに入力することにより,本手法は最先端手法よりもはるかに精度が高いことがわかった。

We present a novel method for relation extraction (RE) from a single sentence, mapping the sentence and two given entities to a canonical fact in a knowledge graph (KG). Especially in this presumed sentential RE setting, the context of a single sentence is often sparse. This paper introduces the KGPool method to address this sparsity, dynamically expanding the context with additional facts from the KG. It learns the representation of these facts (entity alias, entity descriptions, etc.) using neural methods, supplementing the sentential context. Unlike existing methods that statically use all expanded facts, KGPool conditions this expansion on the sentence. We study the efficacy of KGPool by evaluating it with different neural models and KGs (Wikidata and NYT Freebase). Our experimental evaluation on standard datasets shows that by feeding the KGPool representation into a Graph Neural Network, the overall method is significantly more accurate than state-of-the-art methods.
翻訳日:2021-06-02 20:26:39 公開日:2021-06-01
# (参考訳) 機械学習における公平度指標の動物園 [全文訳有]

The zoo of Fairness metrics in Machine Learning ( http://arxiv.org/abs/2106.00467v1 )

ライセンス: CC BY 4.0
Alessandro Castelnovo, Riccardo Crupi, Greta Greco, Daniele Regoli(参考訳) 近年,機械学習(ML)における公平性と自動意思決定の問題が,人工知能を扱う科学コミュニティで注目されている。 MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。 これらの概念間の正確な相違、含意、および「直交性」は、まだ文献で完全には分析されていない。 本研究では、この定義の動物園から何らかの順序付けを試みる。

In the recent years, the problem of addressing fairness in Machine Learning (ML) and automatic decision-making has attracted a lot of attention in the scientific communities dealing with Artificial Intelligence. A plethora of different definitions of fairness in ML have been proposed, that consider different notions of what is a "fair decision" in situations impacting individuals in the population. The precise differences, implications and "orthogonality" between these notions have not yet been fully analyzed in the literature. In this work, we try to make some order out of this zoo of definitions.
翻訳日:2021-06-02 20:08:26 公開日:2021-06-01
# (参考訳) 微分プライバシーを持つガウス過程 [全文訳有]

Gaussian Processes with Differential Privacy ( http://arxiv.org/abs/2106.00474v1 )

ライセンス: CC BY 4.0
Antti Honkela(参考訳) ガウス過程(英: Gaussian process、GP)は、様々な予測タスクに広く使用される非パラメトリックベイズモデルである。 ディファレンシャルプライバシ(dp)を通じてgpsに強力なプライバシ保護を追加する以前の作業は、入力ではなく、予測対象(モデル出力)のプライバシのみを保護することに限定されていた。 モデル入力と出力の両方に対してDP保護を備えたGPを導入することで、この制限を破る。 我々は, sparse gp法を用いて, 既知の誘導点に対するプライベートな変分近似を公表することでこれを実現する。 近似共分散は、DPノイズから付加された不確実性を考慮して調整される。 この近似は、標準スパースGP技術を用いて任意の予測を計算するために用いられる。 本稿では,検証セットのログ類似性に適用したプライベート選択プロトコルを用いたハイパーパラメータ学習手法を提案する。 我々の実験は、十分な量のデータがあれば、強力なプライバシー保護下で正確なモデルを生成することができることを示した。

Gaussian processes (GPs) are non-parametric Bayesian models that are widely used for diverse prediction tasks. Previous work in adding strong privacy protection to GPs via differential privacy (DP) has been limited to protecting only the privacy of the prediction targets (model outputs) but not inputs. We break this limitation by introducing GPs with DP protection for both model inputs and outputs. We achieve this by using sparse GP methodology and publishing a private variational approximation on known inducing points. The approximation covariance is adjusted to approximately account for the added uncertainty from DP noise. The approximation can be used to compute arbitrary predictions using standard sparse GP techniques. We propose a method for hyperparameter learning using a private selection protocol applied to validation set log-likelihood. Our experiments demonstrate that given sufficient amount of data, the method can produce accurate models under strong privacy protection.
翻訳日:2021-06-02 19:43:40 公開日:2021-06-01
# (参考訳) 微分プライバシーのシャッフルモデルにおける厳密な会計 [全文訳有]

Tight Accounting in the Shuffle Model of Differential Privacy ( http://arxiv.org/abs/2106.00477v1 )

ライセンス: CC BY 4.0
Antti Koskela, Mikko A. Heikkil\"a, Antti Honkela(参考訳) ディファレンシャルプライバシのシャッフルモデル(英: shuffle model of differential privacy)は、ローカルプライバシ機構と信頼できるシャッファを組み合わせた、新しい分散プライバシモデルである。 シャッフルによって提供される追加のランダム化は、純粋にローカルなメカニズムと比較してプライバシの境界を改善することが示されている。 厳密な境界、特にマルチメッセージプロトコルはシャフラーによってもたらされる複雑さによって複雑になる。 最近提案された$(\varepsilon,\delta )$-differential privacy guaranteesの評価のためのフーリエ会計士は、様々な複雑なメカニズムの非適応構成の一般的な方法よりも厳密な境界を与えることが示されている。 本稿では,シャッフルモデルにおける複数のユビキタスメカニズムのマルチメッセージバージョンに対して,Fourier Accountantを用いた厳密なプライバシー境界の計算方法を示し,文献における既存のバウンダリのゆるみを示す。

Shuffle model of differential privacy is a novel distributed privacy model based on a combination of local privacy mechanisms and a trusted shuffler. It has been shown that the additional randomisation provided by the shuffler improves privacy bounds compared to the purely local mechanisms. Accounting tight bounds, especially for multi-message protocols, is complicated by the complexity brought by the shuffler. The recently proposed Fourier Accountant for evaluating $(\varepsilon,\delta )$-differential privacy guarantees has been shown to give tighter bounds than commonly used methods for non-adaptive compositions of various complex mechanisms. In this paper we show how to compute tight privacy bounds using the Fourier Accountant for multi-message versions of several ubiquitous mechanisms in the shuffle model and demonstrate looseness of the existing bounds in the literature.
翻訳日:2021-06-02 19:28:28 公開日:2021-06-01
# (参考訳) RAI-Net: Range-Adaptive LiDAR Point Cloud Frame Interpolation Network [全文訳有]

RAI-Net: Range-Adaptive LiDAR Point Cloud Frame Interpolation Network ( http://arxiv.org/abs/2106.00496v1 )

ライセンス: CC BY 4.0
Lili Zhao, Zezhi Zhu, Xuhu Lin, Xuezhou Guo, Qian Yin, Wenyi Wang, Jianwen Chen(参考訳) 捕捉されたフレーム間の中間フレームを合成するLiDAR点雲フレーム補間は、多くのアプリケーションにおいて重要な問題となっている。 特に点雲の伝送量を減少させるためには、参照フレームに基づいて中間フレームを予測し、高いフレームレートにデータをアップサンプルする。 しかし, 点雲の高次元的, スパース的特徴から, ビデオよりもLiDAR点雲の中間フレームの予測が困難である。 本稿では,CNNとの中間表現として範囲画像(RI)を利用してフレーム補間処理を行う,新しいLiDAR点雲補間法を提案する。 RIの遺伝特性がカラー画像と異なることを考えると、我々は空間適応的畳み込みを導入して範囲の特徴を適応的に抽出し、高効率フロー推定法を提案する。 提案したモデルでは,光学フローに基づいて入力フレームとレンジ特徴をワープし,補間フレームを合成する。 KITTIデータセットの広汎な実験により,本手法は最新の映像フレーム補間法よりも優れた知覚品質を有する優れたフレーム補間結果が得られることが示された。 提案手法は,任意のLiDAR点クラウド圧縮システムに統合して予測を行うことができる。

LiDAR point cloud frame interpolation, which synthesizes the intermediate frame between the captured frames, has emerged as an important issue for many applications. Especially for reducing the amounts of point cloud transmission, it is by predicting the intermediate frame based on the reference frames to upsample data to high frame rate ones. However, due to high-dimensional and sparse characteristics of point clouds, it is more difficult to predict the intermediate frame for LiDAR point clouds than videos. In this paper, we propose a novel LiDAR point cloud frame interpolation method, which exploits range images (RIs) as an intermediate representation with CNNs to conduct the frame interpolation process. Considering the inherited characteristics of RIs differ from that of color images, we introduce spatially adaptive convolutions to extract range features adaptively, while a high-efficient flow estimation method is presented to generate optical flows. The proposed model then warps the input frames and range features, based on the optical flows to synthesize the interpolated frame. Extensive experiments on the KITTI dataset have clearly demonstrated that our method consistently achieves superior frame interpolation results with better perceptual quality to that of using state-of-the-art video frame interpolation methods. The proposed method could be integrated into any LiDAR point cloud compression systems for inter prediction.
翻訳日:2021-06-02 19:05:40 公開日:2021-06-01
# (参考訳) 動的環境とタスクへの適応のための統一認知学習フレームワーク [全文訳有]

A Unified Cognitive Learning Framework for Adapting to Dynamic Environment and Tasks ( http://arxiv.org/abs/2106.00501v1 )

ライセンス: CC BY 4.0
Qihui Wu, Tianchen Ruan, Fuhui Zhou, Yang Huang, Fan Xu, Shijin Zhao, Ya Liu, and Xuyang Huang(参考訳) 多くの機械学習フレームワークが提案され、様々な目標を実現するために無線通信に利用されている。 しかし、ダイナミックなワイヤレス環境やタスクに適応できず、自己学習ができないことで、幅広い応用と達成可能な性能が制限される。 脳認知機構による霊長類行動の柔軟性と適応性に着想を得て、動的無線環境とタスクに対して統合認知学習(CL)フレームワークが提案されている。 提案するCLの数学的枠組みを確立した。 提案するCLフレームワークには,動的な環境やタスクに適応する能力,自己学習能力,そして,変調認識を例に挙げて「悪いお金を追い出す良い金」の能力の3つの利点があることを示す。 提案されているCLフレームワークは、現在の学習フレームワークを強化し、アプリケーションを拡張することができる。

Many machine learning frameworks have been proposed and used in wireless communications for realizing diverse goals. However, their incapability of adapting to the dynamic wireless environment and tasks and of self-learning limit their extensive applications and achievable performance. Inspired by the great flexibility and adaptation of primate behaviors due to the brain cognitive mechanism, a unified cognitive learning (CL) framework is proposed for the dynamic wireless environment and tasks. The mathematical framework for our proposed CL is established. Using the public and authoritative dataset, we demonstrate that our proposed CL framework has three advantages, namely, the capability of adapting to the dynamic environment and tasks, the self-learning capability and the capability of 'good money driving out bad money' by taking modulation recognition as an example. The proposed CL framework can enrich the current learning frameworks and widen the applications.
翻訳日:2021-06-02 18:54:44 公開日:2021-06-01
# (参考訳) マルチラベルリモートセンシング画像検索のためのグラフ理論的深部表現学習法 [全文訳有]

A Novel Graph-Theoretic Deep Representation Learning Method for Multi-Label Remote Sensing Image Retrieval ( http://arxiv.org/abs/2106.00506v1 )

ライセンス: CC BY 4.0
Gencer Sumbul and Beg\"um Demir(参考訳) 本稿では,多層リモートセンシング(rs)画像検索問題におけるグラフ理論的深層表現学習手法を提案する。 提案手法は,アーカイブ内の各RS画像に関連する複数ラベルの共起関係を抽出し,活用することを目的としている。 この目的のために、各トレーニング画像は、まず、局所情報と関連する空間構造の両方を組み合わせた地域ベースの画像表現を提供するグラフ構造で表現される。 他のグラフベース手法とは異なり、提案手法は、アーカイブ内の各RS画像のグラフ構造を自動的に予測するディープニューラルネットワークをトレーニングするための新しい学習戦略を含む。 この戦略は、領域表現学習損失関数を用いて、そのマルチラベル共起関係に基づいて画像コンテンツを特徴付ける。 実験により,RSにおける検索問題に対する提案手法の有効性を,最先端の深層表現学習法と比較した。 提案手法のコードはhttps://git.tu-berli n.de/rsim/GT-DRL-CBI R で公開されている。

This paper presents a novel graph-theoretic deep representation learning method in the framework of multi-label remote sensing (RS) image retrieval problems. The proposed method aims to extract and exploit multi-label co-occurrence relationships associated to each RS image in the archive. To this end, each training image is initially represented with a graph structure that provides region-based image representation combining both local information and the related spatial organization. Unlike the other graph-based methods, the proposed method contains a novel learning strategy to train a deep neural network for automatically predicting a graph structure of each RS image in the archive. This strategy employs a region representation learning loss function to characterize the image content based on its multi-label co-occurrence relationship. Experimental results show the effectiveness of the proposed method for retrieval problems in RS compared to state-of-the-art deep representation learning methods. The code of the proposed method is publicly available at https://git.tu-berli n.de/rsim/GT-DRL-CBI R .
翻訳日:2021-06-02 18:45:12 公開日:2021-06-01
# (参考訳) レベル適応型クレジット割り当てを用いた協調型マルチエージェント転送学習 [全文訳有]

Cooperative Multi-Agent Transfer Learning with Level-Adaptive Credit Assignment ( http://arxiv.org/abs/2106.00517v1 )

ライセンス: CC BY 4.0
Tianze Zhou, Fubiao Zhang, Kun Shao, Kai Li, Wenhan Huang, Jun Luo, Weixun Wang, Yaodong Yang, Hangyu Mao, Bin Wang, Dong Li, Wulong Liu, Jianye Hao(参考訳) 協調型マルチエージェント強化学習(MARL)への移行学習は近年注目されている。 単一エージェントの設定とは対照的に、協調的なMARLでは調整が不可欠である。 しかし,既存の転送手法はエージェントポリシーにのみ焦点をあて,協調知識を無視する。 本稿では,コーディネーション全体を複数の協調パターンに適切に分解することで,ロバストな協調知識の伝達を実現するアーキテクチャを提案する。 我々は、レベル適応型QTransformer(LA-QTra nsformer)と呼ばれる新しいミキシングネットワークを用いて、クレジット代入を考慮したエージェント調整を実現し、協調知識の伝達に特化した新しいレベル適応型QTransformer(LA-Tran sformer)によって実現された異なるエージェントに対する適切な調整パターンを実現する。 さらに,Population Invariant agent with Transformer (PIT) という新しいエージェントネットワークを用いて,多種多様なシナリオにおけるコーディネーション転送を実現する。 StarCraft IIの大規模なマイクロマネジメント実験により、LA-QTransformerとPITは最先端のベースラインに比べて優れた性能を発揮することが示された。

Extending transfer learning to cooperative multi-agent reinforcement learning (MARL) has recently received much attention. In contrast to the single-agent setting, the coordination indispensable in cooperative MARL constrains each agent's policy. However, existing transfer methods focus exclusively on agent policy and ignores coordination knowledge. We propose a new architecture that realizes robust coordination knowledge transfer through appropriate decomposition of the overall coordination into several coordination patterns. We use a novel mixing network named level-adaptive QTransformer (LA-QTransformer) to realize agent coordination that considers credit assignment, with appropriate coordination patterns for different agents realized by a novel level-adaptive Transformer (LA-Transformer) dedicated to the transfer of coordination knowledge. In addition, we use a novel agent network named Population Invariant agent with Transformer (PIT) to realize the coordination transfer in more varieties of scenarios. Extensive experiments in StarCraft II micro-management show that LA-QTransformer together with PIT achieves superior performance compared with state-of-the-art baselines.
翻訳日:2021-06-02 18:38:14 公開日:2021-06-01
# (参考訳) MalPhase:ネットワークフローデータを用いた細粒度マルウェア検出 [全文訳有]

MalPhase: Fine-Grained Malware Detection Using Network Flow Data ( http://arxiv.org/abs/2106.00541v1 )

ライセンス: CC BY 4.0
Michal Piskozub, Fabio De Gaspari, Frederick Barr-Smith, Luigi V. Mancini, Ivan Martinovic(参考訳) 経済的インセンティブにより、マルウェアの著者は、機密性の高いデータを盗み、個人や企業に多額の身代金を支払うよう脅迫するために、ますます複雑な新しいマルウェアを常に開発することが奨励される。 2017年、世界のサイバー攻撃の経済的影響は445~600億米ドル、世界のGDPの0.8%と推定されている。 伝統的に、マルウェアに対する防御に使われるアプローチの1つはネットワークトラフィック分析であり、これは潜在的に悪意のあるソフトウェアの存在を検出するためにネットワークデータに依存する。 しかし、ネットワーク速度とトラフィック量の増加に対応するために、ネットワーク分析は通常、集約されたネットワークデータを扱うことに限られる。 本稿では,集約フローの限界に対処するシステムであるMalPhaseを提案する。 malphaseはマルウェアの検出、タイプ、家族分類のためのマルチフェーズパイプラインを備えている。 拡張されたネットワークフロー機能と同時多層アーキテクチャを使用することで、ディープラーニングモデルのパフォーマンス向上が容易になり、悪意のあるフロー(>98% F1)を検出し、それらをそれぞれのマルウェアタイプ(>93% F1)とファミリー(>91% F1)に分類することができる。 さらに、ロバストな機能の使用と自動エンコーダのデノナイズにより、MalPhaseは、さまざまな量の良質なトラフィックが混在するサンプルでうまく機能する。 最後に、MalPhaseは、実際のネットワーク環境を反映する良質なフローにインターレースされた場合でも、既知のサンプルに匹敵するパフォーマンスで、目に見えないマルウェアサンプルを検出する。

Economic incentives encourage malware authors to constantly develop new, increasingly complex malware to steal sensitive data or blackmail individuals and companies into paying large ransoms. In 2017, the worldwide economic impact of cyberattacks is estimated to be between 445 and 600 billion USD, or 0.8% of global GDP. Traditionally, one of the approaches used to defend against malware is network traffic analysis, which relies on network data to detect the presence of potentially malicious software. However, to keep up with increasing network speeds and amount of traffic, network analysis is generally limited to work on aggregated network data, which is traditionally challenging and yields mixed results. In this paper we present MalPhase, a system that was designed to cope with the limitations of aggregated flows. MalPhase features a multi-phase pipeline for malware detection, type and family classification. The use of an extended set of network flow features and a simultaneous multi-tier architecture facilitates a performance improvement for deep learning models, making them able to detect malicious flows (>98% F1) and categorize them to a respective malware type (>93% F1) and family (>91% F1). Furthermore, the use of robust features and denoising autoencoders allows MalPhase to perform well on samples with varying amounts of benign traffic mixed in. Finally, MalPhase detects unseen malware samples with performance comparable to that of known samples, even when interlaced with benign flows to reflect realistic network environments.
翻訳日:2021-06-02 18:05:05 公開日:2021-06-01
# (参考訳) 関連集合による効率的な説明 [全文訳有]

Efficient Explanations With Relevant Sets ( http://arxiv.org/abs/2106.00546v1 )

ライセンス: CC BY 4.0
Yacine Izza, Alexey Ignatiev, Nina Narodytska, Martin C. Cooper, Joao Marques-Silva(参考訳) 最近の研究は、与えられた入力に対する分類器による予測の確率論的説明として$\delta$-relevant inputs (またはset)を提案した。 $\delta$-relevant 集合は、(モデル非依存の)アンカーと(モデル-正確な) PI- の説明を関連付けるのに役立つので重要である。 残念なことに、最小サイズの$\delta$-relevant集合の計算は${NP}^{PP}$に対して完備であり、その計算は実際はほとんど実現不可能である。 本稿では,$\delta$-関係集合の実用的限界に取り組むための解について検討する。 まず、本論文は部分最小集合の計算を交互に検討する。 第2に、決定木などを含む分類器の具体的家族について研究する。 これらの場合、本論文はnpにおける部分集合最小$\delta$-関係集合の計算がnpオラクルへの呼び出しの多項式数で解くことができることを示す。 実験による評価は,提案手法と,本論文で研究した分類器の具体的な場合のヒューリスティックな説明器との比較を行い,提案手法の有効性を確認した。

Recent work proposed $\delta$-relevant inputs (or sets) as a probabilistic explanation for the predictions made by a classifier on a given input. $\delta$-relevant sets are significant because they serve to relate (model-agnostic) Anchors with (model-accurate) PI- explanations, among other explanation approaches. Unfortunately, the computation of smallest size $\delta$-relevant sets is complete for ${NP}^{PP}$, rendering their computation largely infeasible in practice. This paper investigates solutions for tackling the practical limitations of $\delta$-relevant sets. First, the paper alternatively considers the computation of subset-minimal sets. Second, the paper studies concrete families of classifiers, including decision trees among others. For these cases, the paper shows that the computation of subset-minimal $\delta$-relevant sets is in NP, and can be solved with a polynomial number of calls to an NP oracle. The experimental evaluation compares the proposed approach with heuristic explainers for the concrete case of the classifiers studied in the paper, and confirms the advantage of the proposed solution over the state of the art.
翻訳日:2021-06-02 17:40:56 公開日:2021-06-01
# (参考訳) Shine: 双方向最適化と暗黙的モデルのためのフォワードパスからの逆推定 [全文訳有]

SHINE: SHaring the INverse Estimate from the forward pass for bi-level optimization and implicit models ( http://arxiv.org/abs/2106.00553v1 )

ライセンス: CC BY 4.0
Zaccharie Ramzi, Florian Mannel, Shaojie Bai, Jean-Luc Starck, Philippe Ciuciu, Thomas Moreau(参考訳) 近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。 トレーニングはメモリ効率が高いが、明示的なトレーニングに比べてトレーニングがかなり遅い。 深層平衡モデル(deqs)では、トレーニングは双レベル問題として行われ、計算の複雑さは巨大なヤコビ行列の反復反転によって部分的に駆動される。 本稿では,biレベルの問題が多く発生するこの計算ボトルネックに対処するための新しい手法を提案する。 主な考え方は、フォワードパスから準ニュートン行列を用いて、勾配計算に必要な方向の逆ヤコビ行列を効率的に近似することである。 本手法を元来のフォワードアルゴリズムで活用する動機付けとなる定理を提案する。 さらに,これらのフォワードアルゴリズムを改良することにより,本手法が漸近的に真の暗黙的勾配を推定する理論的な保証を与える。 我々は、超パラメータ最適化からCIFARやImageNetに適用された大規模DQまで、様々な環境でこのアプローチを実証的に研究している。 これにより、後方通過の計算コストを最大2桁削減できることを示す。 これらはすべて、ハイパーパラメータ最適化およびCIFARにおけるオリジナルのモデルの優れたパフォーマンスを維持し、ImageNet上での奨励的かつ競争的な結果を提供する。

In recent years, implicit deep learning has emerged as a method to increase the depth of deep neural networks. While their training is memory-efficient, they are still significantly slower to train than their explicit counterparts. In Deep Equilibrium Models (DEQs), the training is performed as a bi-level problem, and its computational complexity is partially driven by the iterative inversion of a huge Jacobian matrix. In this paper, we propose a novel strategy to tackle this computational bottleneck from which many bi-level problems suffer. The main idea is to use the quasi-Newton matrices from the forward pass to efficiently approximate the inverse Jacobian matrix in the direction needed for the gradient computation. We provide a theorem that motivates using our method with the original forward algorithms. In addition, by modifying these forward algorithms, we further provide theoretical guarantees that our method asymptotically estimates the true implicit gradient. We empirically study this approach in many settings, ranging from hyperparameter optimization to large Multiscale DEQs applied to CIFAR and ImageNet. We show that it reduces the computational cost of the backward pass by up to two orders of magnitude. All this is achieved while retaining the excellent performance of the original models in hyperparameter optimization and on CIFAR, and giving encouraging and competitive results on ImageNet.
翻訳日:2021-06-02 17:26:05 公開日:2021-06-01
# (参考訳) マルチスケール特徴融合によるポーズ推定のためのフルレゾリューションエンコーダ・デコーダネットワーク [全文訳有]

Full-Resolution Encoder-Decoder Networks with Multi-Scale Feature Fusion for Human Pose Estimation ( http://arxiv.org/abs/2106.00566v1 )

ライセンス: CC BY 4.0
Jie Ou, Mingjian Chen, Hong Wu(参考訳) より正確な2次元ポーズ推定を実現するために,エンコーダ・デコーダネットワーク,単純なベースラインネットワーク(SBN)を3つの方法で拡張する。 大きな出力ストライドサイズに起因する量子化誤差を低減するため、単純なベースラインネットワークの端に2つのデコーダモジュールを追加して完全な出力解像度を得る。 次に、グローバルコンテキストブロック(gcbs)がエンコーダとデコーダモジュールに追加され、グローバルコンテキスト機能によってそれらを強化する。 さらに,マルチスケール特徴を融合分散し,ポーズ推定を促進するために,空間対応型マルチスケール特徴収集分散モジュール(sa-mfcd)を提案する。 ms cocoデータセットにおける実験結果から,本ネットワークはsbn上でのポーズ推定の精度を著しく向上し,resnet34をバックボーンネットワークとして使用するネットワークは,resnet152でsbnと同等の精度を達成し,大規模バックボーンネットワークで優れた結果を得ることができた。

To achieve more accurate 2D human pose estimation, we extend the successful encoder-decoder network, simple baseline network (SBN), in three ways. To reduce the quantization errors caused by the large output stride size, two more decoder modules are appended to the end of the simple baseline network to get full output resolution. Then, the global context blocks (GCBs) are added to the encoder and decoder modules to enhance them with global context features. Furthermore, we propose a novel spatial-attention-ba sed multi-scale feature collection and distribution module (SA-MFCD) to fuse and distribute multi-scale features to boost the pose estimation. Experimental results on the MS COCO dataset indicate that our network can remarkably improve the accuracy of human pose estimation over SBN, our network using ResNet34 as the backbone network can even achieve the same accuracy as SBN with ResNet152, and our networks can achieve superior results with big backbone networks.
翻訳日:2021-06-02 17:00:57 公開日:2021-06-01
# (参考訳) NewsEmbed: 事前訓練されたドキュメント表現によるニュースのモデリング [全文訳有]

NewsEmbed: Modeling News through Pre-trained DocumentRepresentati ons ( http://arxiv.org/abs/2106.00590v1 )

ライセンス: CC BY 4.0
Jialu Liu, Tianqi Liu, Cong Yu(参考訳) 文書レベルでのニュース記事などのテキストリッチな新鮮なコンテンツを効果的にモデル化することは難しい問題である。 コンテンツベースモデルが広範囲のアプリケーションに適合するようにするためには、望ましい品質を達成しつつ、人間のラベルの規模を超えて大きなトレーニングデータセットを持つことが重要である。 本稿では,この2つの課題に対して,意味的に関係のある新文書とその話題ラベルを人間の監督をほとんど受けずにマイニングする新しい手法を提案する。 一方,マルチタスクモデルであるNewsEmbedを設計し,コントラスト学習をマルチラベル分類で訓練し,ユニバーサル文書エンコーダを導出する。 提案手法は,数十億の高品質な有機学習例を提供し,異なる言語のテキストが同じ意味空間にエンコードされるような多言語環境に自然に拡張できることを示す。 我々は,複数の自然言語理解タスクを対象としたNewsEmbedの競合性能を実験的に実証した。

Effectively modeling text-rich fresh content such as news articles at document-level is a challenging problem. To ensure a content-based model generalize well to a broad range of applications, it is critical to have a training dataset that is large beyond the scale of human labels while achieving desired quality. In this work, we address those two challenges by proposing a novel approach to mine semantically-relevan t fresh documents, and their topic labels, with little human supervision. Meanwhile, we design a multitask model called NewsEmbed that alternatively trains a contrastive learning with a multi-label classification to derive a universal document encoder. We show that the proposed approach can provide billions of high quality organic training examples and can be naturally extended to multilingual setting where texts in different languages are encoded in the same semantic space. We experimentally demonstrate NewsEmbed's competitive performance across multiple natural language understanding tasks, both supervised and unsupervised.
翻訳日:2021-06-02 16:50:50 公開日:2021-06-01
# (参考訳) Look Wide and Interpret Twice: 対話型インストラクションフォロータスクのパフォーマンス向上 [全文訳有]

Look Wide and Interpret Twice: Improving Performance on Interactive Instruction-followin g Tasks ( http://arxiv.org/abs/2106.00596v1 )

ライセンス: CC BY 4.0
Van-Quang Nguyen, Masanori Suganuma, Takayuki Okatani(参考訳) インボディードAIエージェントを自然言語の指示に従う環境と対話しながら複雑なタスクを実行することに、コミュニティへの関心が高まっている。 近年の研究では、タスクのためのよく設計されたデータセットであるALFREDを用いてこの問題に取り組んでいるが、精度は非常に低い。 本稿では,従来の手法を大きなマージンで上回る新しい手法を提案する。 それはいくつかの新しいアイデアの組み合わせに基づいている。 1つは提供された命令の2段階の解釈である。 まず、視覚情報を用いずに命令を選択して解釈し、仮の動作シーケンス予測を行う。 そして、その予測を視覚情報等と統合し、アクションとオブジェクトの最終的な予測を生成する。 対話するオブジェクトのクラスが第一段階で識別されるので、入力画像から正しいオブジェクトを正確に選択することができる。 また,本手法では,環境の複数の自己中心的視点を考察し,現在の指示に基づく階層的注意を応用して本質的な情報を抽出する。 これはナビゲーションに対するアクションの正確な予測に寄与する。 この手法の予備版がALFRED Challenge 2020で優勝した。 現在のバージョンでは、単一のビューで4.45%の成功率を達成しており、複数のビューで8.37%に改善されている。

There is a growing interest in the community in making an embodied AI agent perform a complicated task while interacting with an environment following natural language directives. Recent studies have tackled the problem using ALFRED, a well-designed dataset for the task, but achieved only very low accuracy. This paper proposes a new method, which outperforms the previous methods by a large margin. It is based on a combination of several new ideas. One is a two-stage interpretation of the provided instructions. The method first selects and interprets an instruction without using visual information, yielding a tentative action sequence prediction. It then integrates the prediction with the visual information etc., yielding the final prediction of an action and an object. As the object's class to interact is identified in the first stage, it can accurately select the correct object from the input image. Moreover, our method considers multiple egocentric views of the environment and extracts essential information by applying hierarchical attention conditioned on the current instruction. This contributes to the accurate prediction of actions for navigation. A preliminary version of the method won the ALFRED Challenge 2020. The current version achieves the unseen environment's success rate of 4.45% with a single view, which is further improved to 8.37% with multiple views.
翻訳日:2021-06-02 16:33:11 公開日:2021-06-01
# (参考訳) SpanNer: エンティティの再認識をスパン予測に

SpanNer: Named Entity Re-/Recognition as Span Prediction ( http://arxiv.org/abs/2106.00641v1 )

ライセンス: CC BY 4.0
Jinlan Fu, Xuanjing Huang, Pengfei Liu(参考訳) 近年では、名前付きエンティティ認識(ner)システムのシーケンスラベリングからスパン予測へのパラダイムシフトが見られる。 予備的な効果にもかかわらず、スパン予測モデルのアーキテクチャバイアスは完全には理解されていない。 本稿では,名前付きエンティティ認識にスパン予測モデルを用いた場合の長所と短所について,シーケンスラベリングフレームワークと比較して検討し,その改善方法について検討する。 次に、スパン予測がシステムコンビネータとして機能し、異なるシステムの出力から名前付きエンティティを再認識できることを明らかにする。 3つの言語をカバーする11のデータセット上で154のシステムを実験的に実装し,ベースnerシステムとシステムコンビネータとして機能するスパン予測モデルの有効性を示した。 すべてのコードとデータセットを利用可能にする: \url{https://github.com/n eulab/spanner} オンラインシステムのデモ: \url{https://spanner.sh} 。 私たちのモデルはExplainaBoardプラットフォームにもデプロイされており、ユーザはインタラクティブな方法でトップスコーリングシステムのシステム組み合わせを柔軟に実行することができます。

Recent years have seen the paradigm shift of Named Entity Recognition (NER) systems from sequence labeling to span prediction. Despite its preliminary effectiveness, the span prediction model's architectural bias has not been fully understood. In this paper, we first investigate the strengths and weaknesses when the span prediction model is used for named entity recognition compared with the sequence labeling framework and how to further improve it, which motivates us to make complementary advantages of systems based on different paradigms. We then reveal that span prediction, simultaneously, can serve as a system combiner to re-recognize named entities from different systems' outputs. We experimentally implement 154 systems on 11 datasets, covering three languages, comprehensive results show the effectiveness of span prediction models that both serve as base NER systems and system combiners. We make all code and datasets available: \url{https://github.com/n eulab/spanner}, as well as an online system demo: \url{http://spanner.sh}. Our model also has been deployed into the ExplainaBoard platform, which allows users to flexibly perform a system combination of top-scoring systems in an interactive way: \url{http://explainaboard .nlpedia.ai/leaderbo ard/task-ner/}.
翻訳日:2021-06-02 16:13:01 公開日:2021-06-01
# (参考訳) ネットワーク接続性が集団学習に及ぼす影響 [全文訳有]

The Impact of Network Connectivity on Collective Learning ( http://arxiv.org/abs/2106.00655v1 )

ライセンス: CC BY 4.0
Michael Crosscombe and Jonathan Lawry(参考訳) 分散自律システムでは、システムの集団行動を管理する個々のエージェント間の相互作用である。 これらのローカルレベルの相互作用は、しばしば基盤となるネットワーク構造によって制御される。 これらのネットワークは、エージェントが環境から証拠を収集し、システム内の他のエージェントに情報を伝達する必要がある、集合学習や意思決定において特に重要である。 集団行動のモデルは、システム内で効果的な情報共有を提供するためにエージェント間の完全な接続の仮定に依存することが多いが、この仮定は不十分である。 本稿では,基礎となるネットワークが集団学習の文脈におけるパフォーマンスに与える影響について検討する。 シミュレーションにより,接続性やランダム性のレベルが異なる小世界ネットワークを調査し,接続性の低いネットワークと比較して,完全接続ネットワークの方が平均誤差が高いと結論づけた。 さらに,高規則性ネットワークはランダム接続のレベルが増大するネットワークよりも優れることを示す。

In decentralised autonomous systems it is the interactions between individual agents which govern the collective behaviours of the system. These local-level interactions are themselves often governed by an underlying network structure. These networks are particularly important for collective learning and decision-making whereby agents must gather evidence from their environment and propagate this information to other agents in the system. Models for collective behaviours may often rely upon the assumption of total connectivity between agents to provide effective information sharing within the system, but this assumption may be ill-advised. In this paper we investigate the impact that the underlying network has on performance in the context of collective learning. Through simulations we study small-world networks with varying levels of connectivity and randomness and conclude that totally-connected networks result in higher average error when compared to networks with less connectivity. Furthermore, we show that networks of high regularity outperform networks with increasing levels of random connectivity.
翻訳日:2021-06-02 16:04:41 公開日:2021-06-01
# (参考訳) Markpainting: 敵の機械学習がInpaintingと出会う [全文訳有]

Markpainting: Adversarial Machine Learning meets Inpainting ( http://arxiv.org/abs/2106.00660v1 )

ライセンス: CC BY 4.0
David Khachaturov, Ilia Shumailov, Yiren Zhao, Nicolas Papernot, Ross Anderson(参考訳) インパインティング(Inpainting)は、画像にマスクや欠落したピースを投入するために使用される生成モデルに基づく、学習された補間技法であり、画像編集や修正に広く応用されている。 近年、透かしの除去に塗布が使われ始め、懸念が高まった。 本稿では,マークペイント技術を用いてその操作方法について検討する。 まず、塗装モデルにアクセスした画像所有者が、そのモデルを使って編集しようとすると、任意の可視情報を付加するように画像を強化できることを示す。 我々は,複数の異なるモデルを同時にターゲットとすることができる。 これは、エディタがそれを削除しようとした場合、ウォーターマークを再構成するように設計できる。 第二に、我々のマークペイント技術は異なるアーキテクチャを持つモデルや異なるデータセットで訓練されたモデルに転送可能であることを示し、それを用いて作成された透かしは敵が取り除くのが困難である。 マークパインティング(Markpainting)は新規で、着色時に目に見えるアラームとして使用できる。

Inpainting is a learned interpolation technique that is based on generative modeling and used to populate masked or missing pieces in an image; it has wide applications in picture editing and retouching. Recently, inpainting started being used for watermark removal, raising concerns. In this paper we study how to manipulate it using our markpainting technique. First, we show how an image owner with access to an inpainting model can augment their image in such a way that any attempt to edit it using that model will add arbitrary visible information. We find that we can target multiple different models simultaneously with our technique. This can be designed to reconstitute a watermark if the editor had been trying to remove it. Second, we show that our markpainting technique is transferable to models that have different architectures or were trained on different datasets, so watermarks created using it are difficult for adversaries to remove. Markpainting is novel and can be used as a manipulation alarm that becomes visible in the event of inpainting.
翻訳日:2021-06-02 15:53:18 公開日:2021-06-01
# (参考訳) 科学テキスト分類のための視覚レイアウト構造の導入 [全文訳有]

Incorporating Visual Layout Structures for Scientific Text Classification ( http://arxiv.org/abs/2106.00676v1 )

ライセンス: CC BY 4.0
Zejiang Shen, Kyle Lo, Lucy Lu Wang, Bailey Kuehl, Daniel S. Weld, Doug Downey(参考訳) 科学論文のコアテキストコンポーネントの分類は、科学文書の自動理解において重要な第一歩である。 これまでの研究は、基本的なレイアウト情報、すなわちページ上の各トークンの2D位置を用いて、より正確な分類を行う方法を示してきた。 本稿では,VILA(Visual LAyout Structure)の新たな手法として,ページテキストのテキスト行やテキストブロックへのグループ化を言語モデルに導入し,パフォーマンスの向上を図る。 モデル入力にレイアウト構造の境界を示す特別なトークンを追加するI-VILAアプローチは、トークン分類タスクにおいて+1~4.5 F1のスコア改善につながることを示す。 さらに,これらのレイアウト構造を符号化し,予測精度を損なうことなく最大70%の効率向上を記録できる階層モデルh-vilaを設計した。 実験は、新しい評価スイートであるS2-VLUEで行われ、VILAの意識を測定する新しい測定基準と、金のアノテーションで19の科学分野をカバーする新しいデータセットが提供される。 トレーニング済みのウェイト、ベンチマークデータセット、ソースコードはhttps://github.com/a llenai/VILA}{https://github.com/a llenai/VILAで入手できる。

Classifying the core textual components of a scientific paper-title, author, body text, etc.-is a critical first step in automated scientific document understanding. Previous work has shown how using elementary layout information, i.e., each token's 2D position on the page, leads to more accurate classification. We introduce new methods for incorporating VIsual LAyout structures (VILA), e.g., the grouping of page texts into text lines or text blocks, into language models to further improve performance. We show that the I-VILA approach, which simply adds special tokens denoting boundaries between layout structures into model inputs, can lead to +1~4.5 F1 Score improvements in token classification tasks. Moreover, we design a hierarchical model H-VILA that encodes these layout structures and record a up-to 70% efficiency boost without hurting prediction accuracy. The experiments are conducted on a newly curated evaluation suite, S2-VLUE, with a novel metric measuring VILA awareness and a new dataset covering 19 scientific disciplines with gold annotations. Pre-trained weights, benchmark datasets, and source code will be available at https://github.com/a llenai/VILA}{https://github.com/a llenai/VILA.
翻訳日:2021-06-02 15:36:41 公開日:2021-06-01
# 校正型クロスモーダル検索のための学習関係アライメント

Learning Relation Alignment for Calibrated Cross-modal Retrieval ( http://arxiv.org/abs/2105.13868v2 )

ライセンス: Link先を確認
Shuhuai Ren, Junyang Lin, Guangxiang Zhao, Rui Men, An Yang, Jingren Zhou, Xu Sun, Hongxia Yang(参考訳) 大規模なマルチモーダル事前学習アプローチの成果にもかかわらず、画像テキスト検索のようなクロスモーダル検索は難しい課題である。 2つのモダリティ間の意味的ギャップを埋めるために、これまでの研究では、主に対象レベルでの単語領域のアライメントに注目し、単語間の言語的関係と領域間の視覚的関係のマッチングを欠いている。 このような関係一貫性の無視は、画像テキスト対の文脈的表現を損なうとともに、モデル性能と解釈可能性を妨げる。 本稿では,まず,言語関係と視覚関係の間の意味的距離を計測し,関係一貫性を定量化する新しい指標であるisd(intra-modal self-attention distance)を提案する。 そこで本研究では,isdを最適化し,両モダリティ間アライメントを介して相互にモダリティ内自己アライメントを校正するための正規化トレーニング手法であるiais(intra-modal self-attention)のモード間アライメントを提案する。 IAIS正規化器はFlickr30kおよびMS COCOデータセット上での一般的なモデルの性能を大幅に向上させ、我々のアプローチの優位性を示す。

Despite the achievements of large-scale multimodal pre-training approaches, cross-modal retrieval, e.g., image-text retrieval, remains a challenging task. To bridge the semantic gap between the two modalities, previous studies mainly focus on word-region alignment at the object level, lacking the matching between the linguistic relation among the words and the visual relation among the regions. The neglect of such relation consistency impairs the contextualized representation of image-text pairs and hinders the model performance and the interpretability. In this paper, we first propose a novel metric, Intra-modal Self-attention Distance (ISD), to quantify the relation consistency by measuring the semantic distance between linguistic and visual relations. In response, we present Inter-modal Alignment on Intra-modal Self-attentions (IAIS), a regularized training method to optimize the ISD and calibrate intra-modal self-attentions from the two modalities mutually via inter-modal alignment. The IAIS regularizer boosts the performance of prevailing models on Flickr30k and MS COCO datasets by a considerable margin, which demonstrates the superiority of our approach.
翻訳日:2021-06-02 14:48:49 公開日:2021-06-01
# 1$\times$N Block Pattern for Network Sparsity

1$\times$N Block Pattern for Network Sparsity ( http://arxiv.org/abs/2105.14713v2 )

ライセンス: Link先を確認
Mingbao Lin, Yuchao Li, Yuxin Zhang, Bohong Chen, Fei Chao, Mengdi Wang, Shen Li, Jun Yang, Rongrong Ji(参考訳) ネットワークの分散性は、ニューラルネットワークの大幅な規模拡大を克服するための有望な方向として現れるが、一般的なCPU上での大幅なスピードアップを達成するだけでなく、モデル精度の同時維持も未解決のままである。 本稿では,この制限を破るために,ブロック間隔パターン(ブロックプルーニング)を1\times N$という新しい概念を提案する。 特に、同じ入力チャネルインデックスを持つ連続$N$出力カーネルは、1つのブロックにグループ化され、プルーニングパターンの基本的なプルーニング粒度として機能する。 われわれの$1 \times N$ sparsityパターンは、これらのブロックを重要視している。 また,最初に出力チャネル次元の重み行列を再構成し,精度向上のためにより影響力のあるブロックを導出し,入力チャネル次元の次層重みに同様の再配置を適用し,畳み込み操作を確実にするフィルタ再配置のワークフローを提供する。 さらに, 並列化されたブロックワイドベクトル化演算により, 1 ドルブロック間隔後の出力計算を実現し, 一般的な CPU ベースのプラットフォーム上での大幅な高速化を実現した。 プルーニングパターンの有効性は,ilsvrc-2012実験により実証された。 例えば、50%の間隔と$N=4$の場合、MobileNet-V2の上位1の精度でフィルタプルーニングよりも約3.0%改善する。 一方、重量プルーニングよりもcortex-a7 cpuの56.04msの推論節約が得られる。 コードはhttps://github.com/l mbxmu/1xn。

Though network sparsity emerges as a promising direction to overcome the drastically increasing size of neural networks, it remains an open problem to concurrently maintain model accuracy as well as achieve significant speedups on general CPUs. In this paper, we propose one novel concept of $1\times N$ block sparsity pattern (block pruning) to break this limitation. In particular, consecutive $N$ output kernels with the same input channel index are grouped into one block, which serves as a basic pruning granularity of our pruning pattern. Our $1 \times N$ sparsity pattern prunes these blocks considered unimportant. We also provide a workflow of filter rearrangement that first rearranges the weight matrix in the output channel dimension to derive more influential blocks for accuracy improvements, and then applies similar rearrangement to the next-layer weights in the input channel dimension to ensure correct convolutional operations. Moreover, the output computation after our $1 \times N$ block sparsity can be realized via a parallelized block-wise vectorized operation, leading to significant speedups on general CPUs-based platforms. The efficacy of our pruning pattern is proved with experiments on ILSVRC-2012. For example, in the case of 50% sparsity and $N=4$, our pattern obtains about 3.0% improvements over filter pruning in the top-1 accuracy of MobileNet-V2. Meanwhile, it obtains 56.04ms inference savings on Cortex-A7 CPU over weight pruning. Code is available at https://github.com/l mbxmu/1xN.
翻訳日:2021-06-02 14:48:25 公開日:2021-06-01
# 問合せから引用への変換に基づく引用推薦と解釈

Quotation Recommendation and Interpretation Based on Transformation from Queries to Quotations ( http://arxiv.org/abs/2105.14189v2 )

ライセンス: Link先を確認
Lingzhi Wang, Xingshan Zeng, Kam-Fai Wong(参考訳) 個人が自分を表現するのを助けるために、引用推奨が注目を集めている。 それでも、これまでのほとんどの取り組みは、引用とクエリを別々にモデル化することに集中し、引用とクエリの関係を無視する。 本研究では,クエリ表現を直接引用表現にマッピングする変換行列を提案する。 マッピング関係をよりよく学ぶために、2つの意味空間の距離を最小にするマッピング損失(1つは引用用、もう1つはマッピングクエリ用)を用いる。 さらに,問合せ中の単語を用いて引用の擬人的言語を解釈し,問合せの上に引用を意識した注意を施し,指示語を強調する。 英語と中国語の2つのデータセットの実験では、我々のモデルは過去の最先端モデルよりも優れていた。

To help individuals express themselves better, quotation recommendation is receiving growing attention. Nevertheless, most prior efforts focus on modeling quotations and queries separately and ignore the relationship between the quotations and the queries. In this work, we introduce a transformation matrix that directly maps the query representations to quotation representations. To better learn the mapping relationship, we employ a mapping loss that minimizes the distance of two semantic spaces (one for quotation and another for mapped-query). Furthermore, we explore using the words in history queries to interpret the figurative language of quotations, where quotation-aware attention is applied on top of history queries to highlight the indicator words. Experiments on two datasets in English and Chinese show that our model outperforms previous state-of-the-art models.
翻訳日:2021-06-02 14:47:57 公開日:2021-06-01
# 変圧器の微調整と組成の相互作用について

On the Interplay Between Fine-tuning and Composition in Transformers ( http://arxiv.org/abs/2105.14668v2 )

ライセンス: Link先を確認
Lang Yu and Allyson Ettinger(参考訳) 事前訓練されたトランスフォーマー言語モデルは、様々なNLPタスクにおいて顕著な性能を示した。 しかし、近年の研究では、これらのモデルにおけるフレーズレベルの表現は、語彙内容の強い影響を反映しているが、洗練された合成句情報の証拠がないことが示唆されている。 本稿では,語彙的内容を超えた句意味情報を取り込むための文脈的埋め込みの能力に対する微調整の影響について検討する。 具体的には,語彙重複度の高い逆パラフレーズ分類タスクと感情分類タスクでモデルを微調整する。 微調整後,事前作業後の制御設定におけるフラシアル表現の分析を行う。 微調整はこれらの表現において構成性に恩恵をもたらすことがほとんどないが、感情の訓練は特定のモデルに小さな局所的な利益をもたらす。 フォローアップ分析では,その課題から構成的利益の欠如を説明できるパラフレーズデータセット内の類似した手がかりを同定し,感情訓練による局所的利益の根底にある潜在的な要因について考察する。

Pre-trained transformer language models have shown remarkable performance on a variety of NLP tasks. However, recent research has suggested that phrase-level representations in these models reflect heavy influences of lexical content, but lack evidence of sophisticated, compositional phrase information. Here we investigate the impact of fine-tuning on the capacity of contextualized embeddings to capture phrase meaning information beyond lexical content. Specifically, we fine-tune models on an adversarial paraphrase classification task with high lexical overlap, and on a sentiment classification task. After fine-tuning, we analyze phrasal representations in controlled settings following prior work. We find that fine-tuning largely fails to benefit compositionality in these representations, though training on sentiment yields a small, localized benefit for certain models. In follow-up analyses, we identify confounding cues in the paraphrase dataset that may explain the lack of composition benefits from that task, and we discuss potential factors underlying the localized benefits from sentiment training.
翻訳日:2021-06-02 14:47:43 公開日:2021-06-01
# 探索と爆発:中国のスペル補正モデルを改善する2つの方法

Exploration and Exploitation: Two Ways to Improve Chinese Spelling Correction Models ( http://arxiv.org/abs/2105.14813v2 )

ライセンス: Link先を確認
Chong Li, Cenyuan Zhang, Xiaoqing Zheng, Xuanjing Huang(参考訳) ニューラルネットワークを用いたシーケンシャル・ツー・シーケンス学習は、いくつかの綴り誤りのある文を入力として出力する中国語綴り修正(csc)の有効な枠組みであることが実証的に証明されている。 しかし、CSCモデルは混乱セットによってカバーされるスペルエラーの修正に失敗し、また目に見えないエラーに遭遇する。 本稿では,モデルの弱点を継続的に識別し,より価値のあるトレーニングインスタンスを生成し,そのモデルを強化するためにタスク固有の事前学習戦略を適用する手法を提案する。 生成した敵の例をトレーニングセットに徐々に追加する。 実験結果から, 事前学習戦略と組み合わさって, 複数のCSCモデルの3つのデータセット間の一般化とロバスト性を改善し, CSCタスクの最先端性能を達成できることが示唆された。

A sequence-to-sequence learning with neural networks has empirically proven to be an effective framework for Chinese Spelling Correction (CSC), which takes a sentence with some spelling errors as input and outputs the corrected one. However, CSC models may fail to correct spelling errors covered by the confusion sets, and also will encounter unseen ones. We propose a method, which continually identifies the weak spots of a model to generate more valuable training instances, and apply a task-specific pre-training strategy to enhance the model. The generated adversarial examples are gradually added to the training set. Experimental results show that such an adversarial training method combined with the pretraining strategy can improve both the generalization and robustness of multiple CSC models across three different datasets, achieving stateof-the-art performance for CSC task.
翻訳日:2021-06-02 14:47:26 公開日:2021-06-01
# 加算ニューラルネットワーク

Adder Neural Networks ( http://arxiv.org/abs/2105.14202v2 )

ライセンス: Link先を確認
Hanting Chen, Yunhe Wang, Chang Xu, Chao Xu, Chunjing Xu, Tong Zhang(参考訳) 安価な加算演算と比較すると、乗算演算は計算の複雑さがはるかに高い。 ディープニューラルネットワークにおける広く使われている畳み込みは、入力特徴と畳み込みフィルタの類似度を測定するために、正確にクロス相関である。 本稿では,深層ニューラルネットワーク,特に畳み込みニューラルネットワーク(CNN)におけるこれらの膨大な乗算を,計算コストを削減するために,より安価な加算を行うための加算器ネットワーク(AdderNets)を提案する。 AdderNetsでは、フィルタと入力機能の間の$\ell_1$-norm距離を出力応答としています。 この新たな類似度尺度がニューラルネットワークの最適化に与える影響を網羅的に分析した。 より優れたパフォーマンスを実現するため,$\ell_p$-norm を調査し,AdderNets の特別なトレーニング手法を開発した。 次に,各ニューロンの勾配の大きさに応じてアダネットの学習手順を強化する適応学習速度戦略を提案する。 その結果、AdderNetsは画像Netデータセット上でResNet-50を使用して75.7%のTop-1精度92.3%のTop-5精度を達成することができる。 さらに,ReLUアクティベーション関数を持つ単一の隠蔽層AdderNetと幅境界層AdderNetの両方が普遍関数近似器であることを示すことにより,AdderNetsの理論基盤を構築する。 これらの結果は、より複雑な乗算単位を用いて従来のニューラルネットワークのものと一致する。 単一の隠れレイヤでAdderNetsにバインドされた近似も提示される。

Compared with cheap addition operation, multiplication operation is of much higher computation complexity. The widely-used convolutions in deep neural networks are exactly cross-correlation to measure the similarity between input feature and convolution filters, which involves massive multiplications between float values. In this paper, we present adder networks (AdderNets) to trade these massive multiplications in deep neural networks, especially convolutional neural networks (CNNs), for much cheaper additions to reduce computation costs. In AdderNets, we take the $\ell_1$-norm distance between filters and input feature as the output response. The influence of this new similarity measure on the optimization of neural network have been thoroughly analyzed. To achieve a better performance, we develop a special training approach for AdderNets by investigating the $\ell_p$-norm. We then propose an adaptive learning rate strategy to enhance the training procedure of AdderNets according to the magnitude of each neuron's gradient. As a result, the proposed AdderNets can achieve 75.7% Top-1 accuracy 92.3% Top-5 accuracy using ResNet-50 on the ImageNet dataset without any multiplication in convolutional layer. Moreover, we develop a theoretical foundation for AdderNets, by showing that both the single hidden layer AdderNet and the width-bounded deep AdderNet with ReLU activation functions are universal function approximators. These results match those of the traditional neural networks using the more complex multiplication units. An approximation bound for AdderNets with a single hidden layer is also presented.
翻訳日:2021-06-02 14:47:11 公開日:2021-06-01
# VersatileGait:Wildシミュレーションに向けた大規模合成ゲイトデータセット

VersatileGait: A Large-Scale Synthetic Gait Dataset Towards in-the-Wild Simulation ( http://arxiv.org/abs/2105.14421v2 )

ライセンス: Link先を確認
Pengyi Zhang, Huanzhang Dou, Wenhu Zhang, Yuhan Zhao, Songyuan Li, Zequn Qin, Xi Li(参考訳) 近年,歩行認識が急速に進展している。 しかし、野生での歩行認識はまだ十分に研究されていない。 明らかな理由は、本質的および外生的要因の観点からの多様なトレーニングデータが欠如していることにある。 この問題を解決するために,制御可能なコンピュータシミュレーションを用いて大規模歩行データセットを構築することを提案する。 詳しくは,歩行の本質的要因を多様化するために,多様な属性を持つ多数のキャラクターを生成し,様々なタイプの歩行スタイルを付与する。 歩行の外部要因を多様化するために,高密度カメラレイアウトの複雑なシーンを構築する。 最後に、歩行シナリオをシミュレーションし、歩行データを自動キャプチャする自動生成ツールキットをUnity3Dで設計する。 その結果,多種多様なシナリオを持つ1万件の被験者のシルエット配列を100万件以上持つVersatileGaitという,Wildの歩行データセットが得られた。 versatilegaitには、巨大なデータセットサイズ、多様な歩行者属性、複雑なカメラレイアウト、高品質なアノテーション、実際のドメイン間隙、新しい要求に対する優れたスケーラビリティ、プライバシ問題のない、いくつかの優れた特性があります。 versatilegaitを基盤として,野生の歩行研究と実用研究の両面において,一連の実験と応用を提案する。 我々のデータセットとその生成ツールキットは、さらなる研究のために公開されます。

Gait recognition has a rapid development in recent years. However, gait recognition in the wild is not well explored yet. An obvious reason could be ascribed to the lack of diverse training data from the perspective of intrinsic and extrinsic factors. To remedy this problem, we propose to construct a large-scale gait dataset with the help of controllable computer simulation. In detail, to diversify the intrinsic factors of gait, we generate numerous characters with diverse attributes and empower them with various types of walking styles. To diversify the extrinsic factors of gait, we build a complicated scene with a dense camera layout. Finally, we design an automated generation toolkit under Unity3D for simulating the walking scenario and capturing the gait data automatically. As a result, we obtain an in-the-wild gait dataset, called VersatileGait, which has more than one million silhouette sequences of 10,000 subjects with diverse scenarios. VersatileGait possesses several nice properties, including huge dataset size, diverse pedestrian attributes, complicated camera layout, high-quality annotations, small domain gap with the real one, good scalability for new demands, and no privacy issues. Based on VersatileGait, we propose series of experiments and applications for both research exploration of gait in the wild and practical applications. Our dataset and its corresponding generation toolkit will be publicly available for further studies.
翻訳日:2021-06-02 14:46:48 公開日:2021-06-01
# ディープニューラルネットワークを用いた運転意図予測

Predicting Driver Intention Using Deep Neural Network ( http://arxiv.org/abs/2105.14790v2 )

ライセンス: Link先を確認
Mahdi Bonyani, Mina Rahmanian, Simindokht Jahangard(参考訳) 運転安全性の向上と自動車事故の回避のために,高度運転支援システム (ADAS) が注目されている。 近年の研究では、運転者の意図をシステムの重要部分として予測することに焦点を当てている。 本研究では,brain4carsデータセットを用いたダイバー操作の予測に4つの入力を用い,実際の動作が起こる5,4,3,2,1秒前に操作予測を行う新しい枠組みを提案する。 1) 内部ビューのみ、2) 外部ビュー、3) 内部ビューと外部ビューの両方を使用して、フレームワークを3つのシナリオで評価しました。 データセットをトレーニング,検証,テストセットに分割し,K倍のクロス検証も活用した。 最先端の研究と比較すると、アーキテクチャは高速で、2番目と3番目のシナリオで高いパフォーマンスを実現しています。 評価指標として精度,精度,リコール,f1-scoreを用い,外視では82.41%,82.28%,82,42% ,82.24%,内視では98.90%,98.96%,外視では98.90%,外視では98.88%を得た。

To improve driving safety and avoid car accidents, Advanced Driver Assistance Systems (ADAS) are given significant attention. Recent studies have focused on predicting driver intention as a key part of these systems. In this study, we proposed new framework in which 4 inputs are employed to anticipate diver maneuver using Brain4Cars dataset and the maneuver prediction is achieved from 5, 4, 3, 2, 1 seconds before the actual action occurs. We evaluated our framework in three scenarios: using only 1) inside view 2) outside view and 3) both inside and outside view. We divided the dataset into training, validation and test sets, also K-fold cross validation is utilized. Compared with state-of-the-art studies, our architecture is faster and achieved higher performance in second and third scenario. Accuracy, precision, recall and f1-score as evaluation metrics were utilized and the result of 82.41%, 82.28%, 82,42% and 82.24% for outside view and 98.90%, 98.96%, 98.90% and 98.88% for both inside and outside view were gained, respectively.
翻訳日:2021-06-02 14:46:28 公開日:2021-06-01
# 都市交通監視(UTS:Urban Traffic Surveillance) : 2次元検出に基づく完全確率的3D追跡手法

Urban Traffic Surveillance (UTS): A fully probabilistic 3D tracking approach based on 2D detections ( http://arxiv.org/abs/2105.14993v2 )

ライセンス: Link先を確認
Henry Bradler, Adrian Kretz and Rudolf Mester(参考訳) 都市交通監視(英語: urban traffic surveillance、略称:uts)は、複数の車線や車両が集中する都市交通シナリオにおける車両を検知し、鋭い旋回操作を行う単眼およびキャリブレーションビデオカメラに基づく監視システムである。 UTSは3Dバウンディングボックス表現と、無意味なカルマンフィルタに基づく物理的に合理的な3Dモーションモデルを用いて車両を追跡する。 UTSは3次元世界座標系における位置、形状、運動情報を復元するため、多様な交通違反を認識したり、貴重な交通情報を提供するために使用できる。 YOLOv3は、各車両の2Dバウンディングボックスとクラスラベルを生成する検出器として構築されている。 2D検出器は、さまざまなラベル付きトレーニングデータが利用できるため、我々のシステムを異なるカメラ視点にはるかに独立させる。 これにより、よりハードウェア効率が良く、優れた一般化が可能になる。 2次元検出に基づく3Dトラッキングのタスクは、車両形状に関するクラス固有の事前知識を統合することで支援される。 都市部における車両監視設定とラベル付き3Dバウンディングボックスによるデータセットの非存在により,CARLAシミュレータからの自己生成合成データと地上真実を用いてUTSを定量的に評価した。 さらに,実世界のデータに対するUTSの動作の質的な印象を与える。 私たちの実装は、かなりモダンなワークステーション上でリアルタイムに動作できます。 われわれの知る限り、UTSは監視シナリオ(静止カメラによる移動目標の観測)の中で唯一の3D車両追跡システムとなる。

Urban Traffic Surveillance (UTS) is a surveillance system based on a monocular and calibrated video camera that detects vehicles in an urban traffic scenario with dense traffic on multiple lanes and vehicles performing sharp turning maneuvers. UTS then tracks the vehicles using a 3D bounding box representation and a physically reasonable 3D motion model relying on an unscented Kalman filter based approach. Since UTS recovers positions, shape and motion information in a three-dimensional world coordinate system, it can be employed to recognize diverse traffic violations or to supply intelligent vehicles with valuable traffic information. We build on YOLOv3 as a detector yielding 2D bounding boxes and class labels for each vehicle. A 2D detector renders our system much more independent to different camera perspectives as a variety of labeled training data is available. This allows for a good generalization while also being more hardware efficient. The task of 3D tracking based on 2D detections is supported by integrating class specific prior knowledge about the vehicle shape. We quantitatively evaluate UTS using self generated synthetic data and ground truth from the CARLA simulator, due to the non-existence of datasets with an urban vehicle surveillance setting and labeled 3D bounding boxes. Additionally, we give a qualitative impression of how UTS performs on real-world data. Our implementation is capable of operating in real time on a reasonably modern workstation. To the best of our knowledge, UTS is to date the only 3D vehicle tracking system in a surveillance scenario (static camera observing moving targets).
翻訳日:2021-06-02 14:46:03 公開日:2021-06-01
# 新規白質路の少数ショットセグメンテーションのための知識伝達

Knowledge Transfer for Few-shot Segmentation of Novel White Matter Tracts ( http://arxiv.org/abs/2105.14513v2 )

ライセンス: Link先を確認
Qi Lu and Chuyang Ye(参考訳) 畳み込みニューラルネットワーク(CNN)は,拡散磁気共鳴画像(dMRI)に基づいて,白色物質(WM)トラクションセグメンテーションの最先端性能を達成した。 これらのCNNは、一般に労働集約的でコストがかかるWMの訓練に多くの手作業による指示を必要とする。 新しいWMトラクション、すなわち既存の手動デラインに含まれていないトラクションを解析する場合、高価な手動デライン化は特に不利になる可能性がある。 新規WMトラクトを正確にセグメンテーションするには、既存のWMトラクトについて学んだ知識を伝達することが望ましいので、新規WMトラクトをわずかに記述しても、CNNはセグメンテーションのために適切に学習することができる。 本稿では,これらの知識を,いくつかの場面で新規なWMトラクトのセグメンテーションに移行することを検討する。 古典的な微調整戦略は目的に利用できるが、既存のwmパスをセグメント化するための最後のタスク特定層の情報は、完全に破棄される。 我々は、この最後の層の重みは、新しいWMトラクトをセグメント化するための貴重な情報を保持することができるため、情報を完全に破棄することは最適ではないと仮定する。 特に,新しいWMトラクトは既存のWMトラクトと相関し,新しいWMトラクトのセグメンテーションは既存のWMトラクトのロジットで予測できると考えられる。 このように、微調整のためにランダム初期化よりも最終層のより良い初期化が達成できる。 さらに,古典的な微調整の前にウォームアップステージを挿入するだけで,既存のWMトラクトを分割するための最終層における知識をより適応的に利用できることを示す。 提案手法はdmriデータセット上で評価され,提案手法が新規なwm路の少数画分節化に有用であることを実証した。

Convolutional neural networks (CNNs) have achieved stateof-the-art performance for white matter (WM) tract segmentation based on diffusion magnetic resonance imaging (dMRI). These CNNs require a large number of manual delineations of the WM tracts of interest for training, which are generally labor-intensive and costly. The expensive manual delineation can be a particular disadvantage when novel WM tracts, i.e., tracts that have not been included in existing manual delineations, are to be analyzed. To accurately segment novel WM tracts, it is desirable to transfer the knowledge learned about existing WM tracts, so that even with only a few delineations of the novel WM tracts, CNNs can learn adequately for the segmentation. In this paper, we explore the transfer of such knowledge to the segmentation of novel WM tracts in the few-shot setting. Although a classic fine-tuning strategy can be used for the purpose, the information in the last task-specific layer for segmenting existing WM tracts is completely discarded. We hypothesize that the weights of this last layer can bear valuable information for segmenting the novel WM tracts and thus completely discarding the information is not optimal. In particular, we assume that the novel WM tracts can correlate with existing WM tracts and the segmentation of novel WM tracts can be predicted with the logits of existing WM tracts. In this way, better initialization of the last layer than random initialization can be achieved for fine-tuning. Further, we show that a more adaptive use of the knowledge in the last layer for segmenting existing WM tracts can be conveniently achieved by simply inserting a warmup stage before classic fine-tuning. The proposed method was evaluated on a publicly available dMRI dataset, where we demonstrate the benefit of our method for few-shot segmentation of novel WM tracts.
翻訳日:2021-06-02 14:45:39 公開日:2021-06-01
# 強化学習に基づく車両ネットワークにおける動的サービス配置

Reinforcement Learning-based Dynamic Service Placement in Vehicular Networks ( http://arxiv.org/abs/2105.15022v2 )

ライセンス: Link先を確認
Anum Talpur and Mohan Gurusamy(参考訳) 5Gやモバイルエッジコンピューティングといった技術が出現すると、車載ネットワーク内の車両に異なるリソースとサービス要件を持つ異なるタイプのサービスのプロビジョニングが可能となり、さまざまなタイプのサービスの要求に対するトラフィックモビリティパターンとダイナミックスの複雑さが増し、サービスの配置が困難な課題となっている。 典型的な静的配置ソリューションは、トラフィック移動性とサービスダイナミクスを考慮していないため、効果的ではない。 本稿では,車両の移動性や動的性を考慮しつつ,エッジサーバに最適なサービス配置を求めるための強化学習型動的(RL-Dynamic)サービス配置フレームワークを提案する。 シミュレーション実験にはSUMOとMATLABを用いる。 学習フレームワークでは,決定モジュールに対して,遅延最小化とエッジサーバ利用最小化という2つの目的関数を検討する。 2つの目的関数に対するILPに基づく問題定式化を開発した。 実験の結果,1)静的サービス配置と比較して,RLベースの動的サービス配置はエッジサーバリソースの公平な利用とサービス遅延の低減を実現し,2)遅延最適化配置と比較して,サーバ利用最適化配置はリソースをより効果的に活用し,エッジサーバ利用率を低くする。

The emergence of technologies such as 5G and mobile edge computing has enabled provisioning of different types of services with different resource and service requirements to the vehicles in a vehicular network.The growing complexity of traffic mobility patterns and dynamics in the requests for different types of services has made service placement a challenging task. A typical static placement solution is not effective as it does not consider the traffic mobility and service dynamics. In this paper, we propose a reinforcement learning-based dynamic (RL-Dynamic) service placement framework to find the optimal placement of services at the edge servers while considering the vehicle's mobility and dynamics in the requests for different types of services. We use SUMO and MATLAB to carry out simulation experiments. In our learning framework, for the decision module, we consider two alternative objective functions-minimizing delay and minimizing edge server utilization. We developed an ILP based problem formulation for the two objective functions. The experimental results show that 1) compared to static service placement, RL-based dynamic service placement achieves fair utilization of edge server resources and low service delay, and 2) compared to delay-optimized placement, server utilization optimized placement utilizes resources more effectively, achieving higher fairness with lower edge-server utilization.
翻訳日:2021-06-02 14:45:08 公開日:2021-06-01
# CIDER:対話説明と推論のための常識推論

CIDER: Commonsense Inference for Dialogue Explanation and Reasoning ( http://arxiv.org/abs/2106.00510v1 )

ライセンス: Link先を確認
Deepanway Ghosal and Pengfei Hong and Siqi Shen and Navonil Majumder and Rada Mihalcea and Soujanya Poria(参考訳) 人間の言語を理解し説明するための常識推論は、自然言語処理における基本的な研究課題である。 人間の会話を説明するには、文脈理解、計画、推論、因果関係、時間的、常識的推論を含む推論のいくつかの側面が必要であるため、大きな課題となる。 本研究では,文脈コモンセンス推論を用いて推測される暗黙的かつ明示的な知識三重項という形で,ダイアディックな対話説明を含む手作業によるデータセットであるCIDERを紹介する。 そのようなリッチな説明を会話から抽出することは、いくつかの下流アプリケーションを改善することにつながる。 注釈付き三重項は、コモンセンス知識のタイプ(例えば因果、条件、時間)によって分類される。 注釈付きデータセットでは,対話レベル自然言語推論,スパン抽出,複数選択スパン選択という3つのタスクを設定した。 トランスフォーマーモデルで得られたベースライン結果は、タスクが困難であることを明らかにし、将来的な研究の道を開く。 データセットとベースラインの実装はhttps://github.com/d eclare-lab/CIDERで公開されている。

Commonsense inference to understand and explain human language is a fundamental research problem in natural language processing. Explaining human conversations poses a great challenge as it requires contextual understanding, planning, inference, and several aspects of reasoning including causal, temporal, and commonsense reasoning. In this work, we introduce CIDER -- a manually curated dataset that contains dyadic dialogue explanations in the form of implicit and explicit knowledge triplets inferred using contextual commonsense inference. Extracting such rich explanations from conversations can be conducive to improving several downstream applications. The annotated triplets are categorized by the type of commonsense knowledge present (e.g., causal, conditional, temporal). We set up three different tasks conditioned on the annotated dataset: Dialogue-level Natural Language Inference, Span Extraction, and Multi-choice Span Selection. Baseline results obtained with transformer-based models reveal that the tasks are difficult, paving the way for promising future research. The dataset and the baseline implementations are publicly available at https://github.com/d eclare-lab/CIDER.
翻訳日:2021-06-02 14:44:30 公開日:2021-06-01
# GAN-BioBERTの検証 : 臨床治験における報告傾向の評価方法

Validating GAN-BioBERT: A Methodology For Assessing Reporting Trends In Clinical Trials ( http://arxiv.org/abs/2106.00665v1 )

ライセンス: Link先を確認
Joshua J Myszewski, Emily Klossowski, Patrick Meyer, Kristin Bevil, Lisa Klesius, Kristopher M Schroeder(参考訳) 過去10年間、臨床研究におけるバイアスド・レポーティングの問題について多くの議論がなされてきた。 この点にも拘わらず、臨床研究における質的記述の体系的評価のための限られたツールが開発されており、ほとんどの研究は、その大きさを制限する手作業のエキスパート・リサーの使用に依拠して質的記述を評価する。 また、自然言語処理などの大規模ツール開発の試みは、その精度と発見の分類に使用されるカテゴリ数によって制限されていた。 これらの制約を念頭に置いて、臨床試験の要約で表される定性的な感情を評価するために、大規模に適用するには適度に正確かつきめ細かな分類アルゴリズムを開発することが本研究の目的であった。 さらに,本研究では,提案アルゴリズムであるGAN-BioBERTと過去の研究との比較や,臨床治験要約のマニュアル評価について検討する。 本研究は,トランスフォーマー(bert)モデルからの双方向エンコーダ表現に基づく半教師自然言語プロセスモデルを用いて,臨床実施例の3種類の感情分類アルゴリズムを開発した。 結果: このアルゴリズムを用いた場合, 分類精度は91.3%であり, マクロf1-scoreは0.92であり, 従来の方法やエキスパート格付けに比べ, 精度が大幅に向上した。 提案手法であるgan-biobertは, 臨床文献における質的記述の大規模評価に適した分類モデルであり, 臨床出版動向の大規模研究に正確な再現性を提供する。

In the past decade, there has been much discussion about the issue of biased reporting in clinical research. Despite this attention, there have been limited tools developed for the systematic assessment of qualitative statements made in clinical research, with most studies assessing qualitative statements relying on the use of manual expert raters, which limits their size. Also, previous attempts to develop larger scale tools, such as those using natural language processing, were limited by both their accuracy and the number of categories used for the classification of their findings. With these limitations in mind, this study's goal was to develop a classification algorithm that was both suitably accurate and finely grained to be applied on a large scale for assessing the qualitative sentiment expressed in clinical trial abstracts. Additionally, this study seeks to compare the performance of the proposed algorithm, GAN-BioBERT, to previous studies as well as to expert manual rating of clinical trial abstracts. This study develops a three-class sentiment classification algorithm for clinical trial abstracts using a semi-supervised natural language process model based on the Bidirectional Encoder Representation from Transformers (BERT) model, from a series of clinical trial abstracts annotated by a group of experts in academic medicine. Results: The use of this algorithm was found to have a classification accuracy of 91.3%, with a macro F1-Score of 0.92, which is a significant improvement in accuracy when compared to previous methods and expert ratings, while also making the sentiment classification finer grained than previous studies. The proposed algorithm, GAN-BioBERT, is a suitable classification model for the large-scale assessment of qualitative statements in clinical trial literature, providing an accurate, reproducible tool for the large-scale study of clinical publication trends.
翻訳日:2021-06-02 14:44:13 公開日:2021-06-01
# Rewardは凸型MDPに十分である

Reward is enough for convex MDPs ( http://arxiv.org/abs/2106.00661v1 )

ライセンス: Link先を確認
Tom Zahavy, Brendan O'Donoghue, Guillaume Desjardins and Satinder Singh(参考訳) マルコフと定常である累積報酬関数の最大化、すなわち状態-作用対上で定義され、時間に依存しないことは、強化学習(RL)問題定式化に基づくマルコフ決定過程(MDP)において多くの種類の目標を捉えるのに十分である。 しかし、この方法で全ての目標を達成できるわけではない。 具体的には、目標が定常分布の凸関数として表される凸 MDP は、一般にこの方法では定式化できないことが分かりやすい。 本稿では,Fenchel双対性を用いたポリシーとコスト(負の報酬)プレーヤー間のmin-maxゲームとして凸MDP問題を再構成し,その解決のためのメタアルゴリズムを提案する。 本研究では,コストプレーヤが生成する非定常報酬を最大化するrlエージェントが生成するポリシーの平均値が,凸mdpの最適解に収束することを示す。 最後に、メタアルゴリズムは、見習い学習、変分内在性制御、制約されたMDP、単一フレームワークへの純粋探索など、文学における強化学習アルゴリズムの様々な分岐を統一することを示す。

Maximising a cumulative reward function that is Markov and stationary, i.e., defined over state-action pairs and independent of time, is sufficient to capture many kinds of goals in a Markov Decision Process (MDP) based on the Reinforcement Learning (RL) problem formulation. However, not all goals can be captured in this manner. Specifically, it is easy to see that Convex MDPs in which goals are expressed as convex functions of stationary distributions cannot, in general, be formulated in this manner. In this paper, we reformulate the convex MDP problem as a min-max game between the policy and cost (negative reward) players using Fenchel duality and propose a meta-algorithm for solving it. We show that the average of the policies produced by an RL agent that maximizes the non-stationary reward produced by the cost player converges to an optimal solution to the convex MDP. Finally, we show that the meta-algorithm unifies several disparate branches of reinforcement learning algorithms in the literature, such as apprenticeship learning, variational intrinsic control, constrained MDPs, and pure exploration into a single framework.
翻訳日:2021-06-02 14:42:36 公開日:2021-06-01
# サクセス機能を有する多種多様な最適政策の発見

Discovering Diverse Nearly Optimal Policies withSuccessor Features ( http://arxiv.org/abs/2106.00669v1 )

ライセンス: Link先を確認
Tom Zahavy, Brendan O'Donoghue, Andre Barreto, Volodymyr Mnih, Sebastian Flennerhag and Satinder Singh(参考訳) 同じ問題に対する異なる解決策を見つけることは、創造性と新しい状況への適応に関連するインテリジェンスの重要な側面である。 強化学習では、様々なポリシーが探索、転送、階層化、堅牢性に有用である。 提案手法は,後継的特徴の空間において多様な方針を探索する手法であり,それらがほぼ最適であることを示すものである。 我々は,この問題をCMDP(Constrained Markov Decision Process)として定式化し,本質的な多様性報酬を特徴とする多様性を最大化する政策を見つけることを目的としている。 また,最近提案されたロバスト性および識別報酬がいかに機能するかを分析し,手続きの初期化に敏感であり,サブ最適解に収束する可能性を見出した。 そこで,本稿では,政策の後継的特徴の相関を最小限に抑えることを目的とした,新たな明示的な多様性報酬を提案する。 我々はDeepMind Control Suiteの異なる多様性メカニズムを比較し、提案している明示的な多様性のタイプが、例えば異なる移動パターンのような異なる振る舞いを発見するために重要であることを発見した。

Finding different solutions to the same problem is a key aspect of intelligence associated with creativity and adaptation to novel situations. In reinforcement learning, a set of diverse policies can be useful for exploration, transfer, hierarchy, and robustness. We propose Diverse Successive Policies, a method for discovering policies that are diverse in the space of Successor Features, while assuring that they are near optimal. We formalize the problem as a Constrained Markov Decision Process (CMDP) where the goal is to find policies that maximize diversity, characterized by an intrinsic diversity reward, while remaining near-optimal with respect to the extrinsic reward of the MDP. We also analyze how recently proposed robustness and discrimination rewards perform and find that they are sensitive to the initialization of the procedure and may converge to sub-optimal solutions. To alleviate this, we propose new explicit diversity rewards that aim to minimize the correlation between the Successor Features of the policies in the set. We compare the different diversity mechanisms in the DeepMind Control Suite and find that the type of explicit diversity we are proposing is important to discover distinct behavior, like for example different locomotion patterns.
翻訳日:2021-06-02 14:42:14 公開日:2021-06-01
# 確率的スタイルマッチを用いた半教師付き領域一般化

Semi-Supervised Domain Generalization with Stochastic StyleMatch ( http://arxiv.org/abs/2106.00592v1 )

ライセンス: Link先を確認
Kaiyang Zhou, Chen Change Loy, Ziwei Liu(参考訳) ドメイン一般化に関する既存の研究の多くは、複数のドメインから集めたソースデータが完全に注釈付けされていると仮定している。 しかし、現実世界のアプリケーションでは、アノテーションのコストが高いため、各ソースドメインから利用可能なラベルはわずかにしかありません。 本研究では,より現実的で実用的な半教師付き領域一般化(SSDG)について検討する。 提案手法であるStyleMatchは,疑似ラベルをベースとした最先端の半教師付き学習手法であるFixMatchに触発され,SSDGを解くための新しい材料がいくつか提案されている。 具体的には,うるさい擬似ラベルに対するロバスト性を改善しつつ,希少ラベル付きソースデータの過剰フィットを軽減するため,ガウス分布を持つクラスプロトタイプと見なされる分類器の重みに対する確率的モデリングを導入する。 2) ドメインシフト下での一般化を促進するために,fixmatch の 2-view 一貫性学習パラダイムを,スタイル拡張を第3の補完的視点として,マルチビュー版への弱みと強い拡張性に基づいてアップグレードする。 そこで本研究では,ドメイン一般化や半教師付き学習など,幅広い領域で開発された強力なベースライン手法を網羅した2つのSSDGベンチマークを構築した。 大規模な実験により、StyleMatchは低データ方式で最適な分布外一般化性能を達成することが示された。 われわれのアプローチとベンチマークが、データ効率と一般化可能な学習システムに関する将来の研究の道を開くことを願っている。

Most existing research on domain generalization assumes source data gathered from multiple domains are fully annotated. However, in real-world applications, we might have only a few labels available from each source domain due to high annotation cost, along with abundant unlabeled data that are much easier to obtain. In this work, we investigate semi-supervised domain generalization (SSDG), a more realistic and practical setting. Our proposed approach, StyleMatch, is inspired by FixMatch, a state-of-the-art semi-supervised learning method based on pseudo-labeling, with several new ingredients tailored to solve SSDG. Specifically, 1) to mitigate overfitting in the scarce labeled source data while improving robustness against noisy pseudo labels, we introduce stochastic modeling to the classifier's weights, seen as class prototypes, with Gaussian distributions. 2) To enhance generalization under domain shift, we upgrade FixMatch's two-view consistency learning paradigm based on weak and strong augmentations to a multi-view version with style augmentation as the third complementary view. To provide a comprehensive study and evaluation, we establish two SSDG benchmarks, which cover a wide range of strong baseline methods developed in relevant areas including domain generalization and semi-supervised learning. Extensive experiments demonstrate that StyleMatch achieves the best out-of-distribution generalization performance in the low-data regime. We hope our approach and benchmarks can pave the way for future research on data-efficient and generalizable learning systems.
翻訳日:2021-06-02 14:41:33 公開日:2021-06-01
# 1つのシーケンスだけを見る:オブジェクト検出による視界のトランスフォーマーの再考

You Only Look at One Sequence: Rethinking Transformer in Vision through Object Detection ( http://arxiv.org/abs/2106.00666v1 )

ライセンス: Link先を確認
Yuxin Fang, Bencheng Liao, Xinggang Wang, Jiemin Fang, Jiyang Qi, Rui Wu, Jianwei Niu, Wenyu Liu(参考訳) transformerは$2\mathrm{d}$の空間構造に関する最小限の知識で、純粋なシーケンスからシーケンスまでの視点でオブジェクトレベルの認識を実行できるか? この疑問に答えるために、我々は、インダクティブバイアスだけでなく、最も少ない修正が可能な na\"ive Vision Transformer に基づく一連のオブジェクト検出モデルである You Only Look at One Sequence (YOLOS) を提示する。 中間サイズのImageNet-$1k$データセットで事前トレーニングされたYOLOSは,COCO, \textit{e.g.の競合オブジェクト検出性能をすでに達成できるのみである。 BERT-Baseから直接採用されているYOLOS-Baseは42.0ドルのボックスAPを達成できます。 また、オブジェクト検出を通じて、トランスフォーマーの視界における現在の事前訓練スキームとモデルスケーリング戦略の影響についても論じる。 コードとモデルの重み付けは \url{https://github.com/h ustvl/YOLOS} で確認できる。

Can Transformer perform $2\mathrm{D}$ object-level recognition from a pure sequence-to-sequence perspective with minimal knowledge about the $2\mathrm{D}$ spatial structure? To answer this question, we present You Only Look at One Sequence (YOLOS), a series of object detection models based on the na\"ive Vision Transformer with the fewest possible modifications as well as inductive biases. We find that YOLOS pre-trained on the mid-sized ImageNet-$1k$ dataset only can already achieve competitive object detection performance on COCO, \textit{e.g.}, YOLOS-Base directly adopted from BERT-Base can achieve $42.0$ box AP. We also discuss the impacts as well as limitations of current pre-train schemes and model scaling strategies for Transformer in vision through object detection. Code and model weights are available at \url{https://github.com/h ustvl/YOLOS}.
翻訳日:2021-06-02 14:41:04 公開日:2021-06-01
# PIGLeT:3次元世界におけるニューロ・シンボリック相互作用による言語接地

PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D World ( http://arxiv.org/abs/2106.00188v1 )

ライセンス: Link先を確認
Rowan Zellers, Ari Holtzman, Matthew Peters, Roozbeh Mottaghi, Aniruddha Kembhavi, Ali Farhadi, Yejin Choi(参考訳) PIGLeT - 相互作用を通して物理的常識知識を学習し,その知識を基底言語に利用するモデルを提案する。 我々はPIGLeTを物理力学モデルと別言語モデルに分類する。 私たちのダイナミクスモデルは、どんな物体なのかだけでなく、それらが何をしているのかも学べます。 次に、言語モデルのインターフェースとして使用し、言語形式と基礎的意味の統一モデルを提供します。 PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果をリテラル記号表現または自然言語で伝達する。 実験結果から,我々のモデルは世界力学を効果的に学習し,コミュニケーションの仕方を示した。 80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。 同様に、物理相互作用の自然言語の要約も、人間がLMの代替品よりも正確であると判断する。 今後の仕事の場を示す包括的分析を行う。

We propose PIGLeT: a model that learns physical commonsense knowledge through interaction, and then uses this knowledge to ground language. We factorize PIGLeT into a physical dynamics model, and a separate language model. Our dynamics model learns not just what objects are but also what they do: glass cups break when thrown, plastic ones don't. We then use it as the interface to our language model, giving us a unified model of linguistic form and grounded meaning. PIGLeT can read a sentence, simulate neurally what might happen next, and then communicate that result through a literal symbolic representation, or natural language. Experimental results show that our model effectively learns world dynamics, along with how to communicate them. It is able to correctly forecast "what happens next" given an English sentence over 80% of the time, outperforming a 100x larger, text-to-text approach by over 10%. Likewise, its natural language summaries of physical interactions are also judged by humans as more accurate than LM alternatives. We present comprehensive analysis showing room for future work.
翻訳日:2021-06-02 14:40:51 公開日:2021-06-01
# 長文合成質問応答のためのエンドツーエンドマルチホップ検索

End-to-End Multihop Retrieval for Compositional Question Answering over Long Documents ( http://arxiv.org/abs/2106.00200v1 )

ライセンス: Link先を確認
Haitian Sun, William W. Cohen, Ruslan Salakhutdinov(参考訳) 長い文書から複雑な質問に答えるには、複数の証拠をまとめて答えを予測する必要がある。 本稿では,長い文書に対して合成質問に答えるマルチホップ検索手法であるdochopperを提案する。 各ステップでDocHopperは文書から段落や文を検索し、検索した結果とクエリを混合し、次のステップでクエリを更新する。 他の多くの検索ベースメソッド(ragやrealmなど)とは対照的に、クエリはトークンシーケンスでは拡張されない。 これはモデルがエンドツーエンドで微分可能であることを意味する。 文書構造を活用すれば、長い文書の質問応答や検索性能を大幅に改善できることを示す。 我々はDocHopperを3つの異なるQAタスクで実験し、長い文書を読むことで構成的疑問に答える:談話内容推論、テーブルとテキストによる事実的QA、学術論文からのQAを求める情報。 DocHopperはすべてのベースラインモデルを上回っ、すべてのデータセットで最先端の結果を達成する。 さらに、DocHopperは推論時に効率的で、ベースラインの3~10倍高速である。

Answering complex questions from long documents requires aggregating multiple pieces of evidence and then predicting the answers. In this paper, we propose a multi-hop retrieval method, DocHopper, to answer compositional questions over long documents. At each step, DocHopper retrieves a paragraph or sentence embedding from the document, mixes the retrieved result with the query, and updates the query for the next step. In contrast to many other retrieval-based methods (e.g., RAG or REALM) the query is not augmented with a token sequence: instead, it is augmented by "numerically" combining it with another neural representation. This means that model is end-to-end differentiable. We demonstrate that utilizing document structure in this was can largely improve question-answering and retrieval performance on long documents. We experimented with DocHopper on three different QA tasks that require reading long documents to answer compositional questions: discourse entailment reasoning, factual QA with table and text, and information seeking QA from academic papers. DocHopper outperforms all baseline models and achieves state-of-the-art results on all datasets. Additionally, DocHopper is efficient at inference time, being 3~10 times faster than the baselines.
翻訳日:2021-06-02 14:40:34 公開日:2021-06-01
# 言語横断的名前付きエンティティ認識のための強化反復的知識蒸留法

Reinforced Iterative Knowledge Distillation for Cross-Lingual Named Entity Recognition ( http://arxiv.org/abs/2106.00241v1 )

ライセンス: Link先を確認
Shining Liang, Ming Gong, Jian Pei, Linjun Shou, Wanli Zuo, Xianglin Zuo, Daxin Jiang(参考訳) 名前付きエンティティ認識(NER)は、Web SearchやVoice Assistantsなど、多くのアプリケーションの基本コンポーネントである。 ディープニューラルネットワークは、NERの性能を大幅に改善するが、大量のトレーニングデータを必要とするため、ディープニューラルネットワークは業界環境で多くの言語にスケールアウトすることができない。 この課題に対処するため、クロス言語NERは、訓練済みの多言語言語モデルを通じて、リッチリソース言語から低リソース言語へ知識を転送する。 ターゲット言語でトレーニングデータを使用する代わりに、言語間NERはソース言語のトレーニングデータのみに依存し、オプションでソース言語から派生したトレーニングデータを追加する必要がある。 しかし、既存の言語間nerメソッドでは、ターゲット言語でラベルのないリッチなデータをうまく利用していないため、業界アプリケーションでは比較的簡単に収集できる。 この機会と課題に対処するため、本論文では、マイクロソフトにおいて、このような大量のラベルのないデータを実際の運用環境でターゲット言語で活用する新しいプラクティスについて述べる。 ラベルなしデータから弱い監督信号を効果的に抽出するため,半教師付き学習と強化学習のアイデアに基づく新しいアプローチを開発した。 3つのベンチマークデータセットに関する実証的研究は、我々のアプローチがクリアなエッジで新しい最先端のパフォーマンスを確立することを検証します。 現在、この論文で報告されているNER技術は、Microsoft Bing検索エンジンにおけるWebランキング、Entity Pane、Answers Triggering、Issue Answeringの基本的なコンポーネントになりつつある。 さらに,本手法は,商用音声アシスタントのための音声言語理解モジュールの一部としても機能する。 デプロイ後にプロトタイプフレームワークのコードをオープンソース化する予定です。

Named entity recognition (NER) is a fundamental component in many applications, such as Web Search and Voice Assistants. Although deep neural networks greatly improve the performance of NER, due to the requirement of large amounts of training data, deep neural networks can hardly scale out to many languages in an industry setting. To tackle this challenge, cross-lingual NER transfers knowledge from a rich-resource language to languages with low resources through pre-trained multilingual language models. Instead of using training data in target languages, cross-lingual NER has to rely on only training data in source languages, and optionally adds the translated training data derived from source languages. However, the existing cross-lingual NER methods do not make good use of rich unlabeled data in target languages, which is relatively easy to collect in industry applications. To address the opportunities and challenges, in this paper we describe our novel practice in Microsoft to leverage such large amounts of unlabeled data in target languages in real production settings. To effectively extract weak supervision signals from the unlabeled data, we develop a novel approach based on the ideas of semi-supervised learning and reinforcement learning. The empirical study on three benchmark data sets verifies that our approach establishes the new state-of-the-art performance with clear edges. Now, the NER techniques reported in this paper are on their way to become a fundamental component for Web ranking, Entity Pane, Answers Triggering, and Question Answering in the Microsoft Bing search engine. Moreover, our techniques will also serve as part of the Spoken Language Understanding module for a commercial voice assistant. We plan to open source the code of the prototype framework after deployment.
翻訳日:2021-06-02 14:40:15 公開日:2021-06-01
# 強化学習に基づくきめ細かな質問応答システム

A Coarse to Fine Question Answering System based on Reinforcement Learning ( http://arxiv.org/abs/2106.00257v1 )

ライセンス: Link先を確認
Yu Wang, Hongxia Jin(参考訳) 本稿では,適切な行動を選択することで,異なる長さの文書を効率的に処理できる強化学習に基づく粗い質問応答(CFQA)システムを提案する。 本システムは,アクタ批判に基づく深層強化学習モデルを用いて,多段階質問応答を実現する。 ショートドキュメントとロングドキュメントの両方を主とするデータセットを対象とした従来のQAモデルと比較して、マルチステップからファインモデルへは、ショートドキュメントとロングドキュメントの両方を扱える複数のシステムモジュールからメリットを享受する。 これにより、現在の最先端モデルよりも精度が向上し、トレーニング速度も速くなる。 我々は、WIKEREADING、WIKIREADING LONG、CNN、SQuADの4つのQAデータセットでモデルをテストし、1.3$\%$-1.7$\%$精度の改善を1.5x-3.4xのトレーニングスピードアップで示す。

In this paper, we present a coarse to fine question answering (CFQA) system based on reinforcement learning which can efficiently processes documents with different lengths by choosing appropriate actions. The system is designed using an actor-critic based deep reinforcement learning model to achieve multi-step question answering. Compared to previous QA models targeting on datasets mainly containing either short or long documents, our multi-step coarse to fine model takes the merits from multiple system modules, which can handle both short and long documents. The system hence obtains a much better accuracy and faster trainings speed compared to the current state-of-the-art models. We test our model on four QA datasets, WIKEREADING, WIKIREADING LONG, CNN and SQuAD, and demonstrate 1.3$\%$-1.7$\%$ accuracy improvements with 1.5x-3.4x training speed-ups in comparison to the baselines using state-of-the-art models.
翻訳日:2021-06-02 14:39:49 公開日:2021-06-01
# graph isomorphism, covariants, and parser performance"\textit{ because their treebanks leak}"の複製と拡張

Replicating and Extending "\textit{Because Their Treebanks Leak}": Graph Isomorphism, Covariants, and Parser Performance ( http://arxiv.org/abs/2106.00352v1 )

ライセンス: Link先を確認
Mark Anderson and Anders S{\o}gaard and Carlos G\'omez Rodr\'iguez(参考訳) s{\o}gaard (2020) は、テストデータに含まれる木の割合がトレーニングセット内の木に同型であることを示唆する結果を得た。 NLPの他の統計分析と同様に、結果は線形回帰評価に基づく。 しかし,本研究には方法論的な問題があり,信頼性の低いサンプルサイズを用いて実施した。 そこで本研究では,文の長さを単位とする複製研究を行い,グラフ同型に関して,文のごく一部しか性能に変化がないことを示す。 さらに,共変量を制御する際に,野生におけるパーサ性能とグラフアイソモーフィズムの相関は消失する。 しかし、共変を固定した制御実験では、強い相関関係が観察される。 このような統計的分析から得られた結論は、より容易に要因を分解することで、制御された実験がそれらを補う必要があることを示唆する。

S{\o}gaard (2020) obtained results suggesting the fraction of trees occurring in the test data isomorphic to trees in the training set accounts for a non-trivial variation in parser performance. Similar to other statistical analyses in NLP, the results were based on evaluating linear regressions. However, the study had methodological issues and was undertaken using a small sample size leading to unreliable results. We present a replication study in which we also bin sentences by length and find that only a small subset of sentences vary in performance with respect to graph isomorphism. Further, the correlation observed between parser performance and graph isomorphism in the wild disappears when controlling for covariants. However, in a controlled experiment, where covariants are kept fixed, we do observe a strong correlation. We suggest that conclusions drawn from statistical analyses like this need to be tempered and that controlled experiments can complement them by more readily teasing factors apart.
翻訳日:2021-06-02 14:39:31 公開日:2021-06-01
# SemEval-2021 Task 6: テキストとマルチモーダルアンサンブルを用いた説得的テキストと画像の検出に向けて

Volta at SemEval-2021 Task 6: Towards Detecting Persuasive Texts and Images using Textual and Multimodal Ensemble ( http://arxiv.org/abs/2106.00240v1 )

ライセンス: Link先を確認
Kshitij Gupta, Devansh Gautam, Radhika Mamidi(参考訳) ミームは、情報をオンラインで拡散するために使われる最も人気のあるコンテンツの1つである。 修辞的・心理学的手法によって多くの人々に影響を及ぼすことができる。 テキストや画像における説得技術の検出は,これらの説得技術を検出することを目的としている。 A)テキストコンテンツを用いたマルチラベル分類,(B)テキストコンテンツを用いたマルチラベル分類とスパン識別,(C)ビジュアルコンテンツとテキストコンテンツを用いたマルチラベル分類の3つのサブタスクから構成される。 本稿では, BERT をベースとしたモデルに対して, 異なるモダリティで伝達学習手法を提案する。 また、異なるモードで訓練されたモデルのアンサンブルの有効性についても検討する。 57.0, 48.2, 52.1のF1スコアを対応するサブタスクで達成する。

Memes are one of the most popular types of content used to spread information online. They can influence a large number of people through rhetorical and psychological techniques. The task, Detection of Persuasion Techniques in Texts and Images, is to detect these persuasive techniques in memes. It consists of three subtasks: (A) Multi-label classification using textual content, (B) Multi-label classification and span identification using textual content, and (C) Multi-label classification using visual and textual content. In this paper, we propose a transfer learning approach to fine-tune BERT-based models in different modalities. We also explore the effectiveness of ensembles of models trained in different modalities. We achieve an F1-score of 57.0, 48.2, and 52.1 in the corresponding subtasks.
翻訳日:2021-06-02 14:39:15 公開日:2021-06-01
# 逆VQA:VQAモデルのロバスト性を評価するための新しいベンチマーク

Adversarial VQA: A New Benchmark for Evaluating the Robustness of VQA Models ( http://arxiv.org/abs/2106.00245v1 )

ライセンス: Link先を確認
Linjie Li, Jie Lei, Zhe Gan, Jingjing Liu(参考訳) 大規模な事前トレーニングでは、過去2年間、vqa(visual question answering)タスクのパフォーマンスが大幅に向上している。 急速な進展はあったが、これらの最先端(SOTA)のVQAモデルが野生での試験例に遭遇する際に堅牢かどうかは不明である。 そこで本研究では,新たな大規模VQAベンチマークであるAdversarial VQAを紹介する。 この新しいベンチマークでは,いくつかの興味深い結果が得られた。 意外なことに,データセット収集の過程で,非エキスパートアノテータが比較的容易にSOTA VQAモデルを攻撃できることがわかった。 (II)新しいデータセット上で様々なSOTA VQAモデルをテストして、その脆弱性を強調し、大規模な事前学習モデルと敵のトレーニング手法の両方が、標準のVQA v2データセットよりもはるかに低いパフォーマンスしか達成できないことを発見した。 (iii)データ拡張とみなす場合、我々のデータセットは、他の堅牢なVQAベンチマークのパフォーマンス向上に利用できます。 (iv)我々は,データセットの詳細な分析を行い,コミュニティにもたらした課題に関する貴重な洞察を提供する。 我々は、Adversarial VQAが、開発したVQAモデルの堅牢性をテストするために将来の作業で使用される貴重なベンチマークとして機能することを願っている。 私たちのデータセットはhttps://adversarialv qa.comで公開されています。 github.io/

With large-scale pre-training, the past two years have witnessed significant performance boost on the Visual Question Answering (VQA) task. Though rapid progresses have been made, it remains unclear whether these state-of-the-art (SOTA) VQA models are robust when encountering test examples in the wild. To study this, we introduce Adversarial VQA, a new large-scale VQA benchmark, collected iteratively via an adversarial human-and-model-in-t he-loop procedure. Through this new benchmark, we present several interesting findings. (i) Surprisingly, during dataset collection, we find that non-expert annotators can successfully attack SOTA VQA models with relative ease. (ii) We test a variety of SOTA VQA models on our new dataset to highlight their fragility, and find that both large-scale pre-trained models and adversarial training methods can only achieve far lower performance than what they can achieve on the standard VQA v2 dataset. (iii) When considered as data augmentation, our dataset can be used to improve the performance on other robust VQA benchmarks. (iv) We present a detailed analysis of the dataset, providing valuable insights on the challenges it brings to the community. We hope Adversarial VQA can serve as a valuable benchmark that will be used by future work to test the robustness of its developed VQA models. Our dataset is publicly available at https://adversarialv qa. github.io/.
翻訳日:2021-06-02 14:39:02 公開日:2021-06-01
# ViTA:オブジェクトタグのアライメントによる視覚言語翻訳

ViTA: Visual-Linguistic Translation by Aligning Object Tags ( http://arxiv.org/abs/2106.00250v1 )

ライセンス: Link先を確認
Kshitij Gupta, Devansh Gautam, Radhika Mamidi(参考訳) マルチモーダル機械翻訳(mmt)は、翻訳のための視覚情報を含む原文を豊かにする。 近年は人気が高まり、同じ方向にいくつかのパイプラインが提案されている。 しかし、このタスクは、翻訳システムにおける視覚的モダリティの寄与を説明するための品質データセットを欠いている。 本稿では,WAT 2021の多モーダル翻訳タスクを英語からヒンディー語に翻訳するシステムを提案する。 我々は、テキストのみの翻訳に、事前訓練された多言語列列列列モデルであるmBARTを用いることを提案する。 さらに、画像からオブジェクトタグを抽出し、マルチモーダルタスクの入力を強化することにより、視覚情報をテキスト領域に持ち込む。 また,ソーステキストを体系的に劣化させることにより,システムのロバスト性について検討する。 最後に、タスクのテストセットとチャレンジセットにおいて、BLEUスコア44.6と51.6を達成する。

Multimodal Machine Translation (MMT) enriches the source text with visual information for translation. It has gained popularity in recent years, and several pipelines have been proposed in the same direction. Yet, the task lacks quality datasets to illustrate the contribution of visual modality in the translation systems. In this paper, we propose our system for the Multimodal Translation Task of WAT 2021 from English to Hindi. We propose to use mBART, a pretrained multilingual sequence-to-sequence model, for the textual-only translations. Further, we bring the visual information to a textual domain by extracting object tags from the image and enhance the input for the multimodal task. We also explore the robustness of our system by systematically degrading the source text. Finally, we achieve a BLEU score of 44.6 and 51.6 on the test set and challenge set of the task.
翻訳日:2021-06-02 14:38:37 公開日:2021-06-01
# TransVOS: トランスフォーマーによるビデオオブジェクトセグメンテーション

TransVOS: Video Object Segmentation with Transformers ( http://arxiv.org/abs/2106.00588v1 )

ライセンス: Link先を確認
Jianbiao Mei, Mengmeng Wang, Yeneng Lin, Yong Liu(参考訳) 近年,STM(Space-Time Memory Network)に基づく手法は,半教師付きビデオオブジェクトセグメンテーション(VOS)において最先端のパフォーマンスを実現している。 このタスクにおける重要な問題は、異なるフレームと各フレーム内の依存関係をモデル化する方法である。 しかし、これらの手法の多くは空間的関係(各フレームの内側)を無視し、時間的関係(異なるフレーム)を完全に利用しない。 本稿では,時間的・空間的関係をフル活用し,モデル化するビジョントランスフォーマを導入する,TransVOSと呼ばれる新しいトランスフォーマベースのフレームワークを提案する。 さらに、ほとんどのSTMベースのアプローチでは、2つの異なるエンコーダを使用して、2つの重要な入力、すなわち参照セット(予測マスク付き歴史フレーム)とクエリフレームの特徴を抽出し、モデルのパラメータと複雑さを増大させる。 有効性を保ちながら、人気のある2エンコーダパイプラインをスリム化するために、上記の2つの入力を統一的に符号化する単一の2パス特徴抽出器を設計する。 大規模な実験は、DAVISとYouTube-VOSデータセットの最先端手法よりもTransVOSの方が優れていることを示している。 コードは公開時にリリースされる。

Recently, Space-Time Memory Network (STM) based methods have achieved state-of-the-art performance in semi-supervised video object segmentation (VOS). A critical problem in this task is how to model the dependency both among different frames and inside every frame. However, most of these methods neglect the spatial relationships (inside each frame) and do not make full use of the temporal relationships (among different frames). In this paper, we propose a new transformer-based framework, termed TransVOS, introducing a vision transformer to fully exploit and model both the temporal and spatial relationships. Moreover, most STM-based approaches employ two disparate encoders to extract features of two significant inputs, i.e., reference sets (history frames with predicted masks) and query frame, respectively, increasing the models' parameters and complexity. To slim the popular two-encoder pipeline while keeping the effectiveness, we design a single two-path feature extractor to encode the above two inputs in a unified way. Extensive experiments demonstrate the superiority of our TransVOS over state-of-the-art methods on both DAVIS and YouTube-VOS datasets. Codes will be released when it is published.
翻訳日:2021-06-02 14:38:26 公開日:2021-06-01
# 大規模バッチ学習のための並行学習

Concurrent Adversarial Learning for Large-Batch Training ( http://arxiv.org/abs/2106.00221v1 )

ライセンス: Link先を確認
Yong Liu, Xiangning Chen, Minhao Cheng, Cho-Jui Hsieh, Yang You(参考訳) 大規模バッチトレーニングは、多数のGPU/TPUプロセッサでニューラルネットワークをトレーニングする際に一般的に使用されるテクニックとなっている。 バッチサイズが大きくなると、確率的最適化器は鋭い局所的な最小値に収束し、テスト性能が低下する。 現行の手法では,バッチサイズを増大させるため,バッチサイズが大きくなるにつれてデータ増倍による性能向上が減少し,ある時点からデータ増倍が不十分になることがわかった。 本稿では,大規模バッチ学習におけるバッチサイズ向上のための逆学習を提案する。 意思決定面の平滑化と平坦な領域への偏りに対する自然な選択であるにもかかわらず、各ステップで少なくとも2つの逐次的な勾配計算が必要となるため、大規模なバッチトレーニングでは、逆学習がうまく適用されていない。 そこで本研究では, 逐次的勾配計算を逐次的に切り離し, 定常パラメータを活用し, 同時進行学習 (conadv) 法を提案する。 実験の結果,ConAdvは高精度を維持しつつ,ImageNet上でのResNet-50とEfficientNetトレーニングの両方でバッチサイズを向上できることがわかった。 具体的には,ImageNet ResNet-50トレーニングにおいて,96Kバッチサイズで75.3\%のTop-1精度を実現し,ConAdvとデータ拡張を組み合わせた場合の精度をさらに76.2\%に向上できることを示す。 これはResNet-50トレーニングバッチサイズを96Kにスケールする最初の作業である。

Large-batch training has become a commonly used technique when training neural networks with a large number of GPU/TPU processors. As batch size increases, stochastic optimizers tend to converge to sharp local minima, leading to degraded test performance. Current methods usually use extensive data augmentation to increase the batch size, but we found the performance gain with data augmentation decreases as batch size increases, and data augmentation will become insufficient after certain point. In this paper, we propose to use adversarial learning to increase the batch size in large-batch training. Despite being a natural choice for smoothing the decision surface and biasing towards a flat region, adversarial learning has not been successfully applied in large-batch training since it requires at least two sequential gradient computations at each step, which will at least double the running time compared with vanilla training even with a large number of processors. To overcome this issue, we propose a novel Concurrent Adversarial Learning (ConAdv) method that decouple the sequential gradient computations in adversarial learning by utilizing staled parameters. Experimental results demonstrate that ConAdv can successfully increase the batch size on both ResNet-50 and EfficientNet training on ImageNet while maintaining high accuracy. In particular, we show ConAdv along can achieve 75.3\% top-1 accuracy on ImageNet ResNet-50 training with 96K batch size, and the accuracy can be further improved to 76.2\% when combining ConAdv with data augmentation. This is the first work successfully scales ResNet-50 training batch size to 96K.
翻訳日:2021-06-02 14:37:26 公開日:2021-06-01
# サブシンボリック推論のための学習表現

Learning Representations for Sub-Symbolic Reasoning ( http://arxiv.org/abs/2106.00393v1 )

ライセンス: Link先を確認
Giuseppe Marra, Michelangelo Diligenti, Francesco Giannini and Marco Maggini(参考訳) ニューロシンボリックな手法は、神経アーキテクチャ、知識表現、推論を統合する。 しかし、彼らは観測の本質的な不確実性に対処し、現実の応用へのスケーリングに苦慮している。 本稿では,ディープ・ラーナ・アーキテクチャの潜在空間における関係推論を行う新しいエンド・ツー・エンドモデルであるrelational reasoning networks(r2n)について述べる。 エンティティ間の関係を表現できる知識グラフ埋め込みのような平らなアーキテクチャとは異なり、R2Nは基底原子間の高レベルな関係を考慮し、追加の計算構造を定義する。 考慮された関係は、論理式によって定義されたもののように明示的に知られているか、基底原子の群間の無拘束相関として定義される。 R2Nは純粋にシンボリックなタスクや、シンボリックと特徴に基づく表現的エンティティの両方で異種問題における学習と推論を統合するための神経-記号的プラットフォームとして適用することができる。 提案モデルは,拡張性や表現性に制限された従来のニューロシンボリックな手法のギャップを埋めるものである。 提案手法は, 異なる実験環境で最新の結果が得られることを示す。

Neuro-symbolic methods integrate neural architectures, knowledge representation and reasoning. However, they have been struggling at both dealing with the intrinsic uncertainty of the observations and scaling to real world applications. This paper presents Relational Reasoning Networks (R2N), a novel end-to-end model that performs relational reasoning in the latent space of a deep learner architecture, where the representations of constants, ground atoms and their manipulations are learned in an integrated fashion. Unlike flat architectures like Knowledge Graph Embedders, which can only represent relations between entities, R2Ns define an additional computational structure, accounting for higher-level relations among the ground atoms. The considered relations can be explicitly known, like the ones defined by logic formulas, or defined as unconstrained correlations among groups of ground atoms. R2Ns can be applied to purely symbolic tasks or as a neuro-symbolic platform to integrate learning and reasoning in heterogeneous problems with both symbolic and feature-based represented entities. The proposed model bridges the gap between previous neuro-symbolic methods that have been either limited in terms of scalability or expressivity. The proposed methodology is shown to achieve state-of-the-art results in different experimental settings.
翻訳日:2021-06-02 14:36:55 公開日:2021-06-01
# OpenBox: 汎用ブラックボックス最適化サービス

OpenBox: A Generalized Black-box Optimization Service ( http://arxiv.org/abs/2106.00421v1 )

ライセンス: Link先を確認
Yang Li, Yu Shen, Wentao Zhang, Yuanwei Chen, Huaijun Jiang, Mingchao Liu, Jiawei Jiang, Jinyang Gao, Wentao Wu, Zhi Yang, Ce Zhang, Bin Cui(参考訳) black-box optimization(bbo)は、自動機械学習、エンジニアリング、物理学、実験設計など、幅広い応用がある。 しかし、既存のソフトウェアパッケージと互換性のある問題に対して、ユーザがBBOメソッドを適用することは、適用性、性能、効率の点で依然として課題である。 本稿では,ユーザビリティを向上したオープンソースの汎用BBOサービスであるOpenBoxを構築する。 OpenBoxを支えるモジュール設計は、他の既存のシステムで共通する基本的なBBOコンポーネントの柔軟な抽象化と最適化を容易にする。 OpenBoxは分散、フォールトトレラント、スケーラブルである。 効率を改善するために、OpenBoxはさらに"algorithm agnostic"並列化と転送学習を利用している。 実験の結果,既存のシステムと比較してopenboxの有効性と効率が実証された。

Black-box optimization (BBO) has a broad range of applications, including automatic machine learning, engineering, physics, and experimental design. However, it remains a challenge for users to apply BBO methods to their problems at hand with existing software packages, in terms of applicability, performance, and efficiency. In this paper, we build OpenBox, an open-source and general-purpose BBO service with improved usability. The modular design behind OpenBox also facilitates flexible abstraction and optimization of basic BBO components that are common in other existing systems. OpenBox is distributed, fault-tolerant, and scalable. To improve efficiency, OpenBox further utilizes "algorithm agnostic" parallelization and transfer learning. Our experimental results demonstrate the effectiveness and efficiency of OpenBox compared to existing systems.
翻訳日:2021-06-02 14:36:35 公開日:2021-06-01
# 動的ニューラルモデルを用いた学生のパフォーマンス予測

Student Performance Prediction Using Dynamic Neural Models ( http://arxiv.org/abs/2106.00524v1 )

ライセンス: Link先を確認
Marina Delianidi, Konstantinos Diamantaras, George Chrysogonidis, Vasileios Nikiforidis(参考訳) 本研究は,学生の学習・評価過程における過去のインタラクションに基づいて,次の試験問題に対する学生の回答の正当性を予測する問題に対処する。 我々は、学生のパフォーマンスを動的問題としてモデル化し、そのソリューションとして、有限メモリ時間遅延ニューラルネットワーク(TDNN)と潜在的無限メモリリカレントニューラルネットワーク(RNN)の2つの主要なクラスを比較した。 次の応答は,学生の知識状態の関数であり,それに対して,従来の応答と,それに関連するスキルの関数であるので,2部ネットワークアーキテクチャを提案する。 第1部は、動的ニューラルネットワーク(tdnnまたはrnn)を使用して、学生の知識状態をトレースする。 第2部は動的部分の上に適用され、学生の知識状態の推定に基づいて学生の反応を予測する分類タスクを完了した多層フィードフォワードネットワークである。 入力スキルと以前のレスポンスは、異なる埋め込みを使ってエンコードされる。 スキル埋め込みに関しては, (a) ランダムベクトルと (b) スキルのテキスト記述と一致する事前学習ベクトルを用いて, 2つの異なる初期化手法を試した。 実験の結果,これまでに使用したすべてのデータセットにおいて,RNNアプローチの性能はTDNNアプローチよりも優れていることがわかった。 また、我々のRNNアーキテクチャは、5つのデータセットのうち4つで最先端のモデルよりも優れていることを示す。 tdnnのアプローチは、5つのデータセットのうち4つでアートモデルの状態を上回っていますが、提案されているrnnのアプローチよりは少し悪いです。 最後に、我々の期待に反して、事前学習ベクターを用いたスキル埋め込みの初期化は、ランダム初期化に対して事実上優位ではないことが判明した。

We address the problem of predicting the correctness of the student's response on the next exam question based on their previous interactions in the course of their learning and evaluation process. We model the student performance as a dynamic problem and compare the two major classes of dynamic neural architectures for its solution, namely the finite-memory Time Delay Neural Networks (TDNN) and the potentially infinite-memory Recurrent Neural Networks (RNN). Since the next response is a function of the knowledge state of the student and this, in turn, is a function of their previous responses and the skills associated with the previous questions, we propose a two-part network architecture. The first part employs a dynamic neural network (either TDNN or RNN) to trace the student knowledge state. The second part applies on top of the dynamic part and it is a multi-layer feed-forward network which completes the classification task of predicting the student response based on our estimate of the student knowledge state. Both input skills and previous responses are encoded using different embeddings. Regarding the skill embeddings we tried two different initialization schemes using (a) random vectors and (b) pretrained vectors matching the textual descriptions of the skills. Our experiments show that the performance of the RNN approach is better compared to the TDNN approach in all datasets that we have used. Also, we show that our RNN architecture outperforms the state-of-the-art models in four out of five datasets. It is worth noting that the TDNN approach also outperforms the state of the art models in four out of five datasets, although it is slightly worse than our proposed RNN approach. Finally, contrary to our expectations, we find that the initialization of skill embeddings using pretrained vectors offers practically no advantage over random initialization.
翻訳日:2021-06-02 14:36:26 公開日:2021-06-01
# Duckworth-Lewis-Ster n法と機械学習手法の比較

Duckworth-Lewis-Ster n Method Comparison with Machine Learning Approach ( http://arxiv.org/abs/2106.00175v1 )

ライセンス: Link先を確認
Kumail Abbas and Sajjad Haider(参考訳) 本研究は,ODIクリケットの試合におけるDuckworth-Lewis-Ster n (DLS)法の解析を行った。 DLS法の精度を様々な教師付き学習アルゴリズムと比較し,結果予測を行う。 クリケットの試合の結果は2回目の間に予測される。 また,Duckworth-Lewis (D/L) 式で使用される DLS 資源テーブルを最適化し,予測能力を向上した。 最後に、ODIの試合中にどれだけ予測不可能かに応じて異なるクリケット競技国をランク付けする予測不可能指数が開発されている。

This work presents an analysis of the Duckworth-Lewis-Ster n (DLS) method for One Day International (ODI) cricket matches. The accuracy of the DLS method is compared against various supervised learning algorithms for result prediction. The result of a cricket match is predicted during the second inning. The paper also optimized DLS resource table which is used in the Duckworth-Lewis (D/L) formula to increase its predictive power. Finally, an Unpredictability Index is developed that ranks different cricket playing nations according to how unpredictable they are while playing an ODI match.
翻訳日:2021-06-02 14:35:30 公開日:2021-06-01
# 価値の欠如を予測できるよいインプットは何でしょう?

What's a good imputation to predict with missing values? ( http://arxiv.org/abs/2106.00311v1 )

ライセンス: Link先を確認
Marine Le Morvan (PARIETAL, IJCLab), Julie Josse (CRISAM), Erwan Scornet (CMAP), Ga\"el Varoquaux (PARIETAL)(参考訳) 値が欠けているデータについてよい予測子を学ぶには? ほとんどの取り組みは、結果を予測するために、完了データにできる限り第一の示唆と第二の学習に焦点を当てています。 しかし、この広範な実践には理論的根拠がない。 ここでは, ほぼすべてのインプテーション関数に対して, 強力な学習者を持つインプタント・テン・レグレッション手順がベイズ最適であることを示す。 この結果は、確率的モデリングにおいて不確定性を使用するために非ランダムな設定を必要とする古典的な統計結果とは対照的である。 さらに、完全な条件付きインプテーションは漸近的に良い予測には必要ではないかもしれない。 実際、完全にインプットされたデータでは、最高の回帰関数は概して不連続であり、学習は困難である。 代わりに、回帰関数を変更しないようにインプテーションを作成することは、単に問題を不連続インプテーションの学習に移す。 むしろ、インプテーションと回帰を共同で学ぶのがより簡単であることを示唆する。 観測された変数と観測されていない変数をまたいだ条件付きリンクをキャプチャするニューラルネットワークであるNeuMissに適応する手法を提案する。 実験により, 有限個の試料を用いた実験において, NeuMiss による連成計算と回帰は, 様々な2段階の手順より優れていることを確認した。

How to learn a good predictor on data with missing values? Most efforts focus on first imputing as well as possible and second learning on the completed data to predict the outcome. Yet, this widespread practice has no theoretical grounding. Here we show that for almost all imputation functions, an impute-then-regress procedure with a powerful learner is Bayes optimal. This result holds for all missing-values mechanisms, in contrast with the classic statistical results that require missing-at-random settings to use imputation in probabilistic modeling. Moreover, it implies that perfect conditional imputation may not be needed for good prediction asymptotically. In fact, we show that on perfectly imputed data the best regression function will generally be discontinuous, which makes it hard to learn. Crafting instead the imputation so as to leave the regression function unchanged simply shifts the problem to learning discontinuous imputations. Rather, we suggest that it is easier to learn imputation and regression jointly. We propose such a procedure, adapting NeuMiss, a neural network capturing the conditional links across observed and unobserved variables whatever the missing-value pattern. Experiments confirm that joint imputation and regression through NeuMiss is better than various two step procedures in our experiments with finite number of samples.
翻訳日:2021-06-02 14:35:21 公開日:2021-06-01
# 変分ベイズにおけるフレキシブル後方の変形モデル

Transformation Models for Flexible Posteriors in Variational Bayes ( http://arxiv.org/abs/2106.00528v1 )

ライセンス: Link先を確認
Sefan H\"ortling, Daniel Dold, Oliver D\"urr, Beate Sick(参考訳) ベイズモデルの主な課題は、モデルパラメータの後方を決定することである。 既に1つまたは少数のパラメータしか持たないモデルでは、分析後部は特別な設定でのみ決定できる。 ベイズニューラルネットワークでは、変分分布による計算が難しい後部を近似するために、変分推論が広く用いられている。 通常、ガウス分布は変分分布 (Gaussian-VI) として用いられ、その柔軟性の制限により近似の質が制限される。 一方、変換モデルはどんな分布にも適合するほど柔軟である。 ここでは、変換モデルに基づく変分推論(TM-VI)を提案し、一つのパラメータを持つモデルにおける複雑な後部を正確に近似し、ニューラルネットワークのようなマルチパラメータモデルに対して平均場的に機能することを実証する。

The main challenge in Bayesian models is to determine the posterior for the model parameters. Already, in models with only one or few parameters, the analytical posterior can only be determined in special settings. In Bayesian neural networks, variational inference is widely used to approximate difficult-to-compute posteriors by variational distributions. Usually, Gaussians are used as variational distributions (Gaussian-VI) which limits the quality of the approximation due to their limited flexibility. Transformation models on the other hand are flexible enough to fit any distribution. Here we present transformation model-based variational inference (TM-VI) and demonstrate that it allows to accurately approximate complex posteriors in models with one parameter and also works in a mean-field fashion for multi-parameter models like neural networks.
翻訳日:2021-06-02 14:35:01 公開日:2021-06-01
# 実時間および軽量ラインセグメント検出に向けて

Towards Real-time and Light-weight Line Segment Detection ( http://arxiv.org/abs/2106.00186v1 )

ライセンス: Link先を確認
Geonmo Gu, Byungsoo Ko, SeoungHyun Go, Sung-Hyun Lee, Jingeun Lee, Minchul Shin(参考訳) 従来の深層学習に基づく線分検出(LSD)は、ライン予測のための膨大なモデルサイズと高い計算コストに悩まされていた。 これにより、計算的に制限された環境でのリアルタイム推論から制約される。 本稿では,mobile lsd (m-lsd) という,資源制約環境のリアルタイム・軽量ラインセグメント検出手法を提案する。 バックボーンネットワークの最小化と,従来手法におけるライン予測のための典型的なマルチモジュールプロセスの削除により,極めて効率的なLCDアーキテクチャを設計する。 このような軽量ネットワークとの競争性能を維持するために,線形セグメント(SoL)のセグメント化と幾何学習方式という,新しいトレーニング手法を提案する。 SoL拡張は、トレーニングプロセス中に補助ラインデータを提供するために使用される複数のサブパートにラインセグメントを分割する。 さらに、幾何学習スキームにより、モデルがマッチング損失、接合および線分節、長さおよび次数回帰から追加の幾何学的手がかりを捉えることができる。 これまで最高のリアルタイムLSD手法であったTP-LSD-Liteと比較して、我々のモデル(M-LSD-tiny)は、Wireframeおよび YorkUrbanデータセットで評価した場合、モデルサイズ2.5%、GPUでの推論速度130.5%の競合性能を達成する。 さらに、当社のモデルは、それぞれAndroidとiPhoneのモバイルデバイス上で56.8 FPSと48.6 FPSで動作する。 私たちの知る限りでは、これはモバイルデバイスで利用可能な最初のリアルタイム深層lsdメソッドです。

Previous deep learning-based line segment detection (LSD) suffer from the immense model size and high computational cost for line prediction. This constrains them from real-time inference on computationally restricted environments. In this paper, we propose a real-time and light-weight line segment detector for resource-constrained environments named Mobile LSD (M-LSD). We design an extremely efficient LSD architecture by minimizing the backbone network and removing the typical multi-module process for line prediction in previous methods. To maintain competitive performance with such a light-weight network, we present novel training schemes: Segments of Line segment (SoL) augmentation and geometric learning scheme. SoL augmentation splits a line segment into multiple subparts, which are used to provide auxiliary line data during the training process. Moreover, the geometric learning scheme allows a model to capture additional geometry cues from matching loss, junction and line segmentation, length and degree regression. Compared with TP-LSD-Lite, previously the best real-time LSD method, our model (M-LSD-tiny) achieves competitive performance with 2.5% of model size and an increase of 130.5% in inference speed on GPU when evaluated with Wireframe and YorkUrban datasets. Furthermore, our model runs at 56.8 FPS and 48.6 FPS on Android and iPhone mobile devices, respectively. To the best of our knowledge, this is the first real-time deep LSD method available on mobile devices.
翻訳日:2021-06-02 14:34:16 公開日:2021-06-01
# 深層カーネル学習による医用画像解析における予測不確かさの定量化

Quantifying Predictive Uncertainty in Medical Image Analysis with Deep Kernel Learning ( http://arxiv.org/abs/2106.00638v1 )

ライセンス: Link先を確認
Zhiliang Wu, Yinchong Yang, Jindong Gu, Volker Tresp(参考訳) ディープニューラルネットワークは、医療画像の分析にますます利用されている。 しかし、ほとんどの作品はモデルの予測の不確実性を無視している。 本稿では、畳み込みニューラルネットワークとスパースガウス過程のパイプラインによる予測の不確実性の推定を可能にする不確実性を考慮した深層カーネル学習モデルを提案する。 さらに,提案モデルへの影響を検討するために,様々な事前学習手法を適用した。 我々は骨年齢予測と病変局所化にアプローチを適用した。 ほとんどの場合、提案したモデルは一般的なアーキテクチャよりも優れた性能を示している。 さらに重要なことは、我々のモデルはより正確な予測の信頼性を体系的に高く表現し、より正確な予測の信頼性を低くする。 私たちのモデルは、挑戦的で議論を呼ぶテストサンプルを検出するためにも使用できます。 モンテカルロ・ドロップアウトのような関連する手法と比較して,本手法は不確かさ情報を純粋に解析的に導出し,計算効率が向上する。

Deep neural networks are increasingly being used for the analysis of medical images. However, most works neglect the uncertainty in the model's prediction. We propose an uncertainty-aware deep kernel learning model which permits the estimation of the uncertainty in the prediction by a pipeline of a Convolutional Neural Network and a sparse Gaussian Process. Furthermore, we adapt different pre-training methods to investigate their impacts on the proposed model. We apply our approach to Bone Age Prediction and Lesion Localization. In most cases, the proposed model shows better performance compared to common architectures. More importantly, our model expresses systematically higher confidence in more accurate predictions and less confidence in less accurate ones. Our model can also be used to detect challenging and controversial test samples. Compared to related methods such as Monte-Carlo Dropout, our approach derives the uncertainty information in a purely analytical fashion and is thus computationally more efficient.
翻訳日:2021-06-02 14:33:53 公開日:2021-06-01
# 説明を信用する、または信頼しない:leafを使って局所線形xai法を評価する

To trust or not to trust an explanation: using LEAF to evaluate local linear XAI methods ( http://arxiv.org/abs/2106.00461v1 )

ライセンス: Link先を確認
Elvio G. Amparore and Alan Perotti and Paolo Bajardi(参考訳) eXplainable Artificial Intelligence (XAI)の主な目的は、ブラックボックス分類器の効果的な説明を提供することである。 既存の文献では、説明に有用な多くの望ましい特性を挙げているが、実際に説明を定量的に評価する方法については合意が得られていない。 さらに、説明は一般にブラックボックスモデルの検査にのみ使用され、意思決定支援としての説明の積極的な使用は一般的に見過ごされる。 XAIへの多くのアプローチの中で広く採用されているパラダイムは、局所線形説明(Local Linear Explanations)である。 これらの手法は不安定な説明、約束された理論特性からの実際の実装のばらつき、間違ったラベルの説明など、多くの欠陥に悩まされている。 このことは、XAI分野における局所線形説明のための標準および非バイアス評価手順の必要性を強調している。 本稿では,局所線形説明の評価のための,明確であいまいなメトリクス集合を特定する問題に対処する。 この集合は、この種類の説明のために具体的に定義された既存のメトリクスと新しいメトリクスの両方を含んでいる。 すべてのメトリクスは、LEAFという名前のオープンPythonフレームワークに含まれている。 LEAFの目的は、エンドユーザが標準化され、偏見のない方法で説明を評価するためのリファレンスを提供し、研究者が説明可能な技術の改善に導くことである。

The main objective of eXplainable Artificial Intelligence (XAI) is to provide effective explanations for black-box classifiers. The existing literature lists many desirable properties for explanations to be useful, but there is no consensus on how to quantitatively evaluate explanations in practice. Moreover, explanations are typically used only to inspect black-box models, and the proactive use of explanations as a decision support is generally overlooked. Among the many approaches to XAI, a widely adopted paradigm is Local Linear Explanations - with LIME and SHAP emerging as state-of-the-art methods. We show that these methods are plagued by many defects including unstable explanations, divergence of actual implementations from the promised theoretical properties, and explanations for the wrong label. This highlights the need to have standard and unbiased evaluation procedures for Local Linear Explanations in the XAI field. In this paper we address the problem of identifying a clear and unambiguous set of metrics for the evaluation of Local Linear Explanations. This set includes both existing and novel metrics defined specifically for this class of explanations. All metrics have been included in an open Python framework, named LEAF. The purpose of LEAF is to provide a reference for end users to evaluate explanations in a standardised and unbiased way, and to guide researchers towards developing improved explainable techniques.
翻訳日:2021-06-02 14:32:39 公開日:2021-06-01
# 対人模倣学習には何が重要か?

What Matters for Adversarial Imitation Learning? ( http://arxiv.org/abs/2106.00672v1 )

ライセンス: Link先を確認
Manu Orsini, Anton Raichuk, L\'eonard Hussenot, Damien Vincent, Robert Dadashi, Sertan Girgin, Matthieu Geist, Olivier Bachem, Olivier Pietquin, Marcin Andrychowicz(参考訳) 逆模倣学習は、継続的制御における模倣の一般的なフレームワークとなっている。 長年にわたり、学習ポリシーの性能向上とアルゴリズムのサンプル複雑さを高めるために、そのコンポーネントの様々なバリエーションが提案されてきた。 実際には、これらの選択が厳密な実証研究で一緒にテストされることは滅多にない。 したがって、高レベルのアルゴリズムオプションや低レベルの実装の詳細について、どの選択肢を議論し、理解することは困難である。 この問題に取り組むため,我々は50以上の選択肢を汎用的な敵意模倣学習フレームワークに実装し,人工的および人為的に生成した実演を用いた大規模研究(>500k訓練エージェント)においてその影響を調査した。 私たちの発見の多くは一般的なプラクティスを裏付けていますが、いくつかは以前の作業に驚きや矛盾すらあります。 特に,人工的な実演は人間のデータにとってよい指標ではないこと,および人工的な実演でのみ模倣アルゴリズムを評価するという非常に一般的な実践が,より現実的な実演でうまく機能しないアルゴリズムにつながる可能性があることを示唆する。

Adversarial imitation learning has become a popular framework for imitation in continuous control. Over the years, several variations of its components were proposed to enhance the performance of the learned policies as well as the sample complexity of the algorithm. In practice, these choices are rarely tested all together in rigorous empirical studies. It is therefore difficult to discuss and understand what choices, among the high-level algorithmic options as well as low-level implementation details, matter. To tackle this issue, we implement more than 50 of these choices in a generic adversarial imitation learning framework and investigate their impacts in a large-scale study (>500k trained agents) with both synthetic and human-generated demonstrations. While many of our findings confirm common practices, some of them are surprising or even contradict prior work. In particular, our results suggest that artificial demonstrations are not a good proxy for human data and that the very common practice of evaluating imitation algorithms only with synthetic demonstrations may lead to algorithms which perform poorly in the more realistic scenarios with human demonstrations.
翻訳日:2021-06-02 14:32:17 公開日:2021-06-01
# 深層学習モデルにおける局所的妥当性と識別的信頼区間

Locally Valid and Discriminative Confidence Intervals for Deep Learning Models ( http://arxiv.org/abs/2106.00225v1 )

ライセンス: Link先を確認
Zhen Lin, Shubhendu Trivedi, Jimeng Sun(参考訳) 重要な現実世界の応用のためのディープラーニングモデルの信頼を構築するための重要な課題は、効率的で理論的に不確実な定量化である。 有効な不確実性情報は2つの重要な特性を持つことが期待されている: 有効性(保証範囲)と差別性(予想されるリスクが高い場合にさらに不確実性)である。 さらに、ディープラーニング(DL)メソッドと組み合わせると、拡張性が高く、DLモデルの性能に最小限の影響が及ぶ。 既存のベイズ法の多くは、頻繁なカバレッジ保証がなく、通常はモデル性能に影響する。 利用可能な数少ない頻繁主義的手法は、非現実的仮定による範囲保証を差別的かつ/または違反することはほとんどない。 さらに、多くの手法は費用がかかるか、ベースとなるニューラルネットワークに大きな修正が必要となる。 近年のコンフォメーション予測の進歩とカーネル回帰の古典的考え方の活用に基づいて,ほぼ任意のDLモデルに対して識別信頼区間(CI)を構築するための簡易かつ効率的かつ軽量な手法である局所妥当性・識別信頼区間(LVD)を提案する。 データの分散に関する仮定がなければ、そのようなcisは有限サンプルのローカルカバレッジ保証も提供する(より単純な限界カバレッジに対応する)。 多様なデータセットを用いて、LVDは局所的に有効な唯一の方法であるだけでなく、既存の不確実性定量化手法のパフォーマンス(カバレッジ率と予測精度を含む)を上回るか、一致しているかを実証的に検証し、スケーラビリティと柔軟性のさらなる利点を提供する。

Crucial for building trust in deep learning models for critical real-world applications is efficient and theoretically sound uncertainty quantification, a task that continues to be challenging. Useful uncertainty information is expected to have two key properties: It should be valid (guaranteeing coverage) and discriminative (more uncertain when the expected risk is high). Moreover, when combined with deep learning (DL) methods, it should be scalable and affect the DL model performance minimally. Most existing Bayesian methods lack frequentist coverage guarantees and usually affect model performance. The few available frequentist methods are rarely discriminative and/or violate coverage guarantees due to unrealistic assumptions. Moreover, many methods are expensive or require substantial modifications to the base neural network. Building upon recent advances in conformal prediction and leveraging the classical idea of kernel regression, we propose Locally Valid and Discriminative confidence intervals (LVD), a simple, efficient and lightweight method to construct discriminative confidence intervals (CIs) for almost any DL model. With no assumptions on the data distribution, such CIs also offer finite-sample local coverage guarantees (contrasted to the simpler marginal coverage). Using a diverse set of datasets, we empirically verify that besides being the only locally valid method, LVD also exceeds or matches the performance (including coverage rate and prediction accuracy) of existing uncertainty quantification methods, while offering additional benefits in scalability and flexibility.
翻訳日:2021-06-02 14:31:09 公開日:2021-06-01
# 分散ロバストエキスパートの合成による系列領域適応

Sequential Domain Adaptation by Synthesizing Distributionally Robust Experts ( http://arxiv.org/abs/2106.00322v1 )

ライセンス: Link先を確認
Bahar Taskesen, Man-Chung Yue, Jose Blanchet, Daniel Kuhn, Viet Anh Nguyen(参考訳) 最小二乗推定器は、いくつかの対象領域のサンプルでトレーニングすると、予測が貧弱になる可能性がある。 教師付きドメイン適応は、目標分布に近いソース分布からラベル付きトレーニングサンプルを追加することにより、予測精度を向上させることを目的としている。 利用可能なデータに基づいて,モーメント条件に関してロバストな最小二乗推定専門家の家族を合成する新しい戦略を検討する。 これらのモーメント条件をkullback-leiblerまたはwasserstein型ダイバージェンスを用いて指定すると、凸最適化を用いてロバスト推定器を効率的に見つけることができる。 我々は,提案するロバストな専門家群に対するbernstein online aggregationアルゴリズムを用いて,ターゲットテストサンプルの逐次ストリームの予測を行う。 実データに対する数値実験は、ロバストな戦略が経験的最小二乗推定器の非ロバスト補間よりも優れていることを示している。

Least squares estimators, when trained on a few target domain samples, may predict poorly. Supervised domain adaptation aims to improve the predictive accuracy by exploiting additional labeled training samples from a source distribution that is close to the target distribution. Given available data, we investigate novel strategies to synthesize a family of least squares estimator experts that are robust with regard to moment conditions. When these moment conditions are specified using Kullback-Leibler or Wasserstein-type divergences, we can find the robust estimators efficiently using convex optimization. We use the Bernstein online aggregation algorithm on the proposed family of robust experts to generate predictions for the sequential stream of target test samples. Numerical experiments on real data show that the robust strategies may outperform non-robust interpolations of the empirical least squares estimators.
翻訳日:2021-06-02 14:30:48 公開日:2021-06-01
# Post-Contextual-Band it推論

Post-Contextual-Band it Inference ( http://arxiv.org/abs/2106.00418v1 )

ライセンス: Link先を確認
Aur\'elien Bibaut and Antoine Chambaz and Maria Dimakopoulou and Nathan Kallus and Mark van der Laan(参考訳) コンテクストバンディットアルゴリズムは、eコマース、ヘルスケア、ポリシーメーキングにおける非適応的なa/bテストを置き換えるようになってきている。 研究の終盤における新規介入の信頼性推論を支援するため, 平均治療効果, サブグループ効果, あるいは新政策の価値について, 有効な信頼区間を構築したい。 しかし、文脈的帯域幅アルゴリズムによって収集されたデータの適応性は、これを難しくする: 標準推定器は、もはや漸近的に分布せず、古典的な信頼区間は、正しいカバレッジを提供することができない。 これは、安定化推定器を用いて、非コンテキスト設定で対処されているが、この文脈設定は、我々が初めて取り組んだユニークな課題である。 本研究では,文脈適応型データ収集において漸近的に正常なポリシー値に対する最初の推定器であるCADR(Contextual Adaptive Doubly Robust)推定器を提案する。 CADRの構築における主な技術的課題は、安定化のための適応的で一貫した条件付き標準偏差推定器を設計することである。 57のOpenMLデータセットを用いた大規模な数値実験により、CADRに基づく信頼区間が一意に正しいカバレッジを提供することが示された。

Contextual bandit algorithms are increasingly replacing non-adaptive A/B tests in e-commerce, healthcare, and policymaking because they can both improve outcomes for study participants and increase the chance of identifying good or even best policies. To support credible inference on novel interventions at the end of the study, nonetheless, we still want to construct valid confidence intervals on average treatment effects, subgroup effects, or value of new policies. The adaptive nature of the data collected by contextual bandit algorithms, however, makes this difficult: standard estimators are no longer asymptotically normally distributed and classic confidence intervals fail to provide correct coverage. While this has been addressed in non-contextual settings by using stabilized estimators, the contextual setting poses unique challenges that we tackle for the first time in this paper. We propose the Contextual Adaptive Doubly Robust (CADR) estimator, the first estimator for policy value that is asymptotically normal under contextual adaptive data collection. The main technical challenge in constructing CADR is designing adaptive and consistent conditional standard deviation estimators for stabilization. Extensive numerical experiments using 57 OpenML datasets demonstrate that confidence intervals based on CADR uniquely provide correct coverage.
翻訳日:2021-06-02 14:30:32 公開日:2021-06-01
# 有限ベイズニューラルネットワークにおける表現学習の漸近性

Asymptotics of representation learning in finite Bayesian neural networks ( http://arxiv.org/abs/2106.00651v1 )

ライセンス: Link先を確認
Jacob A. Zavatone-Veth and Abdulkadir Canatar and Cengiz Pehlevan(参考訳) 近年の研究では、有限ベイズニューラルネットワークは、有限ネットワークが内部表現を柔軟に適応できるため、無限の従兄弟より優れていることが示唆されている。 しかし、有限ネットワークの学習された隠れ層表現が無限ネットワークの固定表現とどのように異なるかに関する理論的理解は未完のままである。 ネットワーク前後の摂動的有限幅補正について検討するが, 学習特徴の漸近性は十分に評価されていない。 ここで、線形読み出しと二次コストを持つ任意のベイズネットワークの平均的特徴核に対する主有限幅補正は、概ね普遍的な形式であると主張する。 完全連結ネットワークの2つのクラス – 深い線形ネットワークと単一の非線形隠蔽層を持つネットワーク – に対して,これを明示的に説明する。 この結果から,データワイドベイズ型ニューラルネットワークの表現学習における特徴を解明する。

Recent works have suggested that finite Bayesian neural networks may outperform their infinite cousins because finite networks can flexibly adapt their internal representations. However, our theoretical understanding of how the learned hidden layer representations of finite networks differ from the fixed representations of infinite networks remains incomplete. Perturbative finite-width corrections to the network prior and posterior have been studied, but the asymptotics of learned features have not been fully characterized. Here, we argue that the leading finite-width corrections to the average feature kernels for any Bayesian network with linear readout and quadratic cost have a largely universal form. We illustrate this explicitly for two classes of fully connected networks: deep linear networks and networks with a single nonlinear hidden layer. Our results begin to elucidate which features of data wide Bayesian neural networks learn to represent.
翻訳日:2021-06-02 14:30:13 公開日:2021-06-01
# ヒートマップ回帰と深い畳み込みオドメトリを用いたマルコフ局所化

Markov Localisation using Heatmap Regression and Deep Convolutional Odometry ( http://arxiv.org/abs/2106.00371v1 )

ライセンス: Link先を確認
Oscar Mendez, Simon Hadfield, Richard Bowden(参考訳) 自動運転車の文脈では、視覚的ローカライゼーションに基づくアプローチとLiDARとの強い競争がある。 LiDARは重要な深度情報を提供するが、解像度が低く高価である。 一方、カメラは低コストであり、ディープラーニングの最近の進歩は、高いローカライズ性能を提供できることを意味する。 しかし、特に不確実性領域において、学習に基づくアプローチが自信過剰で悪名高い、いくつかの根本的な問題が残っている。 マルコフ、あるいはグリッドベースのローカライズは、ローカライズ問題の初期の解決策であったが、計算の複雑さのために好ましくなかった。 確率場をグリッド(またはボリューム)として表現することは、精度とメモリサイズの間にトレードオフがあることを意味する。 さらに,全容積全体にわたって高価な畳み込みを行う必要がある。 全ての可能な位置を同時に維持する利点にもかかわらず、グリッドベースのアプローチはより効率的な粒子フィルタとモンテカルロ局在(MCL)に取って代わられた。 しかし、MCLは独自の問題を導入している。 粒子除去 近年のディープラーニングハードウェアの進歩により、GPUに格納される大きな可能性ボリュームと、GPUによる3D畳み込みを効率的に実行するために必要なハードウェアが実現し、グリッドベースの手法の欠点の多くを排除している。 本研究では,最新のディープラーニングハードウェアを活用する新しいCNNベースのローカライゼーション手法を提案する。 グリッドベースのマルコフローカライズアプローチをgpu上で直接実装することにより、単一のニューラルネットワーク内でイメージベースのローカライズとオドメトリーに基づくラピッド伝搬を実行できるハイブリッドcnnを作成する。 結果として得られたアプローチは、最先端のローカライズシステムと同様に、直接ポーズ回帰法を上回ることができる。

In the context of self-driving vehicles there is strong competition between approaches based on visual localisation and LiDAR. While LiDAR provides important depth information, it is sparse in resolution and expensive. On the other hand, cameras are low-cost and recent developments in deep learning mean they can provide high localisation performance. However, several fundamental problems remain, particularly in the domain of uncertainty, where learning based approaches can be notoriously over-confident. Markov, or grid-based, localisation was an early solution to the localisation problem but fell out of favour due to its computational complexity. Representing the likelihood field as a grid (or volume) means there is a trade off between accuracy and memory size. Furthermore, it is necessary to perform expensive convolutions across the entire likelihood volume. Despite the benefit of simultaneously maintaining a likelihood for all possible locations, grid based approaches were superseded by more efficient particle filters and Monte Carlo Localisation (MCL). However, MCL introduces its own problems e.g. particle deprivation. Recent advances in deep learning hardware allow large likelihood volumes to be stored directly on the GPU, along with the hardware necessary to efficiently perform GPU-bound 3D convolutions and this obviates many of the disadvantages of grid based methods. In this work, we present a novel CNN-based localisation approach that can leverage modern deep learning hardware. By implementing a grid-based Markov localisation approach directly on the GPU, we create a hybrid CNN that can perform image-based localisation and odometry-based likelihood propagation within a single neural network. The resulting approach is capable of outperforming direct pose regression methods as well as state-of-the-art localisation systems.
翻訳日:2021-06-02 14:29:59 公開日:2021-06-01
# COV-ECGNET:深部畳み込みニューラルネットワークを用いたECGトレース画像を用いたCOVID-19検出

COV-ECGNET: COVID-19 detection using ECG trace images with deep convolutional neural network ( http://arxiv.org/abs/2106.00436v1 )

ライセンス: Link先を確認
Tawsifur Rahman, Alex Akinbi, Muhammad E. H. Chowdhury, Tarik A. Rashid, Abdulkadir \c{S}eng\"ur, Amith Khandakar, Khandaker Reajul Islam, Aras M. Ismael(参考訳) 新型コロナウイルスの感染拡大を防ぎ、ロックダウンの規制を緩和し、公衆衛生インフラへの圧力を減らすため、信頼性と迅速な識別が重要になっている。 近年,SARS-CoV-2ウイルスを画像やデータを用いて検出する手法や手法が提案されている。 しかし、これは心電図(ECG)トレース画像からCOVID-19を検出するために深部畳み込みニューラルネットワーク(CNN)モデルを使用することの可能性を探る最初の研究である。 本研究は、深層学習技術を用いて、COVID-19および他の心血管疾患(CVD)を検出した。 本研究では, 正常, COVID-19, 心筋梗塞 (MI), 異常心拍 (AHB) , 回復心筋梗塞 (RMI) の5つのカテゴリから1937年像を作成した。 6種類の深層CNNモデル (ResNet18, ResNet50, ResNet101, InceptionV3, DenseNet201, MobileNetv2) を用いて2クラス分類 (Normal vs COVID-19), 3クラス分類 (Normal, COVID-19, CVDs), そして5クラス分類 (Normal, COVID-19, MI, AHB, RMI) について検討した。 2級と3級の分類では、drknet201は99.1%、97.36%の精度で他のネットワークを上回り、5級の分類ではinceptionv3が97.83%の精度で他のネットワークを上回っている。 ScoreCAM視覚化は、ネットワークがトレース画像の関連領域から学習していることを確認する。 提案手法は, スマートフォンで撮影可能なECGトレース画像を用いて, 低リソース国で容易に利用できる施設であるため, コンピュータ支援による新型コロナウイルスなどの心疾患の早期診断に有効である。

The reliable and rapid identification of the COVID-19 has become crucial to prevent the rapid spread of the disease, ease lockdown restrictions and reduce pressure on public health infrastructures. Recently, several methods and techniques have been proposed to detect the SARS-CoV-2 virus using different images and data. However, this is the first study that will explore the possibility of using deep convolutional neural network (CNN) models to detect COVID-19 from electrocardiogram (ECG) trace images. In this work, COVID-19 and other cardiovascular diseases (CVDs) were detected using deep-learning techniques. A public dataset of ECG images consists of 1937 images from five distinct categories, such as Normal, COVID-19, myocardial infarction (MI), abnormal heartbeat (AHB), and recovered myocardial infarction (RMI) were used in this study. Six different deep CNN models (ResNet18, ResNet50, ResNet101, InceptionV3, DenseNet201, and MobileNetv2) were used to investigate three different classification schemes: two-class classification (Normal vs COVID-19); three-class classification (Normal, COVID-19, and Other CVDs), and finally, five-class classification (Normal, COVID-19, MI, AHB, and RMI). For two-class and three-class classification, Densenet201 outperforms other networks with an accuracy of 99.1%, and 97.36%, respectively; while for the five-class classification, InceptionV3 outperforms others with an accuracy of 97.83%. ScoreCAM visualization confirms that the networks are learning from the relevant area of the trace images. Since the proposed method uses ECG trace images which can be captured by smartphones and are readily available facilities in low-resources countries, this study will help in faster computer-aided diagnosis of COVID-19 and other cardiac abnormalities.
翻訳日:2021-06-02 14:29:29 公開日:2021-06-01
# ディープニューラルネットワークにおける従来検出不能な障害の露呈

Exposing Previously Undetectable Faults in Deep Neural Networks ( http://arxiv.org/abs/2106.00576v1 )

ライセンス: Link先を確認
Isaac Dunn, Hadrien Pouget, Daniel Kroening and Tom Melham(参考訳) DNNをテストするための既存の手法は、生の特徴(例えば)を制約することでオラクルの問題を解決する。 image pixel value) 所望のDNN出力が知られているデータセット例の小さな距離内にあること。 しかしこれは、これらのアプローチが検出できる障害の種類を制限する。 本稿では,他の手法では不可能なDNNの欠陥を見つけることができる新しいDNNテスト手法を提案する。 cruxは、生成的機械学習を利用することで、高レベルな特徴(画像の場合、オブジェクトの形、位置、テクスチャ、色など)に異なる新しいテスト入力を生成することができる、ということです。 我々は,本手法が故意に注入された障害や最新dnnの新しい障害を検知できることを示すとともに,既存の手法ではこれらの障害を見つけることができないことを実証する。

Existing methods for testing DNNs solve the oracle problem by constraining the raw features (e.g. image pixel values) to be within a small distance of a dataset example for which the desired DNN output is known. But this limits the kinds of faults these approaches are able to detect. In this paper, we introduce a novel DNN testing method that is able to find faults in DNNs that other methods cannot. The crux is that, by leveraging generative machine learning, we can generate fresh test inputs that vary in their high-level features (for images, these include object shape, location, texture, and colour). We demonstrate that our approach is capable of detecting deliberately injected faults as well as new faults in state-of-the-art DNNs, and that in both cases, existing methods are unable to find these faults.
翻訳日:2021-06-02 14:28:51 公開日:2021-06-01
# ここで何ができるか? 視覚能力を利用した新しいスキルの学習

What Can I Do Here? Learning New Skills by Imagining Visual Affordances ( http://arxiv.org/abs/2106.00671v1 )

ライセンス: Link先を確認
Alexander Khazatsky, Ashvin Nair, Daniel Jing, Sergey Levine(参考訳) 学習スキルを備えた汎用ロボットは、多くの異なる環境で多くのタスクを実行できなければならない。 しかし、新しい設定へのゼロショットの一般化が常に可能であるとは限らない。 ロボットが新しい環境や物体に遭遇したとき、この変化に対応するために、以前に学んだスキルを微調整する必要があるかもしれない。 しかし、重要なことは、これまで学んだ行動やモデルは、この再学習を加速するのに相応しいはずだ。 本稿では,可能成果の生成モデルを用いて,ロボットが手頃価格の視覚的表現を学習し,新たな状況において潜在的成果をサンプリングし,さらにその成果を達成するためのポリシーを訓練することを目的とした。 実際に、事前データは、ロボットが不慣れな設定に遭遇すると、そのモデルから潜在的な成果をサンプリングし、それらに到達し、そのスキルと結果モデルの両方を更新することができるように、どのような結果が可能かを学習するために使用される。 本手法は, VAL (visuomotor affordance Learning) を用いて, 原画像入力で動作する目標条件付きポリシーを訓練し, 提案手法を用いて, 新たなオブジェクトの操作を迅速に学習することができる。 我々は,VALが先行データを利用すれば,新たなシーンで5分間のオンライン体験しか持たずに,引き出しのオープニングや把握,オブジェクトの配置といった現実的なタスクを解決できることを示す。

A generalist robot equipped with learned skills must be able to perform many tasks in many different environments. However, zero-shot generalization to new settings is not always possible. When the robot encounters a new environment or object, it may need to finetune some of its previously learned skills to accommodate this change. But crucially, previously learned behaviors and models should still be suitable to accelerate this relearning. In this paper, we aim to study how generative models of possible outcomes can allow a robot to learn visual representations of affordances, so that the robot can sample potentially possible outcomes in new situations, and then further train its policy to achieve those outcomes. In effect, prior data is used to learn what kinds of outcomes may be possible, such that when the robot encounters an unfamiliar setting, it can sample potential outcomes from its model, attempt to reach them, and thereby update both its skills and its outcome model. This approach, visuomotor affordance learning (VAL), can be used to train goal-conditioned policies that operate on raw image inputs, and can rapidly learn to manipulate new objects via our proposed affordance-directed exploration scheme. We show that VAL can utilize prior data to solve real-world tasks such drawer opening, grasping, and placing objects in new scenes with only five minutes of online experience in the new scene.
翻訳日:2021-06-02 14:28:38 公開日:2021-06-01
# HERALD:ソーシャル・会話におけるユーザ・ディエンジメントを効果的に検出するアノテーション手法

HERALD: An Annotation Efficient Method to Detect User Disengagement in Social Conversations ( http://arxiv.org/abs/2106.00162v1 )

ライセンス: Link先を確認
Weixin Liang, Kai-Hui Liang, Zhou Yu(参考訳) オープンドメインダイアログシステムには、人間に魅力的な会話体験を提供することという、ユーザ中心の目標がある。 ユーザエンゲージメントはオープンドメインダイアログシステムを評価する上で最も重要な指標の1つであり、ダイアログポリシー学習のためにリアルタイムフィードバックとしても使用できる。 ユーザの離脱を検出する既存の作業は、通常、多くのダイアログのサンプルを手作業でラベル付けする必要がある。 本稿では,学習データアノテーションプロセスを再編成するアノテーション効率のよいフレームワークであるHERALDを提案する。 具体的には、手作業によるトレーニングサンプルのラベル付けではなく、トレーニングサンプルの自動ラベル付けヒューリスティックのセットを使っています。 次に、Shapleyアルゴリズムを用いて弱いラベル付きデータを復調する。 最後に、ユーザエンゲージメント検出器をトレーニングするために、デノライズドデータを使用します。 実験の結果,herbledはアノテーションの効率を大幅に向上し,2つのダイアログコーパスにおいて86%のユーザ離脱検出精度を達成した。

Open-domain dialog systems have a user-centric goal: to provide humans with an engaging conversation experience. User engagement is one of the most important metrics for evaluating open-domain dialog systems, and could also be used as real-time feedback to benefit dialog policy learning. Existing work on detecting user disengagement typically requires hand-labeling many dialog samples. We propose HERALD, an annotation efficient framework that reframes the training data annotation process as a denoising problem. Specifically, instead of manual labeling training samples, we first use a set of labeling heuristics to automatically label training samples. We then denoise the weakly labeled data using Shapley algorithm. Finally, we use the denoised data to train a user engagement detector. Our experiments show that HERALD improves annotation efficiency significantly and achieves 86% user disengagement detection accuracy in two dialog corpora.
翻訳日:2021-06-02 14:27:20 公開日:2021-06-01
# ニューラルマシン翻訳における速度品質最適化時のジェンダーバイアス増幅

Gender Bias Amplification During Speed-Quality Optimization in Neural Machine Translation ( http://arxiv.org/abs/2106.00169v1 )

ライセンス: Link先を確認
Adithya Renduchintala, Denise Diaz, Kenneth Heafield, Xian Li, Mona Diab(参考訳) ニューラルネットワーク翻訳(NMT)モデルが速度に最適化され、BLEUを用いたジェネリックテストセットで評価された場合、バイアスは増幅されるか? 本稿では,ゲーディ検索,量子化,平均アテンションネットワーク(AAN)や浅層デコーダモデルなどのトランスフォーマーモデルにおいて,デコーディングの高速化によく用いられるアーキテクチャや手法について検討し,その効果を示す。 本研究は, 男女差テストセットであるSimpleGENを構築し, 性別付き名詞句を1つ, 曖昧で, 正解が1つ存在する。 速度最適化を適用するとBLEU全体の劣化は最小限に抑えられるが、性別付き名詞翻訳性能ははるかに高速に低下する。

Is bias amplified when neural machine translation (NMT) models are optimized for speed and evaluated on generic test sets using BLEU? We investigate architectures and techniques commonly used to speed up decoding in Transformer-based models, such as greedy search, quantization, average attention networks (AANs) and shallow decoder models and show their effect on gendered noun translation. We construct a new gender bias test set, SimpleGEN, based on gendered noun phrases in which there is a single, unambiguous, correct answer. While we find minimal overall BLEU degradation as we apply speed optimizations, we observe that gendered noun translation performance degrades at a much faster rate.
翻訳日:2021-06-02 14:27:03 公開日:2021-06-01
# ジェンダーバイアスを隠した中国語の単語埋め込み:中国語の形容詞を例に

Gender Bias Hidden Behind Chinese Word Embeddings: The Case of Chinese Adjectives ( http://arxiv.org/abs/2106.00181v1 )

ライセンス: Link先を確認
Meichun Jiao, Ziyang Luo(参考訳) 単語埋め込みにおけるジェンダーバイアスは、近年徐々に鮮明な研究分野になりつつある。 この分野のほとんどの研究は、対象言語として英語を用いた測定と偏差法を目標としている。 本研究は,中国語形容詞における静的単語埋め込みにおける性別バイアスについて考察する。 異なるモデルで単語表現を訓練することにより、形容詞のベクトルの背後にある性別バイアスを評価する。 生成した結果と人称データセットを比較することで,単語埋め込みに符号化された性別バイアスが人々の態度とどのように異なるかを示す。

Gender bias in word embeddings gradually becomes a vivid research field in recent years. Most studies in this field aim at measurement and debiasing methods with English as the target language. This paper investigates gender bias in static word embeddings from a unique perspective, Chinese adjectives. By training word representations with different models, the gender bias behind the vectors of adjectives is assessed. Through a comparison between the produced results and a human-scored data set, we demonstrate how gender bias encoded in word embeddings differentiates from people's attitudes.
翻訳日:2021-06-02 14:26:49 公開日:2021-06-01
# 文脈対応ルール注入による形式的スタイル伝達の改善

Improving Formality Style Transfer with Context-Aware Rule Injection ( http://arxiv.org/abs/2106.00210v1 )

ライセンス: Link先を確認
Zonghai Yao and Hong Yu(参考訳) 大規模正規テキストコーパスで事前学習されたモデルは、主流テキストと言語スタイルが大きく異なるユーザー生成データではうまく機能しないことが多い。 ここでは、形式的スタイル転送(FST)の革新的な方法である文脈認識ルール注入(CARI)について述べる。 CARIは、エンドツーエンドのBERTベースのエンコーダとデコーダモデルに複数のルールを注入する。 コンテキストに基づいて最適なルールを選択することを学ぶ。 内在的評価により,CARIはFSTベンチマークデータセット上での新たな最高性能を達成した。 本研究では,複数のツイート感情分析タスクにおいて,CARIが通常の事前学習モデルの性能を大幅に向上できることを示す。

Models pre-trained on large-scale regular text corpora often do not work well for user-generated data where the language styles differ significantly from the mainstream text. Here we present Context-Aware Rule Injection (CARI), an innovative method for formality style transfer (FST). CARI injects multiple rules into an end-to-end BERT-based encoder and decoder model. It learns to select optimal rules based on context. The intrinsic evaluation showed that CARI achieved the new highest performance on the FST benchmark dataset. Our extrinsic evaluation showed that CARI can greatly improve the regular pre-trained models' performance on several tweet sentiment analysis tasks.
翻訳日:2021-06-02 14:26:41 公開日:2021-06-01
# 消費者健康質問要約のための質問認識トランスフォーマーモデル

Question-aware Transformer Models for Consumer Health Question Summarization ( http://arxiv.org/abs/2106.00219v1 )

ライセンス: Link先を確認
Shweta Yadav, Deepak Gupta, Asma Ben Abacha and Dina Demner-Fushman(参考訳) オンラインの健康情報検索は、日々ますます多くの消費者にとって慣例となっているため、効率的で信頼性の高い質問応答システムの必要性が高まっている。 これらのシステムの成功率に重要な貢献は、消費者の質問を完全に理解できる能力である。 しかし、これらの質問はしばしば必要以上に長く、適切な回答を見つけるのに役に立たない周辺情報に言及する。 質問の要約は、答えを見つける前に、長く複雑な消費者の質問を単純化する潜在的な解決策の1つである。 本稿では,現実の消費者健康問題に対する抽象的な要約の課題について考察する。 医療機関の認識を通じて質問の意味的解釈を活用し,情報的要約の生成を可能にする抽象的質問要約モデルを開発した。 そこで我々は複数のClozeタスク(すなわち)を提案する。 問題焦点認識においてより良いカバレッジを持つようにモデルを強制する重要な医療機関を特定するための(特定の文脈で欠落した単語を提出する)タスク。 さらに,デコーダの入力に質問型情報を加え,質問型要約を生成する。 MeQSumベンチマークコーパスで評価すると、我々のフレームワークは最先端の手法を10.2ROUGE-Lで上回りました。 また,生成した要約の正確性を評価するために手動による評価を行った。

Searching for health information online is becoming customary for more and more consumers every day, which makes the need for efficient and reliable question answering systems more pressing. An important contributor to the success rates of these systems is their ability to fully understand the consumers' questions. However, these questions are frequently longer than needed and mention peripheral information that is not useful in finding relevant answers. Question summarization is one of the potential solutions to simplifying long and complex consumer questions before attempting to find an answer. In this paper, we study the task of abstractive summarization for real-world consumer health questions. We develop an abstractive question summarization model that leverages the semantic interpretation of a question via recognition of medical entities, which enables the generation of informative summaries. Towards this, we propose multiple Cloze tasks (i.e. the task of filing missing words in a given context) to identify the key medical entities that enforce the model to have better coverage in question-focus recognition. Additionally, we infuse the decoder inputs with question-type information to generate question-type driven summaries. When evaluated on the MeQSum benchmark corpus, our framework outperformed the state-of-the-art method by 10.2 ROUGE-L points. We also conducted a manual evaluation to assess the correctness of the generated summaries.
翻訳日:2021-06-02 14:26:30 公開日:2021-06-01
# 多単語表現機能によるヘイトスピーチ自動検出の改善

Improving Automatic Hate Speech Detection with Multiword Expression Features ( http://arxiv.org/abs/2106.00237v1 )

ライセンス: Link先を確認
Nicolas Zampieri, Irina Illina and Dominique Fohr(参考訳) ソーシャルメディアでヘイトスピーチを自動的に検出する作業は、ますます注目を集めている。 毎日投稿される大量のコンテンツを考えると、ヘイトスピーチの人間の監視は不可能だ。 本研究では,ヘイトスピーチ自動検出(hsd: multiword expressions, mwes)のための新しい単語レベル機能を提案する。 mwes は慣用的意味と構成的意味を持つ単語よりも大きい語彙単位である。 我々は、深層ニューラルネットワークベースのHSDフレームワークにMWE機能を統合することを提案する。 我々のベースライン HSD システムは Universal Sentence Encoder (USE) に依存している。 MWE機能を組み込むために、3分岐のディープニューラルネットワーク(USE用の1つのブランチ、MWEカテゴリ用の1つ、MWE埋め込みのための1つ)を作成します。 我々は、異なるMWEカテゴリと2種類のMWE埋め込み、 word2vec と BERT を用いた2種類のヘイトスピーチツイートコーパスの実験を行った。 実験の結果,MWE特徴を持つHSDシステムはマクロF1の点でベースラインシステムよりも有意に優れていた。

The task of automatically detecting hate speech in social media is gaining more and more attention. Given the enormous volume of content posted daily, human monitoring of hate speech is unfeasible. In this work, we propose new word-level features for automatic hate speech detection (HSD): multiword expressions (MWEs). MWEs are lexical units greater than a word that have idiomatic and compositional meanings. We propose to integrate MWE features in a deep neural network-based HSD framework. Our baseline HSD system relies on Universal Sentence Encoder (USE). To incorporate MWE features, we create a three-branch deep neural network: one branch for USE, one for MWE categories, and one for MWE embeddings. We conduct experiments on two hate speech tweet corpora with different MWE categories and with two types of MWE embeddings, word2vec and BERT. Our experiments demonstrate that the proposed HSD system with MWE features significantly outperforms the baseline system in terms of macro-F1.
翻訳日:2021-06-02 14:26:14 公開日:2021-06-01
# semeval-2021タスク9 : tapasと転送学習を用いた表による文検証とエビデンス発見

Volta at SemEval-2021 Task 9: Statement Verification and Evidence Finding with Tables using TAPAS and Transfer Learning ( http://arxiv.org/abs/2106.00248v1 )

ライセンス: Link先を確認
Devansh Gautam, Kshitij Gupta, Manish Shrivastava(参考訳) 表は、情報を簡潔に提示するために、様々な種類の文書で広く使われている。 表を理解することは、言語と表の構造、数値的および論理的推論を理解することを必要とする難しい問題である。 本稿では,SemEval-2021: Statement Verification and Evidence Finding with Tables (SEM-TAB-FACTS) のタスク9を解くシステムを提案する。 タスクは2つのサブタスクで構成される: (a) テーブルとステートメント、そのテーブルがステートメントをサポートするかどうかの予測、および (b) テーブル内のどのセルがそのステートメントの証拠を提供するかを予測する。 我々は,テーブル理解タスクにおける最先端性能を示すため,各サブタスクに対してTAPAS(BERTのアーキテクチャを拡張して表構造をキャプチャするモデル)を微調整する。 サブタスクAでは,1つのヘッダ列を持つテーブルの転送学習と標準化がTAPASの性能を向上させるかを評価する。 In subtask B, we evaluate how different fine-tuning strategy could improve of TAPAS。 サブタスクではF1スコアが67.34、サブタスクでは72.89、サブタスクBでは62.95である。

Tables are widely used in various kinds of documents to present information concisely. Understanding tables is a challenging problem that requires an understanding of language and table structure, along with numerical and logical reasoning. In this paper, we present our systems to solve Task 9 of SemEval-2021: Statement Verification and Evidence Finding with Tables (SEM-TAB-FACTS). The task consists of two subtasks: (A) Given a table and a statement, predicting whether the table supports the statement and (B) Predicting which cells in the table provide evidence for/against the statement. We fine-tune TAPAS (a model which extends BERT's architecture to capture tabular structure) for both the subtasks as it has shown state-of-the-art performance in various table understanding tasks. In subtask A, we evaluate how transfer learning and standardizing tables to have a single header row improves TAPAS' performance. In subtask B, we evaluate how different fine-tuning strategies can improve TAPAS' performance. Our systems achieve an F1 score of 67.34 in subtask A three-way classification, 72.89 in subtask A two-way classification, and 62.95 in subtask B.
翻訳日:2021-06-02 14:26:00 公開日:2021-06-01
# LenAtten: テキスト要約に有効な長さ制御ユニット

LenAtten: An Effective Length Controlling Unit For Text Summarization ( http://arxiv.org/abs/2106.00316v1 )

ライセンス: Link先を確認
Zhongyi Yu, Zhenghao Wu, Hao Zheng, Zhe XuanYuan, Jefferson Fong, Weifeng Su(参考訳) 固定長要約は、単語や文字のプリセット数で要約を生成することを目的としている。 近年の研究では、単語埋め込みを繰り返し復号ユニットへの入力として長さ情報を取り込んでおり、長さ制御性と要約品質の妥協を引き起こしている。 本稿では,このトレードオフを解消するために,有効長制御単位長注意(lenatten)を提案する。 実験結果から,LenAttenは長さ制御性とROGUEスコアの改善をもたらすだけでなく,高い一般化能力を有することが示された。 CNN/Daily Mailデータセットにおいて,目標長の要約を生成するタスクにおいて,我々のモデルは,最大長制御可能な要約器よりも732倍よい。

Fixed length summarization aims at generating summaries with a preset number of words or characters. Most recent researches incorporate length information with word embeddings as the input to the recurrent decoding unit, causing a compromise between length controllability and summary quality. In this work, we present an effective length controlling unit Length Attention (LenAtten) to break this trade-off. Experimental results show that LenAtten not only brings improvements in length controllability and ROGUE scores but also has great generalization ability. In the task of generating a summary with the target length, our model is 732 times better than the best-performing length controllable summarizer in length controllability on the CNN/Daily Mail dataset.
翻訳日:2021-06-02 14:25:39 公開日:2021-06-01
# 合理化のための分布マッチング

Distribution Matching for Rationalization ( http://arxiv.org/abs/2106.00320v1 )

ライセンス: Link先を確認
Yongfeng Huang, Yujun Chen, Yulun Du, Zhilin Yang(参考訳) 合理化の課題は、入力テキストの一部を論理として抽出し、テキスト分類タスクにおけるニューラルネットワーク予測を正当化することである。 定義上、合理化は予測に使われるキーテキストを表現し、したがって元の入力テキストと類似した分類特徴分布を持つべきである。 しかし,従来の手法は,有理とラベル間の相互情報の最大化を主眼とし,有理と入力テキストの関係を無視するものであった。 そこで本研究では,特徴空間と出力空間の両方における有理と入力テキストの分布に一致する新しい合理化手法を提案する。 実験的に、提案した分布マッチングアプローチは、従来手法を大きなマージンで一貫して上回っている。 データとコードは利用可能です。

The task of rationalization aims to extract pieces of input text as rationales to justify neural network predictions on text classification tasks. By definition, rationales represent key text pieces used for prediction and thus should have similar classification feature distribution compared to the original input text. However, previous methods mainly focused on maximizing the mutual information between rationales and labels while neglecting the relationship between rationales and input text. To address this issue, we propose a novel rationalization method that matches the distributions of rationales and input text in both the feature space and output space. Empirically, the proposed distribution matching approach consistently outperforms previous methods by a large margin. Our data and code are available.
翻訳日:2021-06-02 14:25:25 公開日:2021-06-01
# 中国語単語の内部構造に関する詳細な研究

An In-depth Study on Internal Structure of Chinese Words ( http://arxiv.org/abs/2106.00334v1 )

ライセンス: Link先を確認
Chen Gong, Saihao Huang, Houquan Zhou, Zhenghua Li, Min Zhang, Zhefeng Wang, Baoxing Huai, Nicholas Jing Yuan(参考訳) 英語の文字とは異なり、漢字は豊かで特定の意味を持つ。 通常、単語の意味は何らかの形でその構成文字から派生することができる。 構文解析に関するいくつかの以前の研究は、文字レベルの情報を活用するために浅い単語内部構造を注釈付けすることを提案した。 本研究は,中国語単語の深い内部構造を,構文的関係を識別するための11のラベルを持つ依存木としてモデル化することを提案する。 まず,新たにコンパイルされたアノテーションガイドラインに基づいて,中国ペンツリーバンクの30万語以上の多字語からなる単語内部構造木バンク(WIST)を手作業で注釈する。 品質を保証するため、各単語は独立して2つの注釈により注釈され、不整合は第3上級注釈者によって処理される。 第2に,中国語の単語形成に関する知見を明らかにするために,WISTに関する詳細な,興味深い分析を行った。 第3に,新しいタスクとして単語内構造解析を提案し,競合依存構文解析器を用いてベンチマーク実験を行う。 最後に,単語内部構造を符号化する2つの簡単な方法を提案する。

Unlike English letters, Chinese characters have rich and specific meanings. Usually, the meaning of a word can be derived from its constituent characters in some way. Several previous works on syntactic parsing propose to annotate shallow word-internal structures for better utilizing character-level information. This work proposes to model the deep internal structures of Chinese words as dependency trees with 11 labels for distinguishing syntactic relationships. First, based on newly compiled annotation guidelines, we manually annotate a word-internal structure treebank (WIST) consisting of over 30K multi-char words from Chinese Penn Treebank. To guarantee quality, each word is independently annotated by two annotators and inconsistencies are handled by a third senior annotator. Second, we present detailed and interesting analysis on WIST to reveal insights on Chinese word formation. Third, we propose word-internal structure parsing as a new task, and conduct benchmark experiments using a competitive dependency parser. Finally, we present two simple ways to encode word-internal structures, leading to promising gains on the sentence-level syntactic parsing task.
翻訳日:2021-06-02 14:25:14 公開日:2021-06-01
# 対話型事前学習

Dialogue-oriented Pre-training ( http://arxiv.org/abs/2106.00420v1 )

ライセンス: Link先を確認
Yi Xu, Hai Zhao(参考訳) 事前訓練された言語モデル(PrLM)は、様々な対話に関連したタスクを含む幅広い下流タスクの強化に有効であることが示されている。 しかし、PrLMは通常、共通言語モデル(LM)訓練目的の一般的なプレーンテキストで訓練されるため、そのようなトレーニング設定の制限により、対話排他的特徴を十分に捉えられないため、特定の対話タスクとLMタスクのギャップを埋める必要がすぐに生じる。 本稿では,対話指向事前学習のための膨大な対話データを収集することができないため,一般的な平文における対話特徴をシミュレートする3つの手法を提案する。 提案手法は, 話者認識, 連続性, 一貫性などの対話的特徴を学習しながら, 汎用のPrLMを生成でき, 詳細なタスクを特定できない既存の学習方法と異なる。 その結果、Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整され、通常のPrLMよりも大幅に一貫した改善を実現する。

Pre-trained language models (PrLM) has been shown powerful in enhancing a broad range of downstream tasks including various dialogue related ones. However, PrLMs are usually trained on general plain text with common language model (LM) training objectives, which cannot sufficiently capture dialogue exclusive features due to the limitation of such training setting, so that there is an immediate need to fill the gap between a specific dialogue task and the LM task. As it is unlikely to collect huge dialogue data for dialogue-oriented pre-training, in this paper, we propose three strategies to simulate the conversation features on general plain text. Our proposed method differs from existing post-training methods that it may yield a general-purpose PrLM and does not individualize to any detailed task while keeping the capability of learning dialogue related features including speaker awareness, continuity and consistency. The resulted Dialog-PrLM is fine-tuned on three public multi-turn dialogue datasets and helps achieve significant and consistent improvement over the plain PrLMs.
翻訳日:2021-06-02 14:24:56 公開日:2021-06-01
# SemEval-2021 Task 1: Lexical Complexity Prediction

SemEval-2021 Task 1: Lexical Complexity Prediction ( http://arxiv.org/abs/2106.00473v1 )

ライセンス: Link先を確認
Matthew Shardlow, Richard Evans, Gustavo Henrique Paetzold, Marcos Zampieri(参考訳) 本稿では,SemEval-2021 Task 1Lexical Complexity Predictionの結果と主な結果を示す。 参加者にCompLex Corpus(Shardlow et al 2020)の拡張版を提供した。 コンプレックス (complex) は、英語の多言語コーパスで、単語と多語表現 (mwes) が5点類似尺度を用いてその複雑さについて注釈付けされた。 semeval-2021 task 1 には2つのサブタスクがあった。 このコンペには合計198チームが参加し、うち54チームがテストデータの公式実行をサブタスク1に、37チームがサブタスク2に提出した。

This paper presents the results and main findings of SemEval-2021 Task 1 - Lexical Complexity Prediction. We provided participants with an augmented version of the CompLex Corpus (Shardlow et al 2020). CompLex is an English multi-domain corpus in which words and multi-word expressions (MWEs) were annotated with respect to their complexity using a five point Likert scale. SemEval-2021 Task 1 featured two Sub-tasks: Sub-task 1 focused on single words and Sub-task 2 focused on MWEs. The competition attracted 198 teams in total, of which 54 teams submitted official runs on the test data to Sub-task 1 and 37 to Sub-task 2.
翻訳日:2021-06-02 14:24:37 公開日:2021-06-01
# DoT:テーブル付きNLPタスクのための効率的なダブルトランス

DoT: An efficient Double Transformer for NLP tasks with tables ( http://arxiv.org/abs/2106.00479v1 )

ライセンス: Link先を確認
Syrine Krichene, Thomas M\"uller and Julian Martin Eisenschlos(参考訳) 半構造化テーブルを用いた自然言語処理(NLP)タスクにおける最先端の精度を得るためにトランスフォーマーベースのアプローチが成功している。 これらのモデルアーキテクチャは一般的に深く、特に長い入力に対してトレーニングや推論が遅くなる。 高い精度を維持しつつ効率を向上させるために、問題を2つのサブタスクに分解する新しいアーキテクチャ、dot(double transformer model)を提案している。 さらに,タスク固有の注意点を変更し,プルーニングスコアを組み込む。 2つのトランスフォーマーはタスク固有の損失を最適化することで共同で訓練される。 詳細と質問応答を含む3つのベンチマークで実験を行う。 少ない精度でDoTはトレーニング時間と推論時間を少なくとも50%改善することを示した。 また,pruning transformerは,エンド・ツー・エンドモデルが低速なベースラインモデルと同様の精度を維持するための関連するトークンを効果的に選択できることを示す。 最後に、刈り取りを分析し、そのタスクモデルへの影響について見識を与えます。

Transformer-based approaches have been successfully used to obtain state-of-the-art accuracy on natural language processing (NLP) tasks with semi-structured tables. These model architectures are typically deep, resulting in slow training and inference, especially for long inputs. To improve efficiency while maintaining a high accuracy, we propose a new architecture, DoT, a double transformer model, that decomposes the problem into two sub-tasks: A shallow pruning transformer that selects the top-K tokens, followed by a deep task-specific transformer that takes as input those K tokens. Additionally, we modify the task-specific attention to incorporate the pruning scores. The two transformers are jointly trained by optimizing the task-specific loss. We run experiments on three benchmarks, including entailment and question-answering. We show that for a small drop of accuracy, DoT improves training and inference time by at least 50%. We also show that the pruning transformer effectively selects relevant tokens enabling the end-to-end model to maintain similar accuracy as slower baseline models. Finally, we analyse the pruning and give some insight into its impact on the task model.
翻訳日:2021-06-02 14:24:27 公開日:2021-06-01
# 定量的対話コヒーレンス評価に向けて

Towards Quantifiable Dialogue Coherence Evaluation ( http://arxiv.org/abs/2106.00507v1 )

ライセンス: Link先を確認
Zheng Ye, Liucun Lu, Lishan Huang, Liang Lin, Xiaodan Liang(参考訳) 自動対話コヒーレンス評価は注目度が高くなり,有望な対話システムの開発に不可欠である。 しかし、既存の指標には2つの大きな制限がある: (a) それらは主に単純化された2段階の設定(コヒーレント対非コヒーレント)で訓練されているのに対し、人間は「量子化」と呼ばれる、クアルト型多段階コヒーレンススコアを与える; (b) トレーニング中に人間の指導が欠如しているため、予測されたコヒーレンススコアは実際の人間の評価基準に適合しない。 そこで本研究では,実際の評価基準を反映することのできる,定量化可能な対話コヒーレンスメトリックの学習を目的とした新しい枠組みであるquantidceを提案する。 具体的には、QuantiDCEには、マルチレベルランキング(MLR)事前トレーニングと知識蒸留(KD)微調整という2つのトレーニング段階が含まれている。 MLR事前学習中に、モデルがコヒーレンスの粗い判断を学習できるようにするために、新しいMLR損失を提案する。 そして、KD微調整の間、事前訓練されたモデルはさらに微調整され、人間の注釈付きデータだけで実際の人間の評価基準を学習する。 限られた微調整データでも一般化性を提唱するため、事前学習段階で学んだ知識を保持するために、新しいkd正則化を導入する。 実験結果から,QuantiDCEによりトレーニングされたモデルは,他の最先端の指標に比べて,人間の判断と強い相関関係を示すことが示された。

Automatic dialogue coherence evaluation has attracted increasing attention and is crucial for developing promising dialogue systems. However, existing metrics have two major limitations: (a) they are mostly trained in a simplified two-level setting (coherent vs. incoherent), while humans give Likert-type multi-level coherence scores, dubbed as "quantifiable"; (b) their predicted coherence scores cannot align with the actual human rating standards due to the absence of human guidance during training. To address these limitations, we propose Quantifiable Dialogue Coherence Evaluation (QuantiDCE), a novel framework aiming to train a quantifiable dialogue coherence metric that can reflect the actual human rating standards. Specifically, QuantiDCE includes two training stages, Multi-Level Ranking (MLR) pre-training and Knowledge Distillation (KD) fine-tuning. During MLR pre-training, a new MLR loss is proposed for enabling the model to learn the coarse judgement of coherence degrees. Then, during KD fine-tuning, the pretrained model is further finetuned to learn the actual human rating standards with only very few human-annotated data. To advocate the generalizability even with limited fine-tuning data, a novel KD regularization is introduced to retain the knowledge learned at the pre-training stage. Experimental results show that the model trained by QuantiDCE presents stronger correlations with human judgements than the other state-of-the-art metrics.
翻訳日:2021-06-02 14:24:12 公開日:2021-06-01
# 学生のパフォーマンス予測のためのグラフベース演習・知識学習ネットワーク

Graph-based Exercise- and Knowledge-Aware Learning Network for Student Performance Prediction ( http://arxiv.org/abs/2106.00263v1 )

ライセンス: Link先を確認
Mengfan Liu, Pengyang Shao, Kun Zhang(参考訳) 知的指導システム(itss)では、生徒のパフォーマンスを予測することは、生徒の知識レベルを学習し、それらに対してパーソナライズされた指導戦略を提供するための基本的なタスクである。 研究者はこの課題に多くの努力をしてきた。 学習知識の熟練度に応じて生徒のスコアを予測するために教育心理学的手法を利用するか、学生や演習の潜伏要因を表すために協調フィルタリング(CF)モデルをフル活用する。 しかし、これらの手法のほとんどは、運動特有の特性(例えば運動材料)を無視したり、学生間の高次相互作用や運動、知識概念を十分に探求することができない。 そこで本稿では,学生のスコアを正確に予測するためのグラフベースの知識認識学習ネットワークを提案する。 具体的には,エクササイズと知識概念の2つの効果をモデル化するために,学生のエクササイズと知識概念の熟達度をそれぞれ学習する。 そして,高次相互作用をモデル化するために,予測プロセスにグラフ畳み込み手法を適用する。 2つの実世界のデータセットに対する大規模な実験により、提案したグラフ-EKLNの有効性が証明された。

Predicting student performance is a fundamental task in Intelligent Tutoring Systems (ITSs), by which we can learn about students' knowledge level and provide personalized teaching strategies for them. Researchers have made plenty of efforts on this task. They either leverage educational psychology methods to predict students' scores according to the learned knowledge proficiency, or make full use of Collaborative Filtering (CF) models to represent latent factors of students and exercises. However, most of these methods either neglect the exercise-specific characteristics (e.g., exercise materials), or cannot fully explore the high-order interactions between students, exercises, as well as knowledge concepts. To this end, we propose a Graph-based Exercise- and Knowledge-Aware Learning Network for accurate student score prediction. Specifically, we learn students' mastery of exercises and knowledge concepts respectively to model the two-fold effects of exercises and knowledge concepts. Then, to model the high-order interactions, we apply graph convolution techniques in the prediction process. Extensive experiments on two real-world datasets prove the effectiveness of our proposed Graph-EKLN.
翻訳日:2021-06-02 14:23:25 公開日:2021-06-01
# 歴史からの探索と未来への理由:時間知識グラフの2段階推論

Search from History and Reason for Future: Two-stage Reasoning on Temporal Knowledge Graphs ( http://arxiv.org/abs/2106.00327v1 )

ライセンス: Link先を確認
Zixuan Li, Xiaolong Jin, Saiping Guan, Wei Li, Jiafeng Guo, Yuanzhuo Wang and Xueqi Cheng(参考訳) 時間的知識グラフ (TKG) は様々な分野で開発・利用されている。 将来の潜在的な事実(イベント)を予測するtkgの推論は、既存のモデルに大きな課題をもたらす。 予測タスクに直面するとき、人間は通常、記憶の中の有用な歴史的情報(すなわち手がかり)を検索し、将来を慎重に考える。 そこで本研究では,この機構に触発されて,手がかり探索と時間推論の2段階的な予測を行うクラスタを提案する。 具体的には、手がかり探索段階において、CluSTeRは強化学習(RL)を介してビーム探索ポリシーを学び、歴史的事実から複数の手がかりを導き出す。 時間的推論の段階では、グラフ畳み込みネットワークに基づくシーケンス法を採用し、答えを手がかりから導き出す。 4つのデータセットの実験は、最先端の手法と比較してCluSTeRのかなりの利点を示している。 さらに、CluSTeRが発見した手がかりは、結果の解釈可能性をさらに高める。

Temporal Knowledge Graphs (TKGs) have been developed and used in many different areas. Reasoning on TKGs that predicts potential facts (events) in the future brings great challenges to existing models. When facing a prediction task, human beings usually search useful historical information (i.e., clues) in their memories and then reason for future meticulously. Inspired by this mechanism, we propose CluSTeR to predict future facts in a two-stage manner, Clue Searching and Temporal Reasoning, accordingly. Specifically, at the clue searching stage, CluSTeR learns a beam search policy via reinforcement learning (RL) to induce multiple clues from historical facts. At the temporal reasoning stage, it adopts a graph convolution network based sequence method to deduce answers from clues. Experiments on four datasets demonstrate the substantial advantages of CluSTeR compared with the state-of-the-art methods. Moreover, the clues found by CluSTeR further provide interpretability for the results.
翻訳日:2021-06-02 14:23:07 公開日:2021-06-01
# 典型性を有するファジィDLのKLM特性について

On the KLM properties of a fuzzy DL with Typicality ( http://arxiv.org/abs/2106.00390v1 )

ライセンス: Link先を確認
Laura Giordano(参考訳) 本稿では,ファジィ論理の典型的特性について考察する。 近年,多層パーセプトロンのファジィ多参照セマンティクスを,ニューラルネットワークを条件付き知識ベースとして定義するために,ファジィ論理を典型演算子で拡張する手法が提案されている。 本稿では,その特性について考察する。 まず、ファジィALCの典型性を持つ単調拡張(ALCFT)を考慮し、この論理に対する優先的な帰結関係のKLM特性を再構成する。 ほとんどの性質は、再編成と考慮されたファジィ結合関数によって満足される。 次に,前述した条件付き知識基盤のコヒーレントモデルの概念を一般化した重み付き知識ベースの概念を導入することにより,alcftを閉包構成で強化し,その性質について検討する。

The paper investigates the properties of a fuzzy logic of typicality. The extension of fuzzy logic with a typicality operator was proposed in recent work to define a fuzzy multipreference semantics for Multilayer Perceptrons, by regarding the deep neural network as a conditional knowledge base. In this paper, we study its properties. First, a monotonic extension of a fuzzy ALC with typicality is considered (called ALCFT) and a reformulation the KLM properties of a preferential consequence relation for this logic is devised. Most of the properties are satisfied, depending on the reformulation and on the fuzzy combination functions considered. We then strengthen ALCFT with a closure construction by introducing a notion of faithful model of a weighted knowledge base, which generalizes the notion of coherent model of a conditional knowledge base previously introduced, and we study its properties.
翻訳日:2021-06-02 14:22:51 公開日:2021-06-01
# マルコフ報酬過程にインスパイアされた値伝播に基づく時空間補間

Value propagation-based spatio-temporal interpolation inspired by Markov reward processes ( http://arxiv.org/abs/2106.00538v1 )

ライセンス: Link先を確認
Laurens Arp, Mitra Baratchi, Holger Hoos(参考訳) リモートセンシング、生態学、気象学といった様々な分野の現実世界のアプリケーションで欠落するデータの一般的な問題を考えると、空間的・時空間的データの補間は極めて重要である。 既存の空間補間法(特にガウス過程と空間自己回帰モデル)は、(a)局所的または大域的な空間的相互作用のモデル化間のトレードオフ、(b)二つの点の間に可能な経路が1つしかないという仮定、(c)点間の中間位置の同質性の仮定に苦しむ傾向がある。 これらの問題に対処するため,空間補間法としてマルコフ報酬プロセス (MRP) に着想を得た値伝搬法を提案し,その2つの変種(SD-MRP)とデータ駆動重み予測 (WP-MRP) の変種(WP-MRP)を提案する。 これらの補間変種はどちらも局所的に動作し、再帰を通じてシステム全体の空間的関係を暗黙的に説明する。 提案手法は, 補間格子セルの平均絶対誤差とランニング時間と7つの共通基底線の平均誤差を比較して評価した。 本分析では,44実験条件を超える2つの合成データと2つの実世界のデータセットについて詳細な実験を行った。 実験結果から,実験条件下でのSD-MRPの平均性能は,他のすべての手法に比べて有意に高く,続いてWP-MRPが続いた。 合成データから,WP-MRPがSD-MRPよりも十分な情報的特徴を有することを示す。 さらに,本手法が基準線に対して有意な優位性を持たない場合においても,対象格子の空間構造を基準線よりもよく保存することがわかった。

Given the common problem of missing data in real-world applications from various fields, such as remote sensing, ecology and meteorology, the interpolation of missing spatial and spatio-temporal data can be of tremendous value. Existing methods for spatial interpolation, most notably Gaussian processes and spatial autoregressive models, tend to suffer from (a) a trade-off between modelling local or global spatial interaction, (b) the assumption there is only one possible path between two points, and (c) the assumption of homogeneity of intermediate locations between points. Addressing these issues, we propose a value propagation method, inspired by Markov reward processes (MRPs), as a spatial interpolation method, and introduce two variants thereof: (i) a static discount (SD-MRP) and (ii) a data-driven weight prediction (WP-MRP) variant. Both these interpolation variants operate locally, while implicitly accounting for global spatial relationships in the entire system through recursion. We evaluated our proposed methods by comparing the mean absolute errors and running times of interpolated grid cells to those of 7 common baselines. Our analysis involved detailed experiments on two synthetic and two real-world datasets over 44 total experimental conditions. Experimental results show the competitive advantage of MRP interpolation on real-world data, as the average performance of SD-MRP on real-world data under all experimental conditions was ranked significantly higher than that of all other methods, followed by WP-MRP. On synthetic data, we show that WP-MRP can perform better than SD-MRP given sufficiently informative features. We further found that, even in cases where our methods had no significant advantage over baselines numerically, our methods preserved the spatial structure of the target grid better than the baselines.
翻訳日:2021-06-02 14:22:36 公開日:2021-06-01
# コンピュータビジョンと無人航空機技術の公衆検査における統合的利用:異物デブリ画像収集

Integrative Use of Computer Vision and Unmanned Aircraft Technologies in Public Inspection: Foreign Object Debris Image Collection ( http://arxiv.org/abs/2106.00161v1 )

ライセンス: Link先を確認
Travis J. E. Munyer, Daniel Brinkman, Chenyu Huang, Xin Zhong(参考訳) 無人航空機システム(UAS)は公共サービス事業者やスマートシティにとって重要な資源となっている。 本研究の目的は,コンピュータビジョンとUAS技術を統合して公衆検査を自動化することにある。 本研究の最初のケーススタディとして,軽量自動検出の可能性を評価するために,共通異物デブリ(fod)のデータセットを開発した。 本稿では,このデータセットの根拠と作成について述べる。 我々の研究の今後のイテレーションには、実験的な実装を分析する技術的な詳細が含まれます。 地元の空港では、UASとポータブルカメラを使用して、このデータセットの初期バージョンに含まれるデータを収集する。 FODのビデオを収集した後、個々のフレームに分割され、数千の画像として保存された。 これらのフレームは、標準のコンピュータビジョンフォーマットに従って注釈付けされ、フォルダ構造に格納される。 データセットアノテーションは、将来のアプリケーションに適合するように抽象化できるカスタムツールを使用して検証される。 提案したデータの実用性を示す有名なYou Only Look Onceアルゴリズムを用いて,初期検出モデルの作成に成功した。 最後に、このデータセットまたは他の公共サービスのための類似のメソッドを利用する可能性のあるいくつかのシナリオが提示される。

Unmanned Aircraft Systems (UAS) have become an important resource for public service providers and smart cities. The purpose of this study is to expand this research area by integrating computer vision and UAS technology to automate public inspection. As an initial case study for this work, a dataset of common foreign object debris (FOD) is developed to assess the potential of light-weight automated detection. This paper presents the rationale and creation of this dataset. Future iterations of our work will include further technical details analyzing experimental implementation. At a local airport, UAS and portable cameras are used to collect the data contained in the initial version of this dataset. After collecting these videos of FOD, they were split into individual frames and stored as several thousand images. These frames are then annotated following standard computer vision format and stored in a folder-structure that reflects our creation method. The dataset annotations are validated using a custom tool that could be abstracted to fit future applications. Initial detection models were successfully created using the famous You Only Look Once algorithm, which indicates the practicality of the proposed data. Finally, several potential scenarios that could utilize either this dataset or similar methods for other public service are presented.
翻訳日:2021-06-02 14:21:42 公開日:2021-06-01
# 半教師付き物体検出のための擬似ラベル再考

Rethinking Pseudo Labels for Semi-Supervised Object Detection ( http://arxiv.org/abs/2106.00168v1 )

ライセンス: Link先を確認
Hengduo Li, Zuxuan Wu, Abhinav Shrivastava, Larry S. Davis(参考訳) 半教師対象検出(SSOD)の最近の進歩は、画像分類タスクの整合性に基づく擬似ラベル法によって大きく左右される。 しかしながら、擬似ラベルを使用する場合、局所化精度と増幅されたクラス不均衡には考慮が欠如しており、どちらも検出タスクに不可欠である。 本稿では,対象検出に適した確実な擬似ラベルを導入し,抽出した擬似ラベルの分類と位置化品質を効果的に推定する。 これは、従来のローカライゼーションを分類タスクとして変換し、改良することで達成される。 分類とローカライズ品質スコアに基づいて,各カテゴリの擬似ラベルと再重み付き損失関数を生成する閾値を動的に調整し,クラス不均衡問題を緩和する。 実験の結果,COCOおよびPASCALVOCにおけるSSOD性能は1-2%,APは4-6%向上した。 限定アノテーション方式では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%AP改善する。

Recent advances in semi-supervised object detection (SSOD) are largely driven by consistency-based pseudo-labeling methods for image classification tasks, producing pseudo labels as supervisory signals. However, when using pseudo labels, there is a lack of consideration in localization precision and amplified class imbalance, both of which are critical for detection tasks. In this paper, we introduce certainty-aware pseudo labels tailored for object detection, which can effectively estimate the classification and localization quality of derived pseudo labels. This is achieved by converting conventional localization as a classification task followed by refinement. Conditioned on classification and localization quality scores, we dynamically adjust the thresholds used to generate pseudo labels and reweight loss functions for each category to alleviate the class imbalance problem. Extensive experiments demonstrate that our method improves state-of-the-art SSOD performance by 1-2% and 4-6% AP on COCO and PASCAL VOC, respectively. In the limited-annotation regime, our approach improves supervised baselines by up to 10% AP using only 1-10% labeled data from COCO.
翻訳日:2021-06-02 14:21:24 公開日:2021-06-01
# 言語駆動イメージスタイル転送

Language-Driven Image Style Transfer ( http://arxiv.org/abs/2106.00178v1 )

ライセンス: Link先を確認
Tsu-Jui Fu, Xin Eric Wang, William Yang Wang(参考訳) 期待できる結果を得たにもかかわらず、事前にスタイルイメージを作成する必要があるスタイル転送は、創造性とアクセシビリティの欠如をもたらす可能性がある。 一方、人間の指示に従うことは、視覚効果アプリケーションの制御性を大幅に向上させる芸術的スタイル転送を行う最も自然な方法である。 テキストでガイドされたコンテンツイメージのスタイルを操作するために,言語駆動型画像スタイル転送(\texttt{LDIST})という新たなタスクを導入する。 そこで我々は,スタイル指示から視覚的意味を抽出し,パッチワイドなスタイル判別器で「texttt{LDIST}」を実現できるコントラスト言語ビジュアルアーティスト(CLVA)を提案する。 判別器は、スタイル画像の言語とパッチの相関や、スタイル命令を共同埋め込むための転送結果について検討する。 CLVAはさらに、コンテントイメージのコントラスト対とスタイル命令を比較して、転送結果間の相互相対性を改善する。 同じコンテンツ画像から転送された結果は、一貫したコンテンツ構造を保存できる。 さらに、同様のビジュアルセマンティクスを含むスタイル命令からの類似のスタイルパターンも提示する必要がある。 実験の結果, CLVA は有効であり, <texttt{LDIST} 上で超過渡した結果が得られることがわかった。

Despite having promising results, style transfer, which requires preparing style images in advance, may result in lack of creativity and accessibility. Following human instruction, on the other hand, is the most natural way to perform artistic style transfer that can significantly improve controllability for visual effect applications. We introduce a new task -- language-driven image style transfer (\texttt{LDIST}) -- to manipulate the style of a content image, guided by a text. We propose contrastive language visual artist (CLVA) that learns to extract visual semantics from style instructions and accomplish \texttt{LDIST} by the patch-wise style discriminator. The discriminator considers the correlation between language and patches of style images or transferred results to jointly embed style instructions. CLVA further compares contrastive pairs of content image and style instruction to improve the mutual relativeness between transfer results. The transferred results from the same content image can preserve consistent content structures. Besides, they should present analogous style patterns from style instructions that contain similar visual semantics. The experiments show that our CLVA is effective and achieves superb transferred results on \texttt{LDIST}.
翻訳日:2021-06-02 14:21:04 公開日:2021-06-01
# 少数の意味セマンティクスセグメンテーションに対するアンチエイリアシングセマンティクス再構成

Anti-aliasing Semantic Reconstruction for Few-Shot Semantic Segmentation ( http://arxiv.org/abs/2106.00184v1 )

ライセンス: Link先を確認
Binghao Liu and Yao Ding and Jianbin Jiao and Xiangyang Ji and Qixiang Ye(参考訳) 初歩的な意味セグメンテーションの進展を促すために、初歩的な例で新しいクラスを表現するのに十分なトレーニングデータを持つベースクラスで学習した機能を活用した。 しかし、この特徴共有機構は必然的に、セマンティック概念の類似した構成を持つ場合、新しいクラス間のセマンティックエイリアスを引き起こす。 本稿では,セグメンテーションを意味的再構成問題として再構成し,新しいクラス再構築のためのクラスレベルのセグメンテーション空間にまたがる一連の基底ベクトルに基底クラス特徴を変換する。 対照損失を導入することにより,クラス間の意味的エイリアスを最小化しつつ,基底ベクトルの直交性を最大化する。 再構成された表現空間内では、クエリ特徴をサポートベクタに投影し、正確なセマンティックアクティベーションを行うことにより、他のクラスからの干渉をさらに抑制する。 提案手法はアンチエイリアス・セマンティック・リストラクション (ASR) と呼ばれ, 数発の学習問題に対する体系的かつ解釈可能な解決策を提供する。 PASCAL VOCとMS COCOデータセットの大規模な実験により、ASRは以前の研究と比べて強い結果が得られることが示された。

Encouraging progress in few-shot semantic segmentation has been made by leveraging features learned upon base classes with sufficient training data to represent novel classes with few-shot examples. However, this feature sharing mechanism inevitably causes semantic aliasing between novel classes when they have similar compositions of semantic concepts. In this paper, we reformulate few-shot segmentation as a semantic reconstruction problem, and convert base class features into a series of basis vectors which span a class-level semantic space for novel class reconstruction. By introducing contrastive loss, we maximize the orthogonality of basis vectors while minimizing semantic aliasing between classes. Within the reconstructed representation space, we further suppress interference from other classes by projecting query features to the support vector for precise semantic activation. Our proposed approach, referred to as anti-aliasing semantic reconstruction (ASR), provides a systematic yet interpretable solution for few-shot learning problems. Extensive experiments on PASCAL VOC and MS COCO datasets show that ASR achieves strong results compared with the prior works.
翻訳日:2021-06-02 14:20:43 公開日:2021-06-01
# 不均衡半教師学習における再サンプリングの再考

Rethinking Re-Sampling in Imbalanced Semi-Supervised Learning ( http://arxiv.org/abs/2106.00209v1 )

ライセンス: Link先を確認
Ju He, Adam Kortylewski, Shaokang Yang, Shuai Liu, Cheng Yang, Changhu Wang, Alan Yuille(参考訳) Semi-Supervised Learning (SSL)はラベル付きデータが不足している場合にラベル付きデータを利用する強力な能力を示している。 しかし、ほとんどのSSLアルゴリズムは、クラス分布がトレーニングセットとテストセットの両方で均衡しているという仮定の下で機能する。 本研究では,クラス不均衡データに対するSSLの問題について考察する。 特に、表現と分類器の訓練を分離し、分類器を含むネットワーク全体のトレーニングや特徴抽出器のみを微調整する際に異なるデータ再サンプリング手法の効果を体系的に検討する。 特にラベルなしデータのマイノリティクラスにおいて、疑似ラベルの精度を高めるため、データ再サンプリングは優れた分類法を学ぶ上で非常に重要であることがわかった。 興味深いことに、特徴抽出器をトレーニングする際、むしろ逆にデータ再サンプリングが特徴抽出器のトレーニングを損なう場合、正確な擬似ラベルは役に立たない。 この発見は、間違った擬似ラベルがSSLのモデルパフォーマンスを常に損なうという一般的な直観に反している。 これらの結果を踏まえて,単一データ再サンプリング戦略の現在のパラダイムを再考し,クラス不均衡データに対するsslの単純かつ高効率なbis戦略を開発することを提案する。 BiSは機能抽出器と分類器をトレーニングするための2つの異なる再サンプリング戦略を実装し、この分離されたトレーニングをエンドツーエンドフレームワークに統合する。

Semi-Supervised Learning (SSL) has shown its strong ability in utilizing unlabeled data when labeled data is scarce. However, most SSL algorithms work under the assumption that the class distributions are balanced in both training and test sets. In this work, we consider the problem of SSL on class-imbalanced data, which better reflects real-world situations but has only received limited attention so far. In particular, we decouple the training of the representation and the classifier, and systematically investigate the effects of different data re-sampling techniques when training the whole network including a classifier as well as fine-tuning the feature extractor only. We find that data re-sampling is of critical importance to learn a good classifier as it increases the accuracy of the pseudo-labels, in particular for the minority classes in the unlabeled data. Interestingly, we find that accurate pseudo-labels do not help when training the feature extractor, rather contrariwise, data re-sampling harms the training of the feature extractor. This finding is against the general intuition that wrong pseudo-labels always harm the model performance in SSL. Based on these findings, we suggest to re-think the current paradigm of having a single data re-sampling strategy and develop a simple yet highly effective Bi-Sampling (BiS) strategy for SSL on class-imbalanced data. BiS implements two different re-sampling strategies for training the feature extractor and the classifier and integrates this decoupled training into an end-to-end framework... Code will be released at https://github.com/T ACJu/Bi-Sampling.
翻訳日:2021-06-02 14:20:25 公開日:2021-06-01
# EV-VGCNN:イベントベースオブジェクト分類のためのVoxel Graph CNN

EV-VGCNN: A Voxel Graph CNN for Event-based Object Classification ( http://arxiv.org/abs/2106.00216v1 )

ライセンス: Link先を確認
Yongjian Deng, Hao Chen, Huiying Chen, Youfu Li(参考訳) イベントカメラは、少ない強度変化を報告し、ポータブルデバイス上での視覚知覚と理解のための低消費電力、高ダイナミックレンジ、高応答速度の顕著な利点を目立たせる。 イベントベースの学習手法は、従来型の2d学習アルゴリズムを適用するために、イベントを高密度フレームベースの表現に統合することで、オブジェクト認識において大きな成功を収めている。 しかし、これらの手法は、スパース・トゥ・ディエンス変換と重厚大容量モデルを必要とするモデルにおいて、多くの冗長な情報を導入し、実際の応用におけるイベントカメラの可能性を制限する。 To address the core problem of balancing accuracy and model complexity for event-based classification models, we (1) construct graph representations for event data to utilize their sparsity nature better and design a lightweight end-to-end graph neural network (EV-VGCNN) for classification; (2) use voxel-wise vertices rather than traditional point-wise methods to incorporate the information from more points; (3) introduce a multi-scale feature relational layer (MFRL) to extract semantic and motion cues from each vertex adaptively concerning its distances to neighbors. 総合的な実験により,本手法は20倍近いパラメータ削減(約0.84Mパラメータ)を達成しつつ,最先端の分類精度を向上することが示された。

Event cameras report sparse intensity changes and hold noticeable advantages of low power consumption, high dynamic range, and high response speed for visual perception and understanding on portable devices. Event-based learning methods have recently achieved massive success on object recognition by integrating events into dense frame-based representations to apply traditional 2D learning algorithms. However, these approaches introduce much redundant information during the sparse-to-dense conversion and necessitate models with heavy-weight and large capacities, limiting the potential of event cameras on real-life applications. To address the core problem of balancing accuracy and model complexity for event-based classification models, we (1) construct graph representations for event data to utilize their sparsity nature better and design a lightweight end-to-end graph neural network (EV-VGCNN) for classification; (2) use voxel-wise vertices rather than traditional point-wise methods to incorporate the information from more points; (3) introduce a multi-scale feature relational layer (MFRL) to extract semantic and motion cues from each vertex adaptively concerning its distances to neighbors. Comprehensive experiments show that our approach advances state-of-the-art classification accuracy while achieving nearly 20 times parameter reduction (merely 0.84M parameters).
翻訳日:2021-06-02 14:20:00 公開日:2021-06-01
# 自己学習に基づくトランスダクティブゼロショット学習のためのハードネスサンプリング

Hardness Sampling for Self-Training Based Transductive Zero-Shot Learning ( http://arxiv.org/abs/2106.00264v1 )

ライセンス: Link先を確認
Liu Bo, Qiulei Dong, Zhanyi Hu(参考訳) 既存のZSL作業におけるドメインシフト問題を緩和するトランスダクティブゼロショット学習(T-ZSL)が近年注目を集めている。 しかし、T-ZSLのオープンな問題として、未確認クラスのサンプルを効果的にトレーニングに利用する方法が残っている。 そこで本研究では,zsl法で見られる不均一な予測現象に基づいて,訓練過程における難易度が異なる非検出クラスサンプルの役割を経験的に解析し,3つの観察結果を得た。 そこで本研究では,与えられた非知覚型データセットから多様かつ硬質なサンプルのサブセットを選択するための2つのハードネスサンプリング手法を提案する。 第1はモデル予測のクラスレベル周波数に基づいてサンプルを識別し、第2は探索された事前推定アルゴリズムにより推定された近似クラスを介してクラス周波数を正規化することにより前者を強化する。 最後に, 任意の誘導型ZSL法をシームレスに組み込むことができ, ハードネスサンプリング手法で選択した未確認のサンプルを反復的に学習できるSTHSという, T-ZSL用自己学習フレームワークを設計した。 我々はSTHSフレームワークに2つの典型的なZSL手法を導入し、得られたT-ZSL法が3つの公開ベンチマークで多くの最先端手法より優れていることを示す。 また,既存の一般化ZSL (T-GZSL) 法を学習するためには,未確認のデータセットを別々に使用し,GZSL タスクには厳密でない点に留意する。 したがって、より厳密なT-GZSLデータ設定を提案し、提案したSTHSフレームワークをT-GZSLに導入することにより、この設定の競争ベースラインを確立する。

Transductive zero-shot learning (T-ZSL) which could alleviate the domain shift problem in existing ZSL works, has received much attention recently. However, an open problem in T-ZSL: how to effectively make use of unseen-class samples for training, still remains. Addressing this problem, we first empirically analyze the roles of unseen-class samples with different degrees of hardness in the training process based on the uneven prediction phenomenon found in many ZSL methods, resulting in three observations. Then, we propose two hardness sampling approaches for selecting a subset of diverse and hard samples from a given unseen-class dataset according to these observations. The first one identifies the samples based on the class-level frequency of the model predictions while the second enhances the former by normalizing the class frequency via an approximate class prior estimated by an explored prior estimation algorithm. Finally, we design a new Self-Training framework with Hardness Sampling for T-ZSL, called STHS, where an arbitrary inductive ZSL method could be seamlessly embedded and it is iteratively trained with unseen-class samples selected by the hardness sampling approach. We introduce two typical ZSL methods into the STHS framework and extensive experiments demonstrate that the derived T-ZSL methods outperform many state-of-the-art methods on three public benchmarks. Besides, we note that the unseen-class dataset is separately used for training in some existing transductive generalized ZSL (T-GZSL) methods, which is not strict for a GZSL task. Hence, we suggest a more strict T-GZSL data setting and establish a competitive baseline on this setting by introducing the proposed STHS framework to T-GZSL.
翻訳日:2021-06-02 14:19:41 公開日:2021-06-01
# 深部特徴再構成を用いた半教師付き距離推定

Semi-Supervised Disparity Estimation with Deep Feature Reconstruction ( http://arxiv.org/abs/2106.00318v1 )

ライセンス: Link先を確認
Julia Guerrero-Viu, Sergio Izquierdo, Philipp Schr\"oppel and Thomas Brox(参考訳) 差分推定におけるディープラーニングの成功にもかかわらず、領域一般化のギャップは依然として問題である。 本稿では,ラベル付き合成データの教師付きトレーニングとラベルなし実データに対する自己教師付きトレーニングを共同で行うことで,dispnetを実世界ドメインに適応させる半教師付きパイプラインを提案する。 さらに, 広範に使用されている測光損失の限界を考慮し, 深部特徴再構成の影響を, 差分推定のための有望な監視信号として分析する。

Despite the success of deep learning in disparity estimation, the domain generalization gap remains an issue. We propose a semi-supervised pipeline that successfully adapts DispNet to a real-world domain by joint supervised training on labeled synthetic data and self-supervised training on unlabeled real data. Furthermore, accounting for the limitations of the widely-used photometric loss, we analyze the impact of deep feature reconstruction as a promising supervisory signal for disparity estimation.
翻訳日:2021-06-02 14:19:06 公開日:2021-06-01
# 点雲の遠隔登録のための一貫した二流ネットワーク

Consistent Two-Flow Network for Tele-Registration of Point Clouds ( http://arxiv.org/abs/2106.00329v1 )

ライセンス: Link先を確認
Zihao Yan, Zimu Yi, Ruizhen Hu, Niloy J. Mitra, Daniel Cohen-Or, Hui Huang(参考訳) 部分観測の厳密な登録は、様々な応用分野における根本的な問題である。 コンピュータグラフィックスでは、走査装置によって生成される2つの部分点雲間の登録に特に注意が払われている。 最先端の登録技術は、2つのポイントクラウド間のオーバーラップ領域が小さく、スキャンペア間のオーバーラップがなければ、完全に失敗する。 本稿では,この問題を緩和し,任意のポーズで提示された点群間の登録を可能にし,重なりがほとんどあるいは全くない,遠隔登録と呼ばれる設定を学習ベースで行う手法を提案する。 本手法は,一群の形状の先行を学習し,部分的な形状を完遂できる新しいニューラルネットワーク設計に基づいている。 キーとなるアイデアは、登録と完了タスクを互いに強化する方法で組み合わせることです。 特に,登録ネットワークと完了ネットワークを,登録・完了フローと完全登録フローの2つの結合フローを用いて同時に訓練し,両フローが一貫した結果を生み出すように促す。 個別のフローと比較すると、この2フロートレーニングは堅牢で信頼性の高い遠隔登録につながり、したがって登録されたスキャンを完了したより良いポイントクラウド予測につながる。 また、ニューラルネットワークの各コンポーネントは、完了と登録の両方において最先端の手法よりも優れています。 我々はさらに,いくつかのアブレーション研究によりネットワークを解析し,その性能を合成と実世界の両方の多数の部分点雲上で実証した。

Rigid registration of partial observations is a fundamental problem in various applied fields. In computer graphics, special attention has been given to the registration between two partial point clouds generated by scanning devices. State-of-the-art registration techniques still struggle when the overlap region between the two point clouds is small, and completely fail if there is no overlap between the scan pairs. In this paper, we present a learning-based technique that alleviates this problem, and allows registration between point clouds, presented in arbitrary poses, and having little or even no overlap, a setting that has been referred to as tele-registration. Our technique is based on a novel neural network design that learns a prior of a class of shapes and can complete a partial shape. The key idea is combining the registration and completion tasks in a way that reinforces each other. In particular, we simultaneously train the registration network and completion network using two coupled flows, one that register-and-complet e, and one that complete-and-registe r, and encourage the two flows to produce a consistent result. We show that, compared with each separate flow, this two-flow training leads to robust and reliable tele-registration, and hence to a better point cloud prediction that completes the registered scans. It is also worth mentioning that each of the components in our neural network outperforms state-of-the-art methods in both completion and registration. We further analyze our network with several ablation studies and demonstrate its performance on a large number of partial point clouds, both synthetic and real-world, that have only small or no overlap.
翻訳日:2021-06-02 14:18:59 公開日:2021-06-01
# Transformer-Encoder Deep Features を用いた高能率クロスプラットフォームビジュアルテキスト検索に向けて

Towards Efficient Cross-Modal Visual Textual Retrieval using Transformer-Encoder Deep Features ( http://arxiv.org/abs/2106.00358v1 )

ライセンス: Link先を確認
Nicola Messina, Giuseppe Amato, Fabrizio Falchi, Claudio Gennaro, St\'ephane Marchand-Maillet(参考訳) クロスモーダル検索は、クエリや検索対象を異なるモダリティに関連付けることでユーザエクスペリエンスを向上させるため、現代の検索エンジンにおいて重要な機能である。 本稿では,ある文(画像検索)の関連画像や,ある画像(画像検索)の関連文を効率的に見つけることを目的とした画像文検索タスクに着目した。 コンピュータビジョン文献は、注意と自己注意機構を備えたディープニューラルネットワークを用いた画像文マッチングタスクにおける最良の結果を報告する。 データセット全体の逐次スキャンを行い,検索タスクのマッチング性能を評価する。 この方法は画像や字幕の数が増えるほどスケールが良くない。 本研究では,画像テキストマッチングのための最先端のディープラーニングアーキテクチャから抽出する,スパース化された深層マルチモーダル特徴を生成するための,さまざまな前処理手法について検討する。 我々の主な目的は、複雑なマルチモーダル記述の効率的な索引付けのための経路を敷設することである。 我々は最近導入されたTERNアーキテクチャを画像文特徴抽出器として利用する。 画像全体と文を記述した固定サイズ1024-dベクターと、2つのモーダル(画像領域と文語)の様々な構成要素を記述する可変長1024-dベクターを作成するように設計されている。 これらのベクトルはすべて、TERN設計によって同じ共通空間に置かれるように強制される。 本実験では,本手法の予備実験を行い,本研究の方向性についてさらなる実験を行うことを提案する。

Cross-modal retrieval is an important functionality in modern search engines, as it increases the user experience by allowing queries and retrieved objects to pertain to different modalities. In this paper, we focus on the image-sentence retrieval task, where the objective is to efficiently find relevant images for a given sentence (image-retrieval) or the relevant sentences for a given image (sentence-retrieval) . Computer vision literature reports the best results on the image-sentence matching task using deep neural networks equipped with attention and self-attention mechanisms. They evaluate the matching performance on the retrieval task by performing sequential scans of the whole dataset. This method does not scale well with an increasing amount of images or captions. In this work, we explore different preprocessing techniques to produce sparsified deep multi-modal features extracting them from state-of-the-art deep-learning architectures for image-text matching. Our main objective is to lay down the paths for efficient indexing of complex multi-modal descriptions. We use the recently introduced TERN architecture as an image-sentence features extractor. It is designed for producing fixed-size 1024-d vectors describing whole images and sentences, as well as variable-length sets of 1024-d vectors describing the various building components of the two modalities (image regions and sentence words respectively). All these vectors are enforced by the TERN design to lie into the same common space. Our experiments show interesting preliminary results on the explored methods and suggest further experimentation in this important research direction.
翻訳日:2021-06-02 14:18:35 公開日:2021-06-01
# ネットワーク活性化の自然統計と知識蒸留への示唆

Natural Statistics of Network Activations and Implications for Knowledge Distillation ( http://arxiv.org/abs/2106.00368v1 )

ライセンス: Link先を確認
Michael Rotman and Lior Wolf(参考訳) 自然画像統計の研究に類似するものとして,様々な層におけるディープニューラルネットワークの活性化の自然統計について検討する。 ご覧の通り、これらの統計は画像統計と同様、権力法に従っている。 また,解析的にも経験的にも,このパワー法則の指数が線形速度で増加することを示した。 発見の直接的意味として,我々は知識蒸留(KD)を行う方法を提案する。 従来のKD手法では教師ネットワークのロジットを考慮しているが,近年ではアクティベーションマップによる性能向上が図られている。 しかし、これは画像の比較に適したメトリクスを使用します。 本稿では,中間活性化写像のスペクトル特性に基づく2つの損失項を提案する。 提案手法は,複数の画像認識KDベンチマークにおける技術結果の状態を求める。

In a matter that is analog to the study of natural image statistics, we study the natural statistics of the deep neural network activations at various layers. As we show, these statistics, similar to image statistics, follow a power law. We also show, both analytically and empirically, that with depth the exponent of this power law increases at a linear rate. As a direct implication of our discoveries, we present a method for performing Knowledge Distillation (KD). While classical KD methods consider the logits of the teacher network, more recent methods obtain a leap in performance by considering the activation maps. This, however, uses metrics that are suitable for comparing images. We propose to employ two additional loss terms that are based on the spectral properties of the intermediate activation maps. The proposed method obtains state of the art results on multiple image recognition KD benchmarks.
翻訳日:2021-06-02 14:18:11 公開日:2021-06-01
# DLA-Net: 大規模建物ファサードポイントクラウドのセマンティックセグメンテーションのためのデュアルローカルアテンション特徴の学習

DLA-Net: Learning Dual Local Attention Features for Semantic Segmentation of Large-Scale Building Facade Point Clouds ( http://arxiv.org/abs/2106.00376v1 )

ライセンス: Link先を確認
Yanfei Su, Weiquan Liu, Zhimin Yuan, Ming Cheng, Zhihong Zhang, Xuelun Shen, Cheng Wang(参考訳) 建物ファサードのセマンティックセグメンテーションは、都市建物の再建や損傷評価など、様々な用途において重要である。 細粒度のビルディングファサードに関連する3dポイントクラウドデータセットが不足しているため、最初の大規模ビルディングファサードポイントクラウド ベンチマークデータセットをセマンティックセグメンテーションのために構築する。 既存のセマンティックセグメンテーションの方法は、点雲の局所的な近傍情報を完全にはマイニングできない。 本稿では,dlaと呼ばれる2つの局所的注意特徴を学習する学習可能な注意モジュールを提案する。 提案したDLAモジュールは、自己注意ブロックと注意プールブロックの2つのブロックから構成されており、どちらも拡張された位置符号化ブロックを埋め込んでいる。 DLAモジュールは、ポイントクラウドセグメンテーションのために、様々なネットワークアーキテクチャに簡単に組み込むことができ、自然界では、DLA-Netと呼ばれるエンコーダデコーダアーキテクチャを持つ新しい3Dセグメンテーションネットワークとなる。 構築したファサードデータセットの大規模な実験結果から,提案したDLA-Netは,セマンティックセグメンテーションの最先端手法よりも優れた性能を示すことが示された。

Semantic segmentation of building facade is significant in various applications, such as urban building reconstruction and damage assessment. As there is a lack of 3D point clouds datasets related to the fine-grained building facade, we construct the first large-scale building facade point clouds benchmark dataset for semantic segmentation. The existing methods of semantic segmentation cannot fully mine the local neighborhood information of point clouds. Addressing this problem, we propose a learnable attention module that learns Dual Local Attention features, called DLA in this paper. The proposed DLA module consists of two blocks, including the self-attention block and attentive pooling block, which both embed an enhanced position encoding block. The DLA module could be easily embedded into various network architectures for point cloud segmentation, naturally resulting in a new 3D semantic segmentation network with an encoder-decoder architecture, called DLA-Net in this work. Extensive experimental results on our constructed building facade dataset demonstrate that the proposed DLA-Net achieves better performance than the state-of-the-art methods for semantic segmentation.
翻訳日:2021-06-02 14:17:59 公開日:2021-06-01
# パノDR:屋内シーンの球状パノラマが消滅

PanoDR: Spherical Panorama Diminished Reality for Indoor Scenes ( http://arxiv.org/abs/2106.00446v1 )

ライセンス: Link先を確認
V. Gkitsas, V. Sterzentsenko, N. Zioulis, G. Albanis, D. Zarpalas(参考訳) 屋内スキャンを民主化する商用360^\circ$カメラの普及により、内部空間の再設計などの新しい応用への関心が高まっている。 縮小現実(英語版) (dr) はそのような応用要件を満たし、シーン内の既存のオブジェクトを取り除き、実質的には偽りの塗りつぶしタスクに翻訳する。 近年のデータ駆動塗布の進歩は、現実的なサンプルの生成において顕著な進歩を見せているが、現実の地図構造による結果の生成には制約がない。 屋内(再計画)アプリケーションにおける「現実」を保つためには,シーンの構造保存が重要である。 そこで本研究では,室内シーンの構造を最初に予測し,それを用いて同一シーンの空-背景のみ-表現の再構築を導くモデルを提案する。 dr用に修正されたstructured3dデータセットのバージョンで、他の最先端の手法をトレーニングして比較し、定量的測定と質的結果の両方において優れた結果を示しているが、より興味深いことに、このアプローチはより高速な収束率を示している。 コードとモデルはhttps://vcl3d.github .io/panodr/で入手できる。

The rising availability of commercial $360^\circ$ cameras that democratize indoor scanning, has increased the interest for novel applications, such as interior space re-design. Diminished Reality (DR) fulfills the requirement of such applications, to remove existing objects in the scene, essentially translating this to a counterfactual inpainting task. While recent advances in data-driven inpainting have shown significant progress in generating realistic samples, they are not constrained to produce results with reality mapped structures. To preserve the `reality' in indoor (re-)planning applications, the scene's structure preservation is crucial. To ensure structure-aware counterfactual inpainting, we propose a model that initially predicts the structure of an indoor scene and then uses it to guide the reconstruction of an empty -- background only -- representation of the same scene. We train and compare against other state-of-the-art methods on a version of the Structured3D dataset modified for DR, showing superior results in both quantitative metrics and qualitative results, but more interestingly, our approach exhibits a much faster convergence rate. Code and models are available at https://vcl3d.github .io/PanoDR/ .
翻訳日:2021-06-02 14:17:37 公開日:2021-06-01
# プロトタイプを用いたセマンティックセグメンテーションの異常検出

Detecting Anomalies in Semantic Segmentation with Prototypes ( http://arxiv.org/abs/2106.00472v1 )

ライセンス: Link先を確認
Dario Fontanel, Fabio Cermelli, Massimiliano Mancini, Barbara Caputo(参考訳) 従来のセマンティックセグメンテーションメソッドは、テスト時にトレーニングセットに存在するクラスのみを認識することができる。 これは重要な制限であり、特にインテリジェントな自律システムに搭載されたセマンティックセグメンテーションアルゴリズムは、現実的な設定でデプロイされる。 システムがトレーニング時に何つのクラスを見たかに関わらず、予期せぬ未知のオブジェクトがテスト時に現れることは避けられない。 このような異常を特定することの失敗は、現実世界に配備された場合、そのようなセグメンテーションモデルを備えた自律エージェントの不正確で危険な行動を引き起こす可能性がある。 異常セグメンテーション技術の現状は生成モデルを用いており、訓練中に見えないパターンを再構築することができない。 しかし、これらのモデルのトレーニングは高価であり、生成されたアーティファクトは誤った異常を生み出す可能性がある。 本稿では,異なる経路をとり,プロトタイプ学習による異常セグメンテーションに対処することを提案する。 我々の直感では、異常画素はモデルで知られている全てのクラスプロトタイプと異なるものである。 学習データから,コサイン類似度に基づく分類器を用いて,軽量にクラスプロトタイプを抽出する。 また,StreetHazards実験の結果,計算オーバーヘッドの低減にもかかわらず,従来の手法に比べて大きな差があることがわかった。 コードはhttps://github.com/D arioFontanel/PAnSで入手できる。

Traditional semantic segmentation methods can recognize at test time only the classes that are present in the training set. This is a significant limitation, especially for semantic segmentation algorithms mounted on intelligent autonomous systems, deployed in realistic settings. Regardless of how many classes the system has seen at training time, it is inevitable that unexpected, unknown objects will appear at test time. The failure in identifying such anomalies may lead to incorrect, even dangerous behaviors of the autonomous agent equipped with such segmentation model when deployed in the real world. Current state of the art of anomaly segmentation uses generative models, exploiting their incapability to reconstruct patterns unseen during training. However, training these models is expensive, and their generated artifacts may create false anomalies. In this paper we take a different route and we propose to address anomaly segmentation through prototype learning. Our intuition is that anomalous pixels are those that are dissimilar to all class prototypes known by the model. We extract class prototypes from the training data in a lightweight manner using a cosine similarity-based classifier. Experiments on StreetHazards show that our approach achieves the new state of the art, with a significant margin over previous works, despite the reduced computational overhead. Code is available at https://github.com/D arioFontanel/PAnS.
翻訳日:2021-06-02 14:17:17 公開日:2021-06-01
# 赤外線小ターゲット検出のためのDense Nested Attention Network

Dense Nested Attention Network for Infrared Small Target Detection ( http://arxiv.org/abs/2106.00487v1 )

ライセンス: Link先を確認
Boyang Li, Chao Xiao, Longguang Wang, Yingqian Wang, Zaiping Lin, Miao Li, Wei An, Yulan Guo(参考訳) 単一フレーム赤外線小ターゲット(SIRST)検出は、小さなターゲットを乱雑な背景から分離することを目的としている。 ディープラーニングの進歩により、cnnベースの手法は強力なモデリング能力により、汎用オブジェクト検出に有望な結果をもたらした。 しかし、既存のCNNベースの手法は、ネットワーク内のプール層が深い層内のターゲットを失う可能性があるため、赤外線小ターゲットに対して直接適用することはできない。 この問題に対処するため,本論文では,高密度なネスト型注意ネットワーク(DNANet)を提案する。 具体的には,高レベルかつ低レベルの特徴間のプログレッシブな相互作用を実現するために,高密度ネスト型インタラクティブモジュール(DNIM)を設計する。 DNIMにおける繰り返しの相互作用により、深い層内の赤外線小ターゲットを維持することができる。 DNIMに基づいて,多レベル特徴を適応的に拡張するカスケードチャネルと空間アテンションモジュール(CSAM)を提案する。 我々のDNANetでは、小さなターゲットのコンテキスト情報をうまく組み込んで、繰り返し融合と拡張によって完全に活用することができる。 さらに,赤外線小目標データセット(nudt-sirst)を開発し,総合的な性能評価を行うための評価指標を提案する。 公開と自己開発の両方の実験により,本手法の有効性が示された。 本手法は他の最先端手法と比較して,検出確率 (Pd), 偽アラーム率 (Fa), 結合の交叉率 (IoU) の点で, 性能が向上する。

Single-frame infrared small target (SIRST) detection aims at separating small targets from clutter backgrounds. With the advances of deep learning, CNN-based methods have yielded promising results in generic object detection due to their powerful modeling capability. However, existing CNN-based methods cannot be directly applied for infrared small targets since pooling layers in their networks could lead to the loss of targets in deep layers. To handle this problem, we propose a dense nested attention network (DNANet) in this paper. Specifically, we design a dense nested interactive module (DNIM) to achieve progressive interaction among high-level and low-level features. With the repeated interaction in DNIM, infrared small targets in deep layers can be maintained. Based on DNIM, we further propose a cascaded channel and spatial attention module (CSAM) to adaptively enhance multi-level features. With our DNANet, contextual information of small targets can be well incorporated and fully exploited by repeated fusion and enhancement. Moreover, we develop an infrared small target dataset (namely, NUDT-SIRST) and propose a set of evaluation metrics to conduct comprehensive performance evaluation. Experiments on both public and our self-developed datasets demonstrate the effectiveness of our method. Compared to other state-of-the-art methods, our method achieves better performance in terms of probability of detection (Pd), false-alarm rate (Fa), and intersection of union (IoU).
翻訳日:2021-06-02 14:16:58 公開日:2021-06-01
# 視覚前訓練作業における自己の多様性と不変性を探る

Exploring the Diversity and Invariance in Yourself for Visual Pre-Training Task ( http://arxiv.org/abs/2106.00537v1 )

ライセンス: Link先を確認
Longhui Wei, Lingxi Xie, Wengang Zhou, Houqiang Li, Qi Tian(参考訳) 近年,自己指導型学習手法は視覚前訓練において顕著な成功を収めている。 各画像の異なる拡張ビューをまとめたり、あるいは他の新しいメカニズムを取り入れることで、教師なしの知識を習得し、事前学習モデルの転送性能を大幅に向上させることができる。 しかし、これらの作品は表現の崩壊問題を避けることはできない。つまり、それらは限られた領域のみに焦点を当てたり、画像内の全く異なる領域で抽出された特徴がほぼ同じである。 一般に、この問題は、事前学習モデルが画像内の複数の粒度の情報を十分に記述できないため、転送性能の上限がさらに制限される。 この問題を軽減するため,本稿では,e-diyにおける多様性と不変性を検討するという,単純かつ効果的なメカニズムを紹介する。 E-DIYは、各拡張ビュー内の最も異なる領域を移動させることで、抽出された領域レベルの特徴の多様性を維持できる。 同じ画像の異なる拡張ビューから最も類似した領域を抽出することで、E-DIYは領域レベルの機能の堅牢性を確保することができる。 上記の多様性と不変性探索機構から、E-DIYは各画像内の多粒度視覚情報を最大限に抽出する。 例えば、COCO上の強力なベースラインであるBYOLに比べて2.1%改善され、R50-C4バックボーンと1X学習スケジュールを微調整したMask R-CNNが実現された。

Recently, self-supervised learning methods have achieved remarkable success in visual pre-training task. By simply pulling the different augmented views of each image together or other novel mechanisms, they can learn much unsupervised knowledge and significantly improve the transfer performance of pre-training models. However, these works still cannot avoid the representation collapse problem, i.e., they only focus on limited regions or the extracted features on totally different regions inside each image are nearly the same. Generally, this problem makes the pre-training models cannot sufficiently describe the multi-grained information inside images, which further limits the upper bound of their transfer performance. To alleviate this issue, this paper introduces a simple but effective mechanism, called Exploring the Diversity and Invariance in Yourself E-DIY. By simply pushing the most different regions inside each augmented view away, E-DIY can preserve the diversity of extracted region-level features. By pulling the most similar regions from different augmented views of the same image together, E-DIY can ensure the robustness of region-level features. Benefited from the above diversity and invariance exploring mechanism, E-DIY maximally extracts the multi-grained visual information inside each image. Extensive experiments on downstream tasks demonstrate the superiority of our proposed approach, e.g., there are 2.1% improvements compared with the strong baseline BYOL on COCO while fine-tuning Mask R-CNN with the R50-C4 backbone and 1X learning schedule.
翻訳日:2021-06-02 14:16:34 公開日:2021-06-01
# 変圧器ネットワークと拡張情報を用いた都市シナリオにおける車両軌跡予測

Predicting Vehicles Trajectories in Urban Scenarios with Transformer Networks and Augmented Information ( http://arxiv.org/abs/2106.00559v1 )

ライセンス: Link先を確認
A. Quintanar, D. Fern\'andez-Llorca, I. Parra, R. Izquierdo, M. A. Sotelo(参考訳) 道路利用者の行動を理解することは,軌道予測システムの開発に不可欠である。 この文脈では、最新の進歩は繰り返しの構造に焦点を合わせ、現場に関わるエージェント間の社会的相互作用を確立している。 近年では、変圧器ネットワークに基づく歩行者軌道予測や位置情報を用いた簡易な構造も導入されている。 それぞれのエージェントの軌道の個々のモデリングを、複雑な相互作用項を使わずに別々に行うことができる。 提案モデルでは, 都市シナリオにおける車両軌道予測問題に最大5秒間, 付加データ(位置と方向)を付加することにより, これらの単純な構造を利用する。 さらに、最近のデータセット(inD, rounD, highD, InterAction)を使用して、ハイウェイ、交差点、ラウンドアバウトを含むさまざまなタイプのシナリオ間で、クロスパフォーマンス分析を行う。 我々のモデルは最先端の成果を達成し、異なるタイプの都市環境に柔軟で適応可能であることを証明している。

Understanding the behavior of road users is of vital importance for the development of trajectory prediction systems. In this context, the latest advances have focused on recurrent structures, establishing the social interaction between the agents involved in the scene. More recently, simpler structures have also been introduced for predicting pedestrian trajectories, based on Transformer Networks, and using positional information. They allow the individual modelling of each agent's trajectory separately without any complex interaction terms. Our model exploits these simple structures by adding augmented data (position and heading), and adapting their use to the problem of vehicle trajectory prediction in urban scenarios in prediction horizons up to 5 seconds. In addition, a cross-performance analysis is performed between different types of scenarios, including highways, intersections and roundabouts, using recent datasets (inD, rounD, highD and INTERACTION). Our model achieves state-of-the-art results and proves to be flexible and adaptable to different types of urban contexts.
翻訳日:2021-06-02 14:16:10 公開日:2021-06-01
# メタプロトタイプを用いたプレエンハンスフットショットセグメンテーション

Prior-Enhanced Few-Shot Segmentation with Meta-Prototypes ( http://arxiv.org/abs/2106.00572v1 )

ライセンス: Link先を確認
Jian-Wei Zhang, Lei Lv, Yawei Luo, Hao-Zhe Feng, Yi Yang, Wei Chen(参考訳) Few-shot segmentation~(FSS)のパフォーマンスは、エピソードトレーニングとクラスワイドプロトタイプの導入によって広範囲に向上している。 しかし,FSS問題は,(1)モデルがタスク非関連情報に気を散らすこと,(2)単一プロトタイプの表現能力に制限があること,(3)クラス関連プロトタイプは基本クラスの事前の知識を無視すること,の3つの制約により,依然として困難なままである。 これらの制約に対処するために,メタプロトタイプを用いた事前拡張ネットワークを提案する。 pre-enhanced networkは、機能抽出における support and query (pseudo-) ラベルを活用し、モデルが前景オブジェクトのタスク関連の特徴に焦点を合わせ、教師付き知識の欠如により多くのノイズを抑制する。 さらに,階層的特徴をエンコードし,クラスに依存しない構造情報を学習するために,複数のメタプロトタイプを導入する。 階層的特徴は決定境界を強調表示し,ハードピクセルに着目し,基本クラスから学習した構造情報は新規クラスの事前知識として扱われる。 実験の結果, PASCAL-$5^i$およびCOCO-$20^i$では平均IoUスコアが60.79%, 41.16%となり, 5ショット設定では3.49%, 5.64%向上した。 さらに,上記2つのベンチマークにおいて,5ショット精度を3.73%,10.32%向上させた。 このメソッドのソースコードはhttps://github.com/j arvis73/pempで入手できます。

Few-shot segmentation~(FSS) performance has been extensively promoted by introducing episodic training and class-wise prototypes. However, the FSS problem remains challenging due to three limitations: (1) Models are distracted by task-unrelated information; (2) The representation ability of a single prototype is limited; (3) Class-related prototypes ignore the prior knowledge of base classes. We propose the Prior-Enhanced network with Meta-Prototypes to tackle these limitations. The prior-enhanced network leverages the support and query (pseudo-) labels in feature extraction, which guides the model to focus on the task-related features of the foreground objects, and suppress much noise due to the lack of supervised knowledge. Moreover, we introduce multiple meta-prototypes to encode hierarchical features and learn class-agnostic structural information. The hierarchical features help the model highlight the decision boundary and focus on hard pixels, and the structural information learned from base classes is treated as the prior knowledge for novel classes. Experiments show that our method achieves the mean-IoU scores of 60.79% and 41.16% on PASCAL-$5^i$ and COCO-$20^i$, outperforming the state-of-the-art method by 3.49% and 5.64% in the 5-shot setting. Moreover, comparing with 1-shot results, our method promotes 5-shot accuracy by 3.73% and 10.32% on the above two benchmarks. The source code of our method is available at https://github.com/J arvis73/PEMP.
翻訳日:2021-06-02 14:15:53 公開日:2021-06-01
# 半教師付きセマンティックセグメンテーションのためのロバスト相互学習

Robust Mutual Learning for Semi-supervised Semantic Segmentation ( http://arxiv.org/abs/2106.00609v1 )

ライセンス: Link先を確認
Pan Zhang, Bo Zhang, Ting Zhang, Dong Chen, Fang Wen(参考訳) 最近の半教師付き学習(SSL)法は一般に擬似ラベリングに基づいている。 SSL性能は擬似ラベルの品質に大きく影響されているため,疑似監視における雑音を効果的に抑制するための相互学習が提案されている。 本研究では,従来のアプローチを2つの側面で改善する頑健な相互学習を提案する。 まず、バニラ相互学習者は、モデルが均質な知識を学ぶために収束するかもしれない結合の問題に苦しむ。 この問題は,教師同士の直接の交流がないように,教師同士の相互監督を生み出すことによって解決する。 また,モデル結合の緩和には強固なデータ拡張,モデルノイズ,異種ネットワークアーキテクチャが不可欠であることを示す。 第2に,相互学習はネットワークの擬似ラベル改良能力の活用に失敗していることに気付く。 そこで,本研究では,内部知識を活用し,相互指導前の擬似ラベルを明示的に修正する自己認識を導入する。 このような自己修正と相互指導によって、学習を通して擬似ラベルの精度が向上する。 提案した頑健な相互学習は、低データ状態におけるセマンティックセグメンテーションにおける最先端のパフォーマンスを示す。

Recent semi-supervised learning (SSL) methods are commonly based on pseudo labeling. Since the SSL performance is greatly influenced by the quality of pseudo labels, mutual learning has been proposed to effectively suppress the noises in the pseudo supervision. In this work, we propose robust mutual learning that improves the prior approach in two aspects. First, the vanilla mutual learners suffer from the coupling issue that models may converge to learn homogeneous knowledge. We resolve this issue by introducing mean teachers to generate mutual supervisions so that there is no direct interaction between the two students. We also show that strong data augmentations, model noises and heterogeneous network architectures are essential to alleviate the model coupling. Second, we notice that mutual learning fails to leverage the network's own ability for pseudo label refinement. Therefore, we introduce self-rectification that leverages the internal knowledge and explicitly rectifies the pseudo labels before the mutual teaching. Such self-rectification and mutual teaching collaboratively improve the pseudo label accuracy throughout the learning. The proposed robust mutual learning demonstrates state-of-the-art performance on semantic segmentation in low-data regime.
翻訳日:2021-06-02 14:15:26 公開日:2021-06-01
# 独自の対応をブートストラップする

Bootstrap Your Own Correspondences ( http://arxiv.org/abs/2106.00677v1 )

ライセンス: Link先を確認
Mohamed El Banani, Justin Johnson(参考訳) 幾何学的特徴抽出はポイントクラウド登録パイプラインの重要なコンポーネントである。 最近の研究は、より良くよりコンパクトな3d機能を学ぶために教師あり学習をどのように活用できるかを実証している。 しかし、これらのアプローチは地道アノテーションに依存しているためスケーラビリティは制限される。 本稿では,RGB-Dビデオから視覚的・幾何学的特徴を学習する自己教師型アプローチBYOCを提案する。 我々の重要な観察は、ランダムに初期化されたcnnは私たちに良い対応を提供し、視覚と幾何学の両方の特徴の学習をブートストラップできるということです。 我々のアプローチは、ポイントクラウド登録からの古典的なアイデアと、より最近の表現学習アプローチを組み合わせたものです。 室内シーンデータセットに対するアプローチを評価し,従来型および学習済みのディスクリプタを上回りながら,現在の最先端の教師付きアプローチと競合することを見出した。

Geometric feature extraction is a crucial component of point cloud registration pipelines. Recent work has demonstrated how supervised learning can be leveraged to learn better and more compact 3D features. However, those approaches' reliance on ground-truth annotation limits their scalability. We propose BYOC: a self-supervised approach that learns visual and geometric features from RGB-D video without relying on ground-truth pose or correspondence. Our key observation is that randomly-initialized CNNs readily provide us with good correspondences; allowing us to bootstrap the learning of both visual and geometric features. Our approach combines classic ideas from point cloud registration with more recent representation learning approaches. We evaluate our approach on indoor scene datasets and find that our method outperforms traditional and learned descriptors, while being competitive with current state-of-the-art supervised approaches.
翻訳日:2021-06-02 14:15:09 公開日:2021-06-01
# 3次元物体のデータ駆動シャドウグラフシミュレーション

Data-Driven Shadowgraph Simulation of a 3D Object ( http://arxiv.org/abs/2106.00317v1 )

ライセンス: Link先を確認
Anna Willmann, Patrick Stiller, Alexander Debus, Arie Irman, Richard Pausch, Yen-Yu Chang, Michael Bussmann, Nico Hoffmann(参考訳) 本研究では,プラズマシャドウグラフのためのディープニューラルネットワークに基づく代理モデルを提案する。 数値計算法で必要となるすべての先行する電場を計算することなく、所定の時間で電場を近似できる計算コストの低い投射型代理モデルを用いて数値コードを置換する。 これは、プロジェクションベースサロゲートモデルにより、与えられた計算領域の任意の点と構成において、3次元偏微分方程式(3次元波動方程式)の解を完全なシミュレーションを実行することなく復元することができることを意味する。 このモデルでは、シミュレーションパラメータの狭い範囲におけるデータの補間問題において、再構成の質が良く、大規模な入力データに使用することができる。

In this work we propose a deep neural network based surrogate model for a plasma shadowgraph - a technique for visualization of perturbations in a transparent medium. We are substituting the numerical code by a computationally cheaper projection based surrogate model that is able to approximate the electric fields at a given time without computing all preceding electric fields as required by numerical methods. This means that the projection based surrogate model allows to recover the solution of the governing 3D partial differential equation, 3D wave equation, at any point of a given compute domain and configuration without the need to run a full simulation. This model has shown a good quality of reconstruction in a problem of interpolation of data within a narrow range of simulation parameters and can be used for input data of large size.
翻訳日:2021-06-02 14:14:07 公開日:2021-06-01
# 直交分位回帰による条件範囲の改善

Improving Conditional Coverage via Orthogonal Quantile Regression ( http://arxiv.org/abs/2106.00394v1 )

ライセンス: Link先を確認
Shai Feldman, Stephen Bates, Yaniv Romano(参考訳) 本研究では,特徴空間の全領域にわたるユーザ指定カバレッジレベルを持つ予測区間を生成する手法を開発した。 このタスクの典型的なアプローチは、質的回帰を伴う条件付き四分位数を推定することであり、有限サンプルでは正確ではないものの、大きなサンプル限界のカバレッジが正しいことがよく知られている。 従来の量子レグレッションは条件付きカバレッジが低いという実験で明らかになった。 これを解決するために,区間の大きさと誤検出の指標との独立性を促進するために,損失関数を変更する。 真の条件量子について、これらの2つの量は独立(直交)であるため、修正された損失関数は引き続き有効である。 さらに,いくつかの指標で評価されるように,修正損失関数が条件付きカバレッジを改善することを実証的に示す。 また,間隔の大きさと誤発見の指標との依存性の強さを調べることで条件付きカバレッジをチェックする2つの新しい指標も導入した。

We develop a method to generate prediction intervals that have a user-specified coverage level across all regions of feature-space, a property called conditional coverage. A typical approach to this task is to estimate the conditional quantiles with quantile regression -- it is well-known that this leads to correct coverage in the large-sample limit, although it may not be accurate in finite samples. We find in experiments that traditional quantile regression can have poor conditional coverage. To remedy this, we modify the loss function to promote independence between the size of the intervals and the indicator of a miscoverage event. For the true conditional quantiles, these two quantities are independent (orthogonal), so the modified loss function continues to be valid. Moreover, we empirically show that the modified loss function leads to improved conditional coverage, as evaluated by several metrics. We also introduce two new metrics that check conditional coverage by looking at the strength of the dependence between the interval size and the indicator of miscoverage.
翻訳日:2021-06-02 14:13:54 公開日:2021-06-01
# 半教師付きモデルは強い教師なしドメイン適応学習者である

Semi-supervised Models are Strong Unsupervised Domain Adaptation Learners ( http://arxiv.org/abs/2106.00417v1 )

ライセンス: Link先を確認
Yabin Zhang, Haojian Zhang, Bin Deng, Shuai Li, Kui Jia, Lei Zhang(参考訳) unsupervised domain adaptation (uda) と semi-supervised learning (ssl) の2つは、機械学習における高価な手動アノテーションを減らすための典型的な戦略である。 ターゲットタスクの効果的なモデルを学ぶために、UDAは利用可能なラベル付きソースデータを使用し、ターゲットドメイン内のラベルなしサンプルと異なる分布を持つ可能性がある。 UDAとSSLは全く異なる戦略のように見えるが、それらはタスクの目的とソリューションに関して密接に関連しており、SSLはUDA問題の特別なケースである。 この結果に基づき、SSLメソッドが UDA タスクで機能するかどうかをさらに調査する。 UDAベンチマークに8つの代表的なSSLアルゴリズムを適用することで、SSLメソッドが強力なUDA学習者であることが分かる。 特に、最先端のSSLメソッドは、DomainNetの挑戦的なUDAベンチマークにおいて既存のUDAメソッドよりも大幅に優れており、最先端のUDAメソッドはSSL技術によってさらに強化される可能性がある。 したがって,今後のUDA研究のベースラインとしてSSLメソッドを採用することを推奨し,UDAとSSLの関係を明らかにすることによって,今後のUDA開発に光を当てることが期待できる。 コードは \url{https://github.com/y bzh} で入手できる。

Unsupervised domain adaptation (UDA) and semi-supervised learning (SSL) are two typical strategies to reduce expensive manual annotations in machine learning. In order to learn effective models for a target task, UDA utilizes the available labeled source data, which may have different distributions from unlabeled samples in the target domain, while SSL employs few manually annotated target samples. Although UDA and SSL are seemingly very different strategies, we find that they are closely related in terms of task objectives and solutions, and SSL is a special case of UDA problems. Based on this finding, we further investigate whether SSL methods work on UDA tasks. By adapting eight representative SSL algorithms on UDA benchmarks, we show that SSL methods are strong UDA learners. Especially, state-of-the-art SSL methods significantly outperform existing UDA methods on the challenging UDA benchmark of DomainNet, and state-of-the-art UDA methods could be further enhanced with SSL techniques. We thus promote that SSL methods should be employed as baselines in future UDA studies and expect that the revealed relationship between UDA and SSL could shed light on future UDA development. Codes are available at \url{https://github.com/Y BZh}.
翻訳日:2021-06-02 14:13:38 公開日:2021-06-01
# 雑音ラベル学習における損失の不確実性を考慮したサンプル選択

Sample Selection with Uncertainty of Losses for Learning with Noisy Labels ( http://arxiv.org/abs/2106.00445v1 )

ライセンス: Link先を確認
Xiaobo Xia, Tongliang Liu, Bo Han, Mingming Gong, Jun Yu, Gang Niu, Masashi Sugiyama(参考訳) ノイズの多いラベルで学習する際、サンプル選択アプローチは非常に人気があり、小さなロスデータをトレーニング中に正しくラベル付けされているとみなす。 しかし、ノイズラベルでトレーニングされたモデルに基づいて、損失はオンザフライで発生し、大容量のデータはおそらく誤りである。 a) ラベルが間違っていて、その損失が他のデータよりも遅くなります。なぜなら、ディープニューラルネットワークが"リーンパターンファースト"であるからです; (b) 不足しているデータのグループに属しており、まだ選択されていないからです。 本稿では,損失の点推定ではなく区間推定を用いて損失の不確実性を取り入れ,分布自由濃度の不等式から生じる損失の信頼区間の低境界をサンプル選択に用いる。 このようにして、大容量だが少ない選択されたデータも試してみると、試行後の不確実性によって損失が効果的に減少するかどうかを見極めることにより、(a)と(b)を区別できる。 結果として、正しくラベル付けされているが、一見すると誤ってラベル付けされているように見える、未表示のデータをより深く探索することができる。 実験により,提案手法はベースラインよりも優れ,幅広いラベルノイズタイプに対して頑健であることが示された。

In learning with noisy labels, the sample selection approach is very popular, which regards small-loss data as correctly labeled during training. However, losses are generated on-the-fly based on the model being trained with noisy labels, and thus large-loss data are likely but not certainly to be incorrect. There are actually two possibilities of a large-loss data point: (a) it is mislabeled, and then its loss decreases slower than other data, since deep neural networks "learn patterns first"; (b) it belongs to an underrepresented group of data and has not been selected yet. In this paper, we incorporate the uncertainty of losses by adopting interval estimation instead of point estimation of losses, where lower bounds of the confidence intervals of losses derived from distribution-free concentration inequalities, but not losses themselves, are used for sample selection. In this way, we also give large-loss but less selected data a try; then, we can better distinguish between the cases (a) and (b) by seeing if the losses effectively decrease with the uncertainty after the try. As a result, we can better explore underrepresented data that are correctly labeled but seem to be mislabeled at first glance. Experiments demonstrate that the proposed method is superior to baselines and robust to a broad range of label noise types.
翻訳日:2021-06-02 14:13:19 公開日:2021-06-01
# オープンセット雑音ラベルを用いた学習用インスタンス補正

Instance Correction for Learning with Open-set Noisy Labels ( http://arxiv.org/abs/2106.00455v1 )

ライセンス: Link先を確認
Xiaobo Xia, Tongliang Liu, Bo Han, Mingming Gong, Jun Yu, Gang Niu, Masashi Sugiyama(参考訳) オープンセットノイズラベルの問題は、トレーニングデータの一部が真のクラスを含まないラベル空間を持っていることを意味する。 オープンセットノイズラベルを学習するには、同じラベルスペースを共有するためのトレーニングデータとテストデータが必要であるため、例えば損失補正やラベル修正といった多くのアプローチでは、そのようなオープンセットノイズラベルをうまく処理できない。 したがって、最先端の手法では、サンプル選択アプローチを用いてオープンセットノイズラベルを処理し、ネットワークパラメータ更新のためにノイズデータからクリーンなデータを選択する。 廃棄されたデータは誤ってラベル付けされ、トレーニングに参加しない。 このようなアプローチは一見すると直感的で合理的です。 しかし、自然に「そのようなデータはトレーニング中にのみ破棄できるのか」という疑問を提起することができる。 本稿では,その答えがノーであることを示す。 具体的には、廃棄されたデータのインスタンスは、一般化のための有意義な情報から成り得ると論じる。 このため、そのようなデータを捨てるのではなく、破棄されたデータのインスタンスを変更するためにインスタンス修正を使用することで、廃棄されたデータの予測をラベルと一致させる。 インスタンス修正は、ターゲットの敵攻撃によって実行される。 修正されたデータは、一般化を支援するためにトレーニングに利用されます。 分析結果に加えて、我々の主張を正当化するための一連の実証的証拠が提供される。

The problem of open-set noisy labels denotes that part of training data have a different label space that does not contain the true class. Lots of approaches, e.g., loss correction and label correction, cannot handle such open-set noisy labels well, since they need training data and test data to share the same label space, which does not hold for learning with open-set noisy labels. The state-of-the-art methods thus employ the sample selection approach to handle open-set noisy labels, which tries to select clean data from noisy data for network parameters updates. The discarded data are seen to be mislabeled and do not participate in training. Such an approach is intuitive and reasonable at first glance. However, a natural question could be raised "can such data only be discarded during training?". In this paper, we show that the answer is no. Specifically, we discuss that the instances of discarded data could consist of some meaningful information for generalization. For this reason, we do not abandon such data, but use instance correction to modify the instances of the discarded data, which makes the predictions for the discarded data consistent with given labels. Instance correction are performed by targeted adversarial attacks. The corrected data are then exploited for training to help generalization. In addition to the analytical results, a series of empirical evidences are provided to justify our claims.
翻訳日:2021-06-02 14:12:55 公開日:2021-06-01
# 決定木を用いた解剖学的対象構造実測値の自動解析

Automated Grading of Anatomical Objective Structured Practical Exams Using Decision Trees ( http://arxiv.org/abs/2106.00502v1 )

ライセンス: Link先を確認
Jason Bernard, Ranil Sonnadara, Anthony N. Saraco, Josh P. Mitchell, Alex B. Bak, Ilana Bayer, Bruce C. Wainman(参考訳) 客観的構造化実用試験(ospe)は、解剖学的知識を評価するための効果的で堅牢だが資源集約的な手法である。 ほとんどのOSPEは短い回答やブランクのスタイルの質問を使っているため、このフォーマットは試験をマークするためにコンテンツに精通した多くの人々を必要としている。 しかし、解剖学と生理学のコースのオンライン配信の頻度が高まると、学生は対面学習セッションで受けるOSPEの実践を失う可能性がある。 本研究の目的は、知的オンラインOSPE学習システムを構築するための第1ステップとして、OSPE質問のマーク付けにおいて、決定木(DT)の精度をテストすることである。 この研究は、McMaster大学健康科学部(HTHSCI 2FF3/2LL3/1D06)の解剖学と生理学のコースから、2020年冬期最終OSPEの結果をデータセットとして使用した。 データセットの90%は10倍の検証アルゴリズムで54の質問に対してDTをトレーニングするために使われました。 それぞれのDTは、学生が書いた正しい回答に現れるユニークな単語で構成されていた。 残りの10%のデータセットは生成されたdtsでマークされた。 DTで示される回答が職員や教員の回答と比較された場合、DTは54の質問に対して平均94.49%の精度を達成した。 これは、DTのような機械学習アルゴリズムがOSPEのグレーティングに非常に効果的な選択肢であり、インテリジェントでオンラインのOSPE学習システムの開発に適していることを示唆している。

An Objective Structured Practical Examination (OSPE) is an effective and robust, but resource-intensive, means of evaluating anatomical knowledge. Since most OSPEs employ short answer or fill-in-the-blank style questions, the format requires many people familiar with the content to mark the exams. However, the increasing prevalence of online delivery for anatomy and physiology courses could result in students losing the OSPE practice that they would receive in face-to-face learning sessions. The purpose of this study was to test the accuracy of Decision Trees (DTs) in marking OSPE questions as a potential first step to creating an intelligent, online OSPE tutoring system. The study used the results of the winter 2020 semester final OSPE from McMaster University's anatomy and physiology course in the Faculty of Health Sciences (HTHSCI 2FF3/2LL3/1D06) as the data set. Ninety percent of the data set was used in a 10-fold validation algorithm to train a DT for each of the 54 questions. Each DT was comprised of unique words that appeared in correct, student-written answers. The remaining 10% of the data set was marked by the generated DTs. When the answers marked by the DT were compared to the answers marked by staff and faculty, the DT achieved an average accuracy of 94.49% across all 54 questions. This suggests that machine learning algorithms such as DTs are a highly effective option for OSPE grading and are suitable for the development of an intelligent, online OSPE tutoring system.
翻訳日:2021-06-02 14:12:36 公開日:2021-06-01
# Care Label の概念: 信頼とリソースを意識した機械学習のための認定スイート

The Care Label Concept: A Certification Suite for Trustworthy and Resource-Aware Machine Learning ( http://arxiv.org/abs/2106.00512v1 )

ライセンス: Link先を確認
Katharina Morik and Helena Kotthaus and Lukas Heppe and Danny Heinrich and Raphael Fischer and Andreas Pauly and Nico Piatkowski(参考訳) 機械学習アプリケーションはユビキタスになった。 これにより、機械学習を信頼できるものにする努力が増えた。 説明可能な公正なAIはすでに成熟しています。 彼らは知識のあるユーザとアプリケーションエンジニアに対処する。 方法や学習したモデルを理解するのに時間を投資したくない人のために、私たちはケアラベルを提供しています。 これは、例えばファクトシートやモデルカードのような記述をエンドユーザーに適した形式に変換する。 一方、ケアラベルは、保証が守られているかどうかをテストする認証スイートの結果である。 本稿では,認証スイートを用いて2つの実験を行った。 ひとつは、マルコフランダムフィールド(MRF)の設定のためのケアラベルを示す。 MRFの基本理論に基づいて、それぞれの選択は、例えば表現性と信頼性のような静的特性の特定の評価につながる。 さらに、実装をテストし、動的特性を産出するリソース消費量を計測する。 この2段階の手順に続いて、ディープニューラルネットワーク(DNN)モデルを認定する別の実験が行われる。 そこで、特定のモデルとデータセットに基づいて、文献から静的な特性を描画する。 第2のレベルでは、特定の攻撃に対する堅牢性の測定を提供する実験が生成される。 ResNet-18 と MobileNetV3 が ImageNet に適用した。

Machine learning applications have become ubiquitous. This has led to an increased effort of making machine learning trustworthy. Explainable and fair AI have already matured. They address knowledgeable users and application engineers. For those who do not want to invest time into understanding the method or the learned model, we offer care labels: easy to understand at a glance, allowing for method or model comparisons, and, at the same time, scientifically well-based. On one hand, this transforms descriptions as given by, e.g., Fact Sheets or Model Cards, into a form that is well-suited for end-users. On the other hand, care labels are the result of a certification suite that tests whether stated guarantees hold. In this paper, we present two experiments with our certification suite. One shows the care labels for configurations of Markov random fields (MRFs). Based on the underlying theory of MRFs, each choice leads to its specific rating of static properties like, e.g., expressivity and reliability. In addition, the implementation is tested and resource consumption is measured yielding dynamic properties. This two-level procedure is followed by another experiment certifying deep neural network (DNN) models. There, we draw the static properties from the literature on a particular model and data set. At the second level, experiments are generated that deliver measurements of robustness against certain attacks. We illustrate this by ResNet-18 and MobileNetV3 applied to ImageNet.
翻訳日:2021-06-02 14:12:08 公開日:2021-06-01
# IID-GAN : モード崩壊の正規化のためのIIDサンプリング視点

IID-GAN: an IID Sampling Perspective for Regularizing Mode Collapse ( http://arxiv.org/abs/2106.00563v1 )

ライセンス: Link先を確認
Liangliang Shi, Yang Li, Junchi Yan(参考訳) その成功にもかかわらず、GAN(Generative Adversarial Network)は依然としてモード崩壊に悩まされており、ジェネレータは潜在変数をターゲット分布の部分的なモードにしかマッピングできない。 本稿では,この問題を,独立かつ同一分布(IID)サンプリング視点で解析し,正規化しようと試み,対象空間(すなわち,対象空間)における生成のためのID特性を保持することを強調する。 実際のデータ) モード崩壊を自然に回避できる。 これは機械学習の実際のデータに対する基本的なiid仮定に基づいている。 しかし、ソースサンプル $\mathbf{z}$ は IID に従うが、ターゲット生成 $G(\mathbf{z})$ は必ずしも IID ではないかもしれない。 この観測に基づいて、我々は、生成をIIDに正規化する方法として、生成からの逆ソースと潜在空間における標準ガウス分布との近接性を促進するために、新たな損失を与える。 論理は、対象データから戻る逆サンプルも、ソース分散のためのiidであるべきです。 合成データと実世界のデータの両方の実験は、我々のモデルの優越性と堅牢性を示している。

Despite its success, generative adversarial networks (GANs) still suffer from mode collapse, namely the generator can only map latent variables to a partial set of modes of the target distribution. In this paper, we analyze and try to regularize this issue with an independent and identically distributed (IID) sampling perspective and emphasize that holding the IID property for generation in target space (i.e. real data) can naturally avoid mode collapse. This is based on the basic IID assumption for real data in machine learning. However, though the source samples $\mathbf{z}$ obey IID, the target generation $G(\mathbf{z})$ may not necessarily be IID. Based on this observation, we provide a new loss to encourage the closeness between the inverse source from generation, and a standard Gaussian distribution in the latent space, as a way of regularizing the generation to be IID. The logic is that the inverse samples back from target data should also be IID for source distribution. Experiments on both synthetic and real-world data show the superiority and robustness of our model.
翻訳日:2021-06-02 14:11:54 公開日:2021-06-01
# 短距離オフラインRLを用いた勧告システムの長期化

Improving Long-Term Metrics in Recommendation Systems using Short-Horizon Offline RL ( http://arxiv.org/abs/2106.00589v1 )

ライセンス: Link先を確認
Bogdan Mazoure, Paul Mineiro, Pavithra Srinath, Reza Sharifi Sedeh, Doina Precup, Adith Swaminathan(参考訳) セッションベースのレコメンデーションシナリオについて検討し、シーケンシャルなインタラクションの間、ユーザに対してアイテムを推薦し、長期的なユーティリティを改善する。 長期的なメトリクスの最適化は、学習信号(推奨が望ましい目標を達成したかどうか)がシステムとの他のユーザインタラクションによって遅延して確立されるため、難しい。 クリックのような即時測定可能なプロキシは、長期的な指標とのミスアライメントによる最適以下の推奨につながる可能性がある。 多くの研究がセッションベースレコメンデーションにエピソード強化学習(RL)技術を適用しているが、これらの手法はセッション間でのユーザ意図の変動を考慮していない。 我々は,セッション間におけるポリシ誘起分布シフトを近似する新しいバッチrlアルゴリズムである short horizon policy improvement (shpi) を開発した。 SHPIの水平超パラメータを変化させることで、RL文献でよく知られた政策改善スキームを復元する。 4つのレコメンデーションタスクの実証結果から、SHPIは行列係数化、オフライン帯域幅、オフラインRLベースラインよりも優れていることが示された。 また,重み付き回帰オラクルを用いた安定かつ効率的な実装も提供する。

We study session-based recommendation scenarios where we want to recommend items to users during sequential interactions to improve their long-term utility. Optimizing a long-term metric is challenging because the learning signal (whether the recommendations achieved their desired goals) is delayed and confounded by other user interactions with the system. Immediately measurable proxies such as clicks can lead to suboptimal recommendations due to misalignment with the long-term metric. Many works have applied episodic reinforcement learning (RL) techniques for session-based recommendation but these methods do not account for policy-induced drift in user intent across sessions. We develop a new batch RL algorithm called Short Horizon Policy Improvement (SHPI) that approximates policy-induced distribution shifts across sessions. By varying the horizon hyper-parameter in SHPI, we recover well-known policy improvement schemes in the RL literature. Empirical results on four recommendation tasks show that SHPI can outperform matrix factorization, offline bandits, and offline RL baselines. We also provide a stable and computationally efficient implementation using weighted regression oracles.
翻訳日:2021-06-02 14:11:37 公開日:2021-06-01
# 解毒剤データを用いたフェアクラスタリング

Fair Clustering Using Antidote Data ( http://arxiv.org/abs/2106.00600v1 )

ライセンス: Link先を確認
Anshuman Chhabra, Adish Singla, Prasant Mohapatra(参考訳) クラスタリングアルゴリズムは多くの現代のデータサイエンスアプリケーションに広く利用されている。 これにより、クラスタリングアルゴリズムの出力を公平にする必要がある。 伝統的に、クラスタリングアルゴリズムに対する新しいフェアアルゴリズムの変種は、フェアネスの特定の概念のために開発されている。 しかし、アプリケーションコンテキストによっては、フェアネスの定義が異なる場合もあります。 その結果、クラスタリングアルゴリズムとフェアネス定義の組み合わせ毎に、新しいアルゴリズムと分析を提案する必要がある。 さらに、新しいアルゴリズムは現実世界のシステムにデプロイするために再実装される必要がある。 したがって、クラスタリングにおける公正性に対する代替的なアプローチとして、アンチドテデータと呼ばれる少数のデータポイントで元のデータセットを増強する手法を提案する。 この新しいデータセット上でクラスタリングが行われると、選択されたクラスタリングアルゴリズムとフェアネス定義に対して出力が公正になる。 我々はこれを、任意の中心的クラスタリングアルゴリズムと公平性の概念に対応できる一般的な二段階最適化問題として定式化する。 次に、異なる問題設定に対するこの二段階最適化のアプローチを分類する。 異なるクラスタリングアルゴリズムと公平性の概念に関する広範囲な実験により、我々のアルゴリズムは、非常に少ない反ドートデータを追加することで、多くの現実世界のデータセットで所望の公平性を達成できることが示された。 また,本アルゴリズムは,他の最先端のフェアクラスタリングアルゴリズムと比較して,フェアネスコストと競合クラスタリング性能の低減を実現する。

Clustering algorithms are widely utilized for many modern data science applications. This motivates the need to make outputs of clustering algorithms fair. Traditionally, new fair algorithmic variants to clustering algorithms are developed for specific notions of fairness. However, depending on the application context, different definitions of fairness might need to be employed. As a result, new algorithms and analysis need to be proposed for each combination of clustering algorithm and fairness definition. Additionally, each new algorithm would need to be reimplemented for deployment in a real-world system. Hence, we propose an alternate approach to fairness in clustering where we augment the original dataset with a small number of data points, called antidote data. When clustering is undertaken on this new dataset, the output is fair, for the chosen clustering algorithm and fairness definition. We formulate this as a general bi-level optimization problem which can accommodate any center-based clustering algorithms and fairness notions. We then categorize approaches for solving this bi-level optimization for different problem settings. Extensive experiments on different clustering algorithms and fairness notions show that our algorithms can achieve desired levels of fairness on many real-world datasets with a very small percentage of antidote data added. We also find that our algorithms achieve lower fairness costs and competitive clustering performance compared to other state-of-the-art fair clustering algorithms.
翻訳日:2021-06-02 14:11:17 公開日:2021-06-01
# 機能的オブジェクト指向ネットワークを用いたロボットタスク実行へのロードマップ

A Road-map to Robot Task Execution with the Functional Object-Oriented Network ( http://arxiv.org/abs/2106.00158v1 )

ライセンス: Link先を確認
David Paulius, Alejandro Agostini, Yu Sun and Dongheui Lee(参考訳) ロボットのための知識グラフ表現として関数型オブジェクト指向ネットワーク(foon)が導入された。 FOONは、二部グラフの形で、ロボットの環境やタスクに対する理解に関係のある象徴的あるいは高レベルな情報を、人間の行動理解を反映した形で含んでいる。 本稿では,foonの今後の開発に向けたロードマップと,そのタスク計画のためのロボットシステムへの応用,および実演からの知識獲得について概説する。 本研究では,ロボットと人間の教師が実世界のシナリオにおいて,FOONの既存の知識を協調的に強化し,実証された動作を再現し,与えられた操作問題を解くために必要なスキルをロボットに教えるための,予備的なアイデアを提案する。

Following work on joint object-action representations, the functional object-oriented network (FOON) was introduced as a knowledge graph representation for robots. Taking the form of a bipartite graph, a FOON contains symbolic or high-level information that would be pertinent to a robot's understanding of its environment and tasks in a way that mirrors human understanding of actions. In this work, we outline a road-map for future development of FOON and its application in robotic systems for task planning as well as knowledge acquisition from demonstration. We propose preliminary ideas to show how a FOON can be created in a real-world scenario with a robot and human teacher in a way that can jointly augment existing knowledge in a FOON and teach a robot the skills it needs to replicate the demonstrated actions and solve a given manipulation problem.
翻訳日:2021-06-02 14:10:47 公開日:2021-06-01
# マルチエージェント強化学習のためのshapley counterfactualcredit s

Shapley Counterfactual Credits for Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2106.00285v1 )

ライセンス: Link先を確認
Jiahui Li, Kun Kuang, Baoxiang Wang, Furui Liu, Long Chen, Fei Wu and Jun Xiao(参考訳) 分散実行による集中訓練(CTDE)は、協調的マルチエージェント強化学習(MARL)設定において一般的なパラダイムであり、多くの実アプリケーションで広く利用されている。 トレーニングプロセスにおける大きな課題の1つは、グローバルな報酬に応じて各エージェントの貢献を推論することを目的としたクレジット割り当てである。 既存のクレジット割当手法は、結合値関数を個々の値関数に分解するか、局所的な観測と行動がグローバルな値関数に与える影響を測定することに焦点を当てている。 これらのアプローチは、複数のエージェント間の複雑な相互作用を十分に考慮していないため、クレジットの割り当てが不適当であり、MARL上でのメディカルな結果をもたらす。 本稿では,エージェントの連立を考慮に入れた明示的なクレジット割当手法であるshapley counterfactual credit assignmentを提案する。 具体的には、shapley値とその望ましい特性は、エージェントの組み合わせを信用するためにdeep marlで活用され、各エージェントの個々のクレジットを見積もる能力を与えてくれます。 この能力にもかかわらず、主な技術的困難は、エージェントの数として要因的に成長するShapley Valueの計算複雑性にある。 代わりにモンテカルロサンプリングによる近似法を用いて,その有効性を維持しつつ,サンプルの複雑さを低減する。 異なるシナリオにわたるStarCraft IIベンチマークにおいて,本手法の評価を行った。 本手法は,既存の協調的marlアルゴリズムを著しく上回り,特に困難度の高いタスクにおいて,最先端のマージンを達成する。

Centralized Training with Decentralized Execution (CTDE) has been a popular paradigm in cooperative Multi-Agent Reinforcement Learning (MARL) settings and is widely used in many real applications. One of the major challenges in the training process is credit assignment, which aims to deduce the contributions of each agent according to the global rewards. Existing credit assignment methods focus on either decomposing the joint value function into individual value functions or measuring the impact of local observations and actions on the global value function. These approaches lack a thorough consideration of the complicated interactions among multiple agents, leading to an unsuitable assignment of credit and subsequently mediocre results on MARL. We propose Shapley Counterfactual Credit Assignment, a novel method for explicit credit assignment which accounts for the coalition of agents. Specifically, Shapley Value and its desired properties are leveraged in deep MARL to credit any combinations of agents, which grants us the capability to estimate the individual credit for each agent. Despite this capability, the main technical difficulty lies in the computational complexity of Shapley Value who grows factorially as the number of agents. We instead utilize an approximation method via Monte Carlo sampling, which reduces the sample complexity while maintaining its effectiveness. We evaluate our method on StarCraft II benchmarks across different scenarios. Our method outperforms existing cooperative MARL algorithms significantly and achieves the state-of-the-art, with especially large margins on tasks with more severe difficulties.
翻訳日:2021-06-02 14:10:32 公開日:2021-06-01
# 統一トランスフォーマーによる多言語音声翻訳:huawei noah's ark lab at iwslt 2021

Multilingual Speech Translation with Unified Transformer: Huawei Noah's Ark Lab at IWSLT 2021 ( http://arxiv.org/abs/2106.00197v1 )

ライセンス: Link先を確認
Xingshan Zeng, Liangyou Li and Qun Liu(参考訳) 本稿では,Huawei Noah の Ark Lab から IWSLT 2021 Multilingual Speech Translation (MultiST) タスクに送信されたシステムについて述べる。 マルチストモデルでは,異なるモダリティ(音声とテキスト)と異なるタスク(音声認識,機械翻訳,音声翻訳)からのデータを活用し,モデルの能力を高めるために,統一トランスフォーマアーキテクチャを用いる。 具体的には、まず音声とテキストをそれぞれ異なる特徴抽出器に入力し、音響的特徴とテキスト的特徴を抽出する。 次に、これらの機能は共有エンコーダ-デコーダアーキテクチャによって処理される。 マルチタスク学習,タスクレベルのカリキュラム学習,データ拡張など,パフォーマンス向上にいくつかのトレーニング手法を適用する。 最終システムは教師付き言語ペアのバイリンガルベースラインよりもかなり良い結果を得ることができ,ゼロショット言語ペアでは合理的な結果が得られる。

This paper describes the system submitted to the IWSLT 2021 Multilingual Speech Translation (MultiST) task from Huawei Noah's Ark Lab. We use a unified transformer architecture for our MultiST model, so that the data from different modalities (i.e., speech and text) and different tasks (i.e., Speech Recognition, Machine Translation, and Speech Translation) can be exploited to enhance the model's ability. Specifically, speech and text inputs are firstly fed to different feature extractors to extract acoustic and textual features, respectively. Then, these features are processed by a shared encoder--decoder architecture. We apply several training techniques to improve the performance, including multi-task learning, task-level curriculum learning, data augmentation, etc. Our final system achieves significantly better results than bilingual baselines on supervised language pairs and yields reasonable results on zero-shot language pairs.
翻訳日:2021-06-02 14:10:09 公開日:2021-06-01
# Nora: 幸福なコーチ

Nora: The Well-Being Coach ( http://arxiv.org/abs/2106.00410v1 )

ライセンス: Link先を確認
Genta Indra Winata, Holy Lovenia, Etsuko Ishii, Farhad Bin Siddique, Yongsheng Yang, Pascale Fung(参考訳) 現在のパンデミックは、人々が孤立し続け、社会的距離を取ることを強制し、結果として生じる孤独とネガティブな感情に対処するシステムの必要性を生み出している。 本稿では,対話システムにおける自然言語理解を活用した仮想コーチングプラットフォームであるNoraを提案し,ユーザインタラクションに基づく他のレコメンデーションを提案する。 自給自足や在宅勤務を行う人々を支援することを目的としている。 Noraは、ユーザの感情、感情、ストレスを検出し記録することで、幸福度を計測する。 Noraはまた、健康的な日々のルーチンの開発を支援するために、様々なワークアウト、想想、ヨガのエクササイズをユーザに推奨している。 さらに私たちは,nora内のソーシャルコミュニティを提供して,ユーザが自身の経験を他の人たちと共有できるようにしています。 Noraはウェブリンクを通じてどこからでもアクセスでき、英語とマンダリンの両方をサポートしている。

The current pandemic has forced people globally to remain in isolation and practice social distancing, which creates the need for a system to combat the resulting loneliness and negative emotions. In this paper we propose Nora, a virtual coaching platform designed to utilize natural language understanding in its dialogue system and suggest other recommendations based on user interactions. It is intended to provide assistance and companionship to people undergoing self-quarantine or work-from-home routines. Nora helps users gauge their well-being by detecting and recording the user's emotion, sentiment, and stress. Nora also recommends various workout, meditation, or yoga exercises to users in support of developing a healthy daily routine. In addition, we provide a social community inside Nora, where users can connect and share their experiences with others undergoing a similar isolation procedure. Nora can be accessed from anywhere via a web link and has support for both English and Mandarin.
翻訳日:2021-06-02 14:09:53 公開日:2021-06-01
# 不正確なデータのベールによるロジスティック回帰

Logistic Regression Through the Veil of Imprecise Data ( http://arxiv.org/abs/2106.00492v1 )

ライセンス: Link先を確認
Nicholas Gray and Scott Ferson(参考訳) ロジスティック回帰は、いくつかの予測変数に基づいて結果の確率を評価する重要な統計ツールである。 標準的な手法は、正確に知られているデータのみを扱うことができるが、多くのデータセットには、従来の手法が単一ポイントに縮小するか、完全に無視されるかの不確実性がある。 本稿では,区間内の値から得られる可能性のあるモデルの集合を用いて,不正確なロジスティック回帰モデルを考えることで,これらの不確実性を含めることができることを示す。 これは従来の方法によって取り除かれたてんかんの不確実性を明確に表現する利点がある。

Logistic regression is an important statistical tool for assessing the probability of an outcome based upon some predictive variables. Standard methods can only deal with precisely known data, however many datasets have uncertainties which traditional methods either reduce to a single point or completely disregarded. In this paper we show that it is possible to include these uncertainties by considering an imprecise logistic regression model using the set of possible models that can be obtained from values from within the intervals. This has the advantage of clearly expressing the epistemic uncertainty removed by traditional methods.
翻訳日:2021-06-02 14:09:26 公開日:2021-06-01
# モーメントからのガウス混合学習のためのテンソル分解

Tensor decomposition for learning Gaussian mixtures from moments ( http://arxiv.org/abs/2106.00555v1 )

ライセンス: Link先を確認
Rima Khouja (AROMATH), Pierre-Alexandre Mattei (MAASAI), Bernard Mourrain (AROMATH)(参考訳) データ処理や機械学習では、データを正確に表現できるモデルを復元し活用することが重要な課題である。 データセットからガウス混合モデルを復元する問題を考察する。 この問題に対処するための対称テンソル分解法について検討し,データ分布の経験的モーメントからテンソルを構築する。 我々は一意な分解を持つ識別可能なテンソルを考えるが、球面のガウス混合から作られるモーメントテンソルは、この性質を持っていることを示している。 補間次数が厳密に半分未満の対称テンソルは同定可能であることを証明し、それらの分解を計算するために単純な線形代数演算に基づくアルゴリズムを提案する。 図示的な実験は、他の最先端のアプローチと比較して、ガウス混合物を回収するためのテンソル分解法の影響を示している。

In data processing and machine learning, an important challenge is to recover and exploit models that can represent accurately the data. We consider the problem of recovering Gaussian mixture models from datasets. We investigate symmetric tensor decomposition methods for tackling this problem, where the tensor is built from empirical moments of the data distribution. We consider identifiable tensors, which have a unique decomposition, showing that moment tensors built from spherical Gaussian mixtures have this property. We prove that symmetric tensors with interpolation degree strictly less than half their order are identifiable and we present an algorithm, based on simple linear algebra operations, to compute their decomposition. Illustrative experimentations show the impact of the tensor decomposition method for recovering Gaussian mixtures, in comparison with other state-of-the-art approaches.
翻訳日:2021-06-02 14:09:17 公開日:2021-06-01
# omnizart:自動音楽書き起こしのための汎用ツールボックス

Omnizart: A General Toolbox for Automatic Music Transcription ( http://arxiv.org/abs/2106.00497v1 )

ライセンス: Link先を確認
Yu-Te Wu, Yin-Jyun Luo, Tsung-Ping Chen, I-Chieh Wei, Jui-Yang Hsu, Yi-Chin Chuang, Li Su(参考訳) 我々は、自動音楽転写(AMT)の合理化ソリューションを提供する新しいPythonライブラリであるOmnizartを紹介し、リリースする。 Omnizartは、ディープラーニングベースのATTのライフサイクルを構成するモジュールを含み、コンパクトなコマンドラインインタフェースでの使用を容易にするように設計されている。 我々の知る限り、Omnizartは最初の転写ツールキットであり、ソロ、楽器アンサンブル、パーカッション楽器、ボーカル、コード認識とビート/ダウンビート追跡のためのモデル、AMTに関連する2つの音楽情報検索(MIR)タスクなど、幅広い種類の楽器をカバーするモデルを提供する。

We present and release Omnizart, a new Python library that provides a streamlined solution to automatic music transcription (AMT). Omnizart encompasses modules that construct the life-cycle of deep learning-based AMT, and is designed for ease of use with a compact command-line interface. To the best of our knowledge, Omnizart is the first transcription toolkit which offers models covering a wide class of instruments ranging from solo, instrument ensembles, percussion instruments to vocal, as well as models for chord recognition and beat/downbeat tracking, two music information retrieval (MIR) tasks highly related to AMT.
翻訳日:2021-06-02 14:09:04 公開日:2021-06-01
# 都市森林における炭素隔離の定量化

Quantification of Carbon Sequestration in Urban Forests ( http://arxiv.org/abs/2106.00182v1 )

ライセンス: Link先を確認
Levente Klein, Wang Zhou, Conrad Albrecht(参考訳) 植物、特に木は大気から二酸化炭素を吸収して炭素を抽出するが、木に蓄えられた炭素の効率的な定量法が欠如しているため、その過程を追跡することは困難である。 本稿では,多スペクトル空中画像とlidarデータを用いて炭素蓄積量の推定を行い,炭素蓄積量化の重要な特性である樹木の被覆率,幾何学的形状,樹木種を同定する手法を提案する。 樹木のバイオマスを計算するために,樹種情報とその3次元幾何学形状を遠隔画像から推定できることを実証する。 特にニューヨーク市マンハッタンでは、木に植えられた炭素の合計が5万2000ドルと見積もっています。

Vegetation, trees in particular, sequester carbon by absorbing carbon dioxide from the atmosphere, however, the lack of efficient quantification methods of carbon stored in trees renders it difficult to track the process. Here we present an approach to estimate the carbon storage in trees based on fusing multispectral aerial imagery and LiDAR data to identify tree coverage, geometric shape, and tree species, which are crucial attributes in carbon storage quantification. We demonstrate that tree species information and their three-dimensional geometric shapes can be estimated from remote imagery in order to calculate the tree's biomass. Specifically, for Manhattan, New York City, we estimate a total of $52,000$ tons of carbon sequestered in trees.
翻訳日:2021-06-02 14:08:49 公開日:2021-06-01
# 超音波画像における腕神経叢分割のためのハイブリッドディープニューラルネットワーク

Hybrid Deep Neural Network for Brachial Plexus Nerve Segmentation in Ultrasound Images ( http://arxiv.org/abs/2106.00373v1 )

ライセンス: Link先を確認
Juul P.A. van Boxtel, Vincent R.J. Vousten, Josien Pluim, Nastaran Mohammadian Rad(参考訳) 超音波ガイド下局所麻酔(UGRA)は全身麻酔(GA)を代替し、鎮痛と回復時間を改善する。 この方法は鎖骨外科手術後の腕神経叢(BP)に応用できる。 しかし,超音波(US)画像からのBPの同定は,専門職でも困難である。 この問題を解決するために、BP神経領域の同定とセグメンテーションに畳み込みニューラルネットワーク(CNN)とより高度なディープニューラルネットワーク(DNN)を用いることができる。 本稿では,超音波画像中のbp神経領域をセグメント化するための分類モデルとセグメント化モデルを組み合わせたハイブリッドモデルを提案する。 CNNモデルは、BP領域で画像を正確に選択するための分類器として使用される。 次に、セグメント化にU-netまたはM-netモデルを用いる。 実験の結果,提案手法は単一セグメンテーションモデルに対するセグメンテーション性能を大幅に向上させることが示唆された。

Ultrasound-guided regional anesthesia (UGRA) can replace general anesthesia (GA), improving pain control and recovery time. This method can be applied on the brachial plexus (BP) after clavicular surgeries. However, identification of the BP from ultrasound (US) images is difficult, even for trained professionals. To address this problem, convolutional neural networks (CNNs) and more advanced deep neural networks (DNNs) can be used for identification and segmentation of the BP nerve region. In this paper, we propose a hybrid model consisting of a classification model followed by a segmentation model to segment BP nerve regions in ultrasound images. A CNN model is employed as a classifier to precisely select the images with the BP region. Then, a U-net or M-net model is used for the segmentation. Our experimental results indicate that the proposed hybrid model significantly improves the segmentation performance over a single segmentation model.
翻訳日:2021-06-02 14:08:38 公開日:2021-06-01
# 条件付き生成逆数ネットワークを用いた肝病変合成のためのデカップリング形状と密度

Decoupling Shape and Density for Liver Lesion Synthesis Using Conditional Generative Adversarial Networks ( http://arxiv.org/abs/2106.00629v1 )

ライセンス: Link先を確認
Dario Augusto Borges Oliveira(参考訳) 病変合成は、トレーニングデータの増強、病変の進展シナリオの描画、専門家の訓練を支援するための効率的な生成モデルの台頭により、多くの注目を集めた。 合成データの質と多様性は、モデルをトレーニングするのに使用される注釈付きデータに大きく依存する。 これにより、病変分節アルゴリズムに固有のバイアスが加わり、病変の進化シナリオの合成を効率的に制限できる。 本稿では,肝病変合成のための形状と密度を分離する手法を提案する。 形状と密度を個々に修正して合成制御を示す定性的な結果と,生成器モデルに密度情報を組み込むことが,形状のみを用いた場合に比べて病変分割性能の向上に寄与することを示す定量的な結果を提供する。

Lesion synthesis received much attention with the rise of efficient generative models for augmenting training data, drawing lesion evolution scenarios, or aiding expert training. The quality and diversity of synthesized data are highly dependent on the annotated data used to train the models, which not rarely struggle to derive very different yet realistic samples from the training ones. That adds an inherent bias to lesion segmentation algorithms and limits synthesizing lesion evolution scenarios efficiently. This paper presents a method for decoupling shape and density for liver lesion synthesis, creating a framework that allows straight-forwardly driving the synthesis. We offer qualitative results that show the synthesis control by modifying shape and density individually, and quantitative results that demonstrate that embedding the density information in the generator model helps to increase lesion segmentation performance compared to using the shape solely.
翻訳日:2021-06-02 14:08:24 公開日:2021-06-01
# 畳み込みネットワークを用いたマルチスペクトル画像分類のためのハイパースペクトル帯域選択

Hyperspectral Band Selection for Multispectral Image Classification with Convolutional Networks ( http://arxiv.org/abs/2106.00645v1 )

ライセンス: Link先を確認
Giorgio Morales and John Sheppard and Riley Logan and Joseph Shaw(参考訳) 近年、ハイパースペクトルイメージング(HSI)はリモートセンシング、農業、バイオメディシンといったアプリケーションにおける信頼性の高いデータ源となっている。 しかし、ハイパースペクトル画像は非常にデータ密度が高く、特定のアプリケーションに最も有用な情報を保持しながらスペクトル帯域を減らす方法の恩恵を受けることが多い。 画像分類の文脈において、HSIシステムから得られた波長の削減されたセットを選択するための新しいバンド選択法を提案する。 提案手法は2つの主要なステップから構成される: 1つは、フィルタに基づくアプローチを用いて、帯域とその近傍のコリニアリティ解析に基づいて、関連するスペクトル帯域を求める。 この分析は冗長バンドの除去に役立ち、検索スペースを劇的に削減する。 第2のステップは、情報エントロピー値に基づいて縮小集合からバンドを選択するラッパーベースアプローチを適用し、コンパクト畳み込みニューラルネットワーク(cnn)を訓練し、現在の選択性能を評価する。 提案手法から得られた分類結果を,2つのハイパースペクトル画像データセット上の他の特徴選択法と比較する。 さらに、元のハイパースペクトルデータキューブを使用して、マルチスペクトルイメージにおける実際のフィルタの使用プロセスをシミュレートする。 本手法はマルチスペクトルセンサの設計に適した結果が得られることを示す。

In recent years, Hyperspectral Imaging (HSI) has become a powerful source for reliable data in applications such as remote sensing, agriculture, and biomedicine. However, hyperspectral images are highly data-dense and often benefit from methods to reduce the number of spectral bands while retaining the most useful information for a specific application. We propose a novel band selection method to select a reduced set of wavelengths, obtained from an HSI system in the context of image classification. Our approach consists of two main steps: the first utilizes a filter-based approach to find relevant spectral bands based on a collinearity analysis between a band and its neighbors. This analysis helps to remove redundant bands and dramatically reduces the search space. The second step applies a wrapper-based approach to select bands from the reduced set based on their information entropy values, and trains a compact Convolutional Neural Network (CNN) to evaluate the performance of the current selection. We present classification results obtained from our method and compare them to other feature selection methods on two hyperspectral image datasets. Additionally, we use the original hyperspectral data cube to simulate the process of using actual filters in a multispectral imager. We show that our method produces more suitable results for a multispectral sensor design.
翻訳日:2021-06-02 14:08:09 公開日:2021-06-01
# 体組成解析のための3次元ct画像からの全身骨格筋・脂肪組織・骨切片の自動測定の包括的検証 : 拡張体組成に向けて

Comprehensive Validation of Automated Whole Body Skeletal Muscle, Adipose Tissue, and Bone Segmentation from 3D CT images for Body Composition Analysis: Towards Extended Body Composition ( http://arxiv.org/abs/2106.00652v1 )

ライセンス: Link先を確認
Da Ma, Vincent Chow, Karteek Popuri, Mirza Faisal Beg(参考訳) コンピュータ支援精密医療の最近の進歩は、グループベースの分析に有効な集合パターンを見つけるのに役立つ集団全体モデルから、治療の選択や治療結果の予測に関して患者固有の決定を導くことができる患者固有のモデルへと移行しやすくしている。 身体構成は、様々な疾患にとって重要な要因であり、また治療選択や外科的介入に対する患者固有の臨床結果の予測因子として認識されている。 3次元CT画像は、腫瘍学的ワークローで日常的に取得され、内部解剖の正確なレンダリングを提供するため、骨格筋の量や組織区画の分別を同時に評価することができる。 ディープラーニングのような強力な人工知能のツールは、3D画像全体を分割し、すべての内部解剖を正確に測定することを可能にする。 これにより、それまで存在した深刻なボトルネック、すなわち3dボリュームイメージを構成する数百の2d軸スライスにスケールすることを禁じられていた手動セグメンテーションの必要性が克服される。 今回紹介したような自動化ツールは、3dctやmri画像から全身の計測値を取り出すことができるようになり、個々の組織、臓器容積、形状、機能状態に基づいて様々な疾患のドライバが発見される新しい時代へと繋がる。 これらの測定は不可能であったため、フィールドを非常に小さく限られたサブセットに制限した。 これらの発見と、高速かつ精度で個々の画像セグメンテーションを行う能力は、がんなどの主要な疾患の発症後の栄養、老化、化学療法、手術、生存に関連する個々の治療計画モデルにこれらの3D尺度を組み込むことにつながる可能性が高い。

The latest advances in computer-assisted precision medicine are making it feasible to move from population-wide models that are useful to discover aggregate patterns that hold for group-based analysis to patient-specific models that can drive patient-specific decisions with regard to treatment choices, and predictions of outcomes of treatment. Body Composition is recognized as an important driver and risk factor for a wide variety of diseases, as well as a predictor of individual patient-specific clinical outcomes to treatment choices or surgical interventions. 3D CT images are routinely acquired in the oncological worklows and deliver accurate rendering of internal anatomy and therefore can be used opportunistically to assess the amount of skeletal muscle and adipose tissue compartments. Powerful tools of artificial intelligence such as deep learning are making it feasible now to segment the entire 3D image and generate accurate measurements of all internal anatomy. These will enable the overcoming of the severe bottleneck that existed previously, namely, the need for manual segmentation, which was prohibitive to scale to the hundreds of 2D axial slices that made up a 3D volumetric image. Automated tools such as presented here will now enable harvesting whole-body measurements from 3D CT or MRI images, leading to a new era of discovery of the drivers of various diseases based on individual tissue, organ volume, shape, and functional status. These measurements were hitherto unavailable thereby limiting the field to a very small and limited subset. These discoveries and the potential to perform individual image segmentation with high speed and accuracy are likely to lead to the incorporation of these 3D measures into individual specific treatment planning models related to nutrition, aging, chemotoxicity, surgery and survival after the onset of a major disease such as cancer.
翻訳日:2021-06-02 14:07:52 公開日:2021-06-01
# 事前学習ネットワークを用いたノイズ画像分類の忠実度推定

Fidelity Estimation Improves Noisy-Image Classification with Pretrained Networks ( http://arxiv.org/abs/2106.00673v1 )

ライセンス: Link先を確認
Xiaoyu Lin, Deblina Bhattacharjee, Majed El Helou and Sabine S\"usstrunk(参考訳) 画像分類はディープラーニングを用いて大幅に改善された。 これは主に、大規模なデータセットから豊富な特徴抽出器を学習できる畳み込みニューラルネットワーク(cnns)に起因する。 しかし、ほとんどのディープラーニング分類法はクリーンな画像に基づいて訓練されており、復元前処理のステップが適用されたとしても、ノイズ処理では堅牢ではない。 新しい手法はこの問題に対処するが、それらは修正された特徴抽出器に依存し、したがって再訓練を必要とする。 代わりに,事前学習した分類器に適用可能な手法を提案する。 提案手法は,特徴抽出器の内部表現に融合した忠実度マップ推定を活用し,ネットワークの注意を誘導し,ノイズデータに対してより頑健にする。 我々は,特に高雑音レベルにおいて,ノイズ画像分類(NIC)の結果を大幅に改善し,完全に再訓練されたアプローチに近づいた。 さらに, 概念実証として, オラクルの忠実度マップを用いた場合, ノイズや復元画像の訓練の有無にかかわらず, 完全に再現された手法よりも優れていることを示す。

Image classification has significantly improved using deep learning. This is mainly due to convolutional neural networks (CNNs) that are capable of learning rich feature extractors from large datasets. However, most deep learning classification methods are trained on clean images and are not robust when handling noisy ones, even if a restoration preprocessing step is applied. While novel methods address this problem, they rely on modified feature extractors and thus necessitate retraining. We instead propose a method that can be applied on a pretrained classifier. Our method exploits a fidelity map estimate that is fused into the internal representations of the feature extractor, thereby guiding the attention of the network and making it more robust to noisy data. We improve the noisy-image classification (NIC) results by significantly large margins, especially at high noise levels, and come close to the fully retrained approaches. Furthermore, as proof of concept, we show that when using our oracle fidelity map we even outperform the fully retrained methods, whether trained on noisy or restored images.
翻訳日:2021-06-02 14:07:21 公開日:2021-06-01
# bures-wasserstein幾何をもつ正定値行列上のリーマン最適化について

On Riemannian Optimization over Positive Definite Matrices with the Bures-Wasserstein Geometry ( http://arxiv.org/abs/2106.00286v1 )

ライセンス: Link先を確認
Andi Han, Bamdev Mishra, Pratik Jawanpuria, Junbin Gao(参考訳) 本稿では、対称正定値(spd)行列多様体上のリーマン最適化のための一般的なアフィン不変量(ai)幾何と、bures-wasserstein(bw )幾何を比較分析する。 我々の研究は、AIメトリックの二次的依存とは対照的に、BWメトリックがSPD行列に線形依存していることから始まる。 我々は、不条件のSPD行列に対するいくつかのリーマン最適化問題に対して、BW計量がより適切で堅牢な選択であることを示す。 BW幾何学は非負の曲率を持ち、非正の曲線を持つAI幾何に対するアルゴリズムの収束率をさらに向上させることを示す。 最後に、AI幾何学では測地線凸(geodeic convex)として知られているいくつかの一般的なコスト関数が、BW幾何学では測地線凸(geodeic convex)であることを示す。 様々な応用に関する広範な実験が我々の発見を裏付けている。

In this paper, we comparatively analyze the Bures-Wasserstein (BW) geometry with the popular Affine-Invariant (AI) geometry for Riemannian optimization on the symmetric positive definite (SPD) matrix manifold. Our study begins with an observation that the BW metric has a linear dependence on SPD matrices in contrast to the quadratic dependence of the AI metric. We build on this to show that the BW metric is a more suitable and robust choice for several Riemannian optimization problems over ill-conditioned SPD matrices. We show that the BW geometry has a non-negative curvature, which further improves convergence rates of algorithms over the non-positively curved AI geometry. Finally, we verify that several popular cost functions, which are known to be geodesic convex under the AI geometry, are also geodesic convex under the BW geometry. Extensive experiments on various applications support our findings.
翻訳日:2021-06-02 14:06:06 公開日:2021-06-01
# リッジ関数の帯域凸最適化のためのミニマックスレグレット

Minimax Regret for Bandit Convex Optimisation of Ridge Functions ( http://arxiv.org/abs/2106.00444v1 )

ライセンス: Link先を確認
Tor Lattimore(参考訳) 逆向きのバンドイット凸最適化を、f(x) = g(\langle x, \theta\rangle)$ for convex $g : \mathbb r \to \mathbb r$ と $\theta \in \mathbb r^d$ という形式の関数に制限された逆数で解析する。 ミニマックスの後悔は最大で$o(d\sqrt{n} \log(\operatorname{diam}\mathcal k))$であり、ここで$n$は相互作用の数、$d$は次元、$\operatorname{diam}(\mathcal k)$は制約集合の直径である。 したがって、この函数の類は線形の場合よりも対数的に難しい。

We analyse adversarial bandit convex optimisation with an adversary that is restricted to playing functions of the form $f(x) = g(\langle x, \theta\rangle)$ for convex $g : \mathbb R \to \mathbb R$ and $\theta \in \mathbb R^d$. We provide a short information-theoreti c proof that the minimax regret is at most $O(d\sqrt{n} \log(\operatorname{diam}\mathcal K))$ where $n$ is the number of interactions, $d$ the dimension and $\operatorname{diam}(\mathcal K)$ is the diameter of the constraint set. Hence, this class of functions is at most logarithmically harder than the linear case.
翻訳日:2021-06-02 14:05:53 公開日:2021-06-01
# 伸縮触覚: 工具とグラフト物体による振動センシング

Extended Tactile Perception: Vibration Sensing through Tools and Grasped Objects ( http://arxiv.org/abs/2106.00489v1 )

ライセンス: Link先を確認
Tasbolat Taunyazov, Luar Shui Song, Eugene Lim, Hian Hian See, David Lee, Benjamin C.K. Tee, Harold Soh(参考訳) 人間は道具やその他の保持物を通して世界を感知する驚くべき能力を示す。 例えば、保持された棒の衝突箇所をピンポイントで特定し、硬いプローブを使って異なるテクスチャを区別することができる。 本研究では,ロボットが道具を具現化し,標準的な把持物体を用いて知覚を拡張できるような能力を実現する方法について検討する。 ロボットの指の動的触覚センサを用いた視覚触覚センシングと機械学習モデルにより,ロボットは剛体物体に沿って伝達される振動として伝達される接触情報を解読できる。 本稿では,BioTacマイクロ振動センサと4〜kHzでマルチタキセルセンシングが可能な新しいイベントダイナミックセンサであるNUSkinを用いた広範囲な実験について報告する。 保持棒上の微細な局在化は我々のアプローチ(20cmロッド上の誤差が1cm未満)により可能であることを示す。 次に, 振動触覚知覚は, 物体ハンドオーバ時の適度な把握安定性予測と, 標準フォークを用いた正確な食品識別につながることを示す。 マルチタキセルビブロ触覚を十分に高いサンプリングレート(2kHz以上)で検出すると,様々なタスクやオブジェクトに対して最高の性能が得られることがわかった。 両者を組み合わせることで,触覚知覚の拡張にvibro-tactile perceptionを使用するためのエビデンスとガイドラインが提供され,ツールによる能力向上と,人間とロボットの対話性の向上につながると我々は信じている。

Humans display the remarkable ability to sense the world through tools and other held objects. For example, we are able to pinpoint impact locations on a held rod and tell apart different textures using a rigid probe. In this work, we consider how we can enable robots to have a similar capacity, i.e., to embody tools and extend perception using standard grasped objects. We propose that vibro-tactile sensing using dynamic tactile sensors on the robot fingers, along with machine learning models, enables robots to decipher contact information that is transmitted as vibrations along rigid objects. This paper reports on extensive experiments using the BioTac micro-vibration sensor and a new event dynamic sensor, the NUSkin, capable of multi-taxel sensing at 4~kHz. We demonstrate that fine localization on a held rod is possible using our approach (with errors less than 1 cm on a 20 cm rod). Next, we show that vibro-tactile perception can lead to reasonable grasp stability prediction during object handover, and accurate food identification using a standard fork. We find that multi-taxel vibro-tactile sensing at sufficiently high sampling rate (above 2 kHz) led to the best performance across the various tasks and objects. Taken together, our results provides both evidence and guidelines for using vibro-tactile perception to extend tactile perception, which we believe will lead to enhanced competency with tools and better physical human-robot-interact ion.
翻訳日:2021-06-02 14:05:35 公開日:2021-06-01
# clustrank: クラスタパターンによる散乱プロットのソートのための知覚データに基づく視覚品質尺度

ClustRank: a Visual Quality Measure Trained on Perceptual Data for Sorting Scatterplots by Cluster Patterns ( http://arxiv.org/abs/2106.00599v1 )

ライセンス: Link先を確認
Mostafa Abbas, Ehsan Ullah, Abdelkader Baggag, Halima Bensmail, Michael Sedlmair, Michael Aupetit(参考訳) ビジュアル品質測定(VQM)は、視覚化のパターンを自動的に検出し定量化することにより、アナリストを支援するように設計されている。 そこで本研究では,視認可能なグループ化パターンに従って散布確率をランク付けする,clustrankと呼ばれる新しいデータ駆動手法を提案する。 本モデルはまず, ガウス混合モデルのパラメトリック空間に散乱プロットを符号化し, 人間の判断データに基づいて学習した分類器を用いてグループ化パターンの知覚複雑性を推定する。 初期混合成分の個数と最終結合群は散乱指数の階数を決定する。 ClustRankは、2ガウスのクラスタパターン上の人間の判断を模倣することで既存のVQM技術を改善し、スパッタプロットで一般的なクラスタパターンをランク付けする際の精度を高める。 我々は,大規模な散布株の視覚的解析に専門家が依存する領域であるゲノムワイド・アソシエーション研究において,血縁関係データを分析することで,そのメリットを実証する。 3つのベンチマークデータセットとClustRank VQMを実用的な使用とさらなる改善のために利用しています。

Visual quality measures (VQMs) are designed to support analysts by automatically detecting and quantifying patterns in visualizations. We propose a new data-driven technique called ClustRank that allows to rank scatterplots according to visible grouping patterns. Our model first encodes scatterplots in the parametric space of a Gaussian Mixture Model, and then uses a classifier trained on human judgment data to estimate the perceptual complexity of grouping patterns. The numbers of initial mixture components and final combined groups determine the rank of the scatterplot. ClustRank improves on existing VQM techniques by mimicking human judgments on two-Gaussian cluster patterns and gives more accuracy when ranking general cluster patterns in scatterplots. We demonstrate its benefit by analyzing kinship data for genome-wide association studies, a domain in which experts rely on the visual analysis of large sets of scatterplots. We make the three benchmark datasets and the ClustRank VQM available for practical use and further improvements.
翻訳日:2021-06-02 14:05:12 公開日:2021-06-01
# 深層学習を用いた走査型心電図追跡による運動時の胎児障害の検出

Detection of preventable fetal distress during labor from scanned cardiotocogram tracings using deep learning ( http://arxiv.org/abs/2106.00628v1 )

ライセンス: Link先を確認
Martin G. Frasch, Shadrian B. Strong, David Nilosek, Joshua Leaverton, Barry S. Schifrin(参考訳) 労働・配送の分野で広く応用されているにもかかわらず、電子胎児モニタリング(EFM)の価値についてかなりの議論が続いている。 EFMには胎児の心拍数(FHR)パターンの監視と、胎児の行動に関する豊富なデータと、酸素化と灌流の脅威を提供する母体の子宮収縮が含まれる。 fhrパターン情報にタイムリーに応答できない場合、胎児の損傷を普遍的に関連づける副作用。 歴史的に、デジタルに保存されたEMMデータは、現代的または歴史的議論と検査のためのラスタライズされたpdf画像としてのみ利用可能である。 しかし実際には、体系的にレビューされることはめったにない。 本研究は,50年以上にわたって収集したEMFの独自のアーカイブを用いて,早期ないし過去の胎児外傷の訓練および検出のための深層学習フレームワークを提案する。 早期の予防的胎児外傷の診断精度は94%であった。 この枠組みは、胎児の健康維持のための早期の警告および意思決定支援システムの自動化に適している。 最終的には、そのようなシステムは、医師が労働中にタイムリーに反応し、有害な結果を防ぐことができる。 副作用が回避できない場合、新生児の早期神経保護治療へのガイダンスを提供することができる。

Despite broad application during labor and delivery, there remains considerable debate about the value of electronic fetal monitoring (EFM). EFM includes the surveillance of the fetal heart rate (FHR) patterns in conjunction with the maternal uterine contractions providing a wealth of data about fetal behavior and the threat of diminished oxygenation and perfusion. Adverse outcomes universally associate a fetal injury with the failure to timely respond to FHR pattern information. Historically, the EFM data, stored digitally, are available only as rasterized pdf images for contemporary or historical discussion and examination. In reality, however, they are rarely reviewed systematically. Using a unique archive of EFM collected over 50 years of practice in conjunction with adverse outcomes, we present a deep learning framework for training and detection of incipient or past fetal injury. We report 94% accuracy in identifying early, preventable fetal injury intrapartum. This framework is suited for automating an early warning and decision support system for maintaining fetal well-being during the stresses of labor. Ultimately, such a system could enable a physician to timely respond during labor and prevent adverse outcomes. When adverse outcomes cannot be avoided, they can provide guidance to the early neuroprotective treatment of the newborn.
翻訳日:2021-06-02 14:04:08 公開日:2021-06-01
# 音像定位のためのデュアル正規化マルチタスキング

Dual Normalization Multitasking for Audio-Visual Sounding Object Localization ( http://arxiv.org/abs/2106.00180v1 )

ライセンス: Link先を確認
Tokuhiro Nishikawa, Daiki Shimada, Jerry Jun Yokono(参考訳) 未訓練映像における視聴覚音源の定位に関するいくつかの研究が報告されているが、その性能を定量的に評価するためのデータセットやメトリクスは提案されていない。 音源定位のための基礎的真理を定義することは, 音源の位置は音源の範囲に限らず, 振動が周囲の物体を伝播・伝播させるため, 困難である。 そこで本研究では,音の視的位置の曖昧さを低減し,幅広い音源の位置をアノテートする新しい概念であるサウンド・オブジェクトを提案する。 定量的評価のためのメトリクスを新たに提案し,AVSOL(Audio-Visual Sounding Object Localization)の問題を定式化する。 また、よく知られたAVEデータセットのテストセットを手動でアノテートすることで、評価データセット(AVSOL-Eデータセット)を作成しました。 本稿では,この新たなavsol問題に対処するために,オーディオ・ビジュアル対応 (avc) タスクとビデオイベントの分類タスクを1つのオーディオ・ビジュアル類似度マップに集約する,デュアル・ノーマライズ・マルチタスク (dnm) と呼ばれる新しいマルチタスク・トレーニング戦略とアーキテクチャを提案する。 DNMによる両監視を効率的に活用することにより,提案アーキテクチャはベースライン法よりも大幅に優れる。

Although several research works have been reported on audio-visual sound source localization in unconstrained videos, no datasets and metrics have been proposed in the literature to quantitatively evaluate its performance. Defining the ground truth for sound source localization is difficult, because the location where the sound is produced is not limited to the range of the source object, but the vibrations propagate and spread through the surrounding objects. Therefore we propose a new concept, Sounding Object, to reduce the ambiguity of the visual location of sound, making it possible to annotate the location of the wide range of sound sources. With newly proposed metrics for quantitative evaluation, we formulate the problem of Audio-Visual Sounding Object Localization (AVSOL). We also created the evaluation dataset (AVSOL-E dataset) by manually annotating the test set of well-known Audio-Visual Event (AVE) dataset. To tackle this new AVSOL problem, we propose a novel multitask training strategy and architecture called Dual Normalization Multitasking (DNM), which aggregates the Audio-Visual Correspondence (AVC) task and the classification task for video events into a single audio-visual similarity map. By efficiently utilize both supervisions by DNM, our proposed architecture significantly outperforms the baseline methods.
翻訳日:2021-06-02 14:03:51 公開日:2021-06-01
# マルチエージェントマルコフ確率ゲームにおけるグラディエントプレイ:静止点と収束

Gradient Play in Multi-Agent Markov Stochastic Games: Stationary Points and Convergence ( http://arxiv.org/abs/2106.00198v1 )

ライセンス: Link先を確認
Runyu Zhang, Zhaolin Ren, Na Li(参考訳) エージェント間で共有される現在の状態情報に基づいて決定を独立に行うことにより、各エージェントが自己の合計割引報酬を最大化しようとする確率ゲーム(SGs)としても知られるマルチエージェントタブラマルコフ決定プロセス(MDPs)の勾配プレイアルゴリズムの性能について検討する。 ポリシーは、ある状態において特定のアクションを選択する確率によって直接パラメータ化される。 nash平衡(nes)と1次定常ポリシーがこの設定において等価であることを示し、マルコフポテンシャルゲームと呼ばれるマルチエージェントmdpのサブクラスに対して、非漸近的大域収束率解析を$\epsilon$-neに与える。 その結果,エージェント数で指数関数的にではなく,$\epsilon$-neに達するイテレーションの数は線形にスケールすることがわかった。 局所幾何学や局所安定性も考慮される。 マルコフポテンシャルゲームに対しては、厳密な NE が全ポテンシャル関数の局所極大であり、完全混合の NE がサドル点であることを証明する。 さらに、より一般的な設定では、厳格なnes周辺の局所収束率も与えます。

We study the performance of the gradient play algorithm for multi-agent tabular Markov decision processes (MDPs), which are also known as stochastic games (SGs), where each agent tries to maximize its own total discounted reward by making decisions independently based on current state information which is shared between agents. Policies are directly parameterized by the probability of choosing a certain action at a given state. We show that Nash equilibria (NEs) and first order stationary policies are equivalent in this setting, and give a non-asymptotic global convergence rate analysis to an $\epsilon$-NE for a subclass of multi-agent MDPs called Markov potential games, which includes the cooperative setting with identical rewards among agents as an important special case. Our result shows that the number of iterations to reach an $\epsilon$-NE scales linearly, instead of exponentially, with the number of agents. Local geometry and local stability are also considered. For Markov potential games, we prove that strict NEs are local maxima of the total potential function and fully-mixed NEs are saddle points. We also give a local convergence rate around strict NEs for more general settings.
翻訳日:2021-06-02 14:01:58 公開日:2021-06-01
# ベイズメタラーニングにおける認識不確実性の情報理論解析

Information-Theoreti c Analysis of Epistemic Uncertainty in Bayesian Meta-learning ( http://arxiv.org/abs/2106.00252v1 )

ライセンス: Link先を確認
Sharu Theresa Jose, Sangwoo Park, Osvaldo Simeone(参考訳) 訓練された予測器の全体的な予測の不確実性は、認識論的不確実性とアレエータ的不確実性のために別個の貢献に分解することができる。 ベイズ的定式化の下では、十分に特定されたモデルとして、2つの寄与は情報理論量(Xu と Raginsky, 2020)の点で(ログロスに関して)正確に表現できる。 本稿では,ベイズメタラーニングにおける情報理論の枠組みにおける認識の不確実性について考察する。 一般的な階層的ベイズモデルでは、ハイパーパラメータがモデルパラメータのタスクごとの事前を決定する。 最適なメタ学習規則の最小過剰メタリスク(MEMR)によって定量化されるてんかんの不確実性に対して、(ログロスに関して)厳密な特徴と境界(より一般的な損失のために)導出される。 この特徴付けは、タスク数とタスク毎のトレーニングデータ量に対する認識の不確かさの依存性に関する洞察をもたらすために利用される。 神経相互情報推定器を用いて評価した情報理論的境界と,langevin-stein bayesian meta-learning(ls-bml )と呼ばれる新しい近似完全ベイズ型メタラーニング戦略の性能を比較する実験を行った。

The overall predictive uncertainty of a trained predictor can be decomposed into separate contributions due to epistemic and aleatoric uncertainty. Under a Bayesian formulation, assuming a well-specified model, the two contributions can be exactly expressed (for the log-loss) or bounded (for more general losses) in terms of information-theoreti c quantities (Xu and Raginsky, 2020). This paper addresses the study of epistemic uncertainty within an information-theoreti c framework in the broader setting of Bayesian meta-learning. A general hierarchical Bayesian model is assumed in which hyperparameters determine the per-task priors of the model parameters. Exact characterizations (for the log-loss) and bounds (for more general losses) are derived for the epistemic uncertainty - quantified by the minimum excess meta-risk (MEMR)- of optimal meta-learning rules. This characterization is leveraged to bring insights into the dependence of the epistemic uncertainty on the number of tasks and on the amount of per-task training data. Experiments are presented that compare the proposed information-theoreti c bounds, evaluated via neural mutual information estimators, with the performance of a novel approximate fully Bayesian meta-learning strategy termed Langevin-Stein Bayesian Meta-Learning (LS-BML).
翻訳日:2021-06-02 14:01:36 公開日:2021-06-01
# 情報リスク最小化による機械学習のための統合PAC-Bayesianフレームワーク

A unified PAC-Bayesian framework for machine unlearning via information risk minimization ( http://arxiv.org/abs/2106.00265v1 )

ライセンス: Link先を確認
Sharu Theresa Jose, Osvaldo Simeone(参考訳) マシンアンラーニング(machine unlearning)とは、トレーニングモデルの要求に対するトレーニングデータのサブセットの影響を、スクラッチから再トレーニングするコストを伴わずに取り除くメカニズムである。 本稿では,情報リスク最小化問題(Zhang,2006)として,変分アンラーニング(Nguyen et.al., 2020)とラグランジアン(Golatkar et.al., 2020)の2つの最近の設計原則を回復する,機械学習のための統一的なPAC-Bayesianフレームワークを開発する。 したがって、どちらの基準も自由エネルギー計量の形をとる未学習モデルの試験損失に関するPAC-ベイジアン上界と解釈できる。

Machine unlearning refers to mechanisms that can remove the influence of a subset of training data upon request from a trained model without incurring the cost of re-training from scratch. This paper develops a unified PAC-Bayesian framework for machine unlearning that recovers the two recent design principles - variational unlearning (Nguyen et.al., 2020) and forgetting Lagrangian (Golatkar et.al., 2020) - as information risk minimization problems (Zhang,2006). Accordingly, both criteria can be interpreted as PAC-Bayesian upper bounds on the test loss of the unlearned model that take the form of free energy metrics.
翻訳日:2021-06-02 14:01:12 公開日:2021-06-01
# H-FL:フェデレートラーニングのための階層的コミュニケーション効率とプライバシ保護アーキテクチャ

H-FL: A Hierarchical Communication-Effici ent and Privacy-Protected Architecture for Federated Learning ( http://arxiv.org/abs/2106.00275v1 )

ライセンス: Link先を確認
He Yang(参考訳) 連合学習(federated learning:fl)の長年の目標は、厳密なプライバシー保証と、比較的高いモデル精度を維持しながら、低い通信オーバーヘッドを必要とする。 しかし、すべての目標を同時に達成することは極めて難しい。 本稿では,この課題に対処するため,階層型連合学習(H-FL)と呼ばれる新しい枠組みを提案する。 トレーニングデータの統計的不均一性によるモデル性能の劣化を考慮し、クライアントを適切に配置し、仲介者を利用してクライアントのローカルトレーニングを再構成する実行時分布再構築戦略を考案する。 さらに,H-FLに組み込まれた圧縮補正機構を設計し,モデル性能を犠牲にすることなく通信オーバーヘッドを低減する。 さらに,プライバシの保証を提供するために,ローカルトレーニングを実施しながらディファレンシャルプライバシを導入し,モデルの一部のみに適度なノイズを注入する。 実験結果から,H-FLフレームワークは実世界の画像認識タスクに対して,異なるデータセット上での最先端性能を実現することがわかった。

The longstanding goals of federated learning (FL) require rigorous privacy guarantees and low communication overhead while holding a relatively high model accuracy. However, simultaneously achieving all the goals is extremely challenging. In this paper, we propose a novel framework called hierarchical federated learning (H-FL) to tackle this challenge. Considering the degradation of the model performance due to the statistic heterogeneity of the training data, we devise a runtime distribution reconstruction strategy, which reallocates the clients appropriately and utilizes mediators to rearrange the local training of the clients. In addition, we design a compression-correcti on mechanism incorporated into H-FL to reduce the communication overhead while not sacrificing the model performance. To further provide privacy guarantees, we introduce differential privacy while performing local training, which injects moderate amount of noise into only part of the complete model. Experimental results show that our H-FL framework achieves the state-of-art performance on different datasets for the real-world image recognition tasks.
翻訳日:2021-06-02 14:00:56 公開日:2021-06-01
# 可逆サロゲートモデル:可逆ニューラルネットワークによるレーザー-ウェークフィールド加速の合同サロゲートモデルと再構成

Invertible Surrogate Models: Joint surrogate modelling and reconstruction of Laser-Wakefield Acceleration by invertible neural networks ( http://arxiv.org/abs/2106.00432v1 )

ライセンス: Link先を確認
Friedrich Bethke, Richard Pausch, Patrick Stiller, Alexander Debus, Michael Bussmann, Nico Hoffmann(参考訳) 可逆ニューラルネットワークは、前と逆モードで実行できる、機械学習の有望なニューラルネットワークアーキテクチャにおける最近の技術である。 本稿では,レーザープラズマ加速器(iLWFA)に係わる物理の複雑な前方シミュレーションを近似する,可逆サロゲートモデルを導入する。 代理モデルの客観的設計は、実験的に得られた診断を再構築するためのあらゆる手段を提供する。 我々の逆レーザーウェイクフィールド加速ネットワークの品質は、大規模な数値LWFAシミュレーションで検証される。

Invertible neural networks are a recent technique in machine learning promising neural network architectures that can be run in forward and reverse mode. In this paper, we will be introducing invertible surrogate models that approximate complex forward simulation of the physics involved in laser plasma accelerators: iLWFA. The bijective design of the surrogate model also provides all means for reconstruction of experimentally acquired diagnostics. The quality of our invertible laser wakefield acceleration network will be verified on a large set of numerical LWFA simulations.
翻訳日:2021-06-02 14:00:41 公開日:2021-06-01
# 実世界の画像復元と超解像のための2段階領域適応トレーニング

Two-stage domain adapted training for better generalization in real-world image restoration and super-resolution ( http://arxiv.org/abs/2106.00504v1 )

ライセンス: Link先を確認
Cansu Korkmaz, A.Murat Tekalp, Zafer Dogan(参考訳) 逆問題では、エンドツーエンドのトレーニングされたネットワークがトレーニングセットに見られる劣化モデルに過剰に適合していること、すなわち、それらは他のタイプの劣化にうまく一般化しないことがよく知られている。 近年,未知フィルタによりサンプリングされた画像を,ビキュービックにダウンサンプリングされたルックアライクな画像にマッピングする手法が提案されている。 本稿では,まず入力された劣化した画像を中間領域にマッピングし,次いでその中間領域から出力画像を生成するための第2のネットワークを訓練することにより,任意の逆問題を定式化できることを示す。 さらに、最適な中間領域はタスクによって異なる場合がある。 実験の結果, この2段階のドメイン適応トレーニング戦略は, 未知の劣化のクラスに対してより良い結果を得るだけでなく, 他の未知の劣化クラスにも一般化できることがわかった。

It is well-known that in inverse problems, end-to-end trained networks overfit the degradation model seen in the training set, i.e., they do not generalize to other types of degradations well. Recently, an approach to first map images downsampled by unknown filters to bicubicly downsampled look-alike images was proposed to successfully super-resolve such images. In this paper, we show that any inverse problem can be formulated by first mapping the input degraded images to an intermediate domain, and then training a second network to form output images from these intermediate images. Furthermore, the best intermediate domain may vary according to the task. Our experimental results demonstrate that this two-stage domain-adapted training strategy does not only achieve better results on a given class of unknown degradations but can also generalize to other unseen classes of degradations better.
翻訳日:2021-06-02 14:00:07 公開日:2021-06-01
# 限定的な通信と差分プライバシーを持つ無線フェデレーション学習

Wireless Federated Learning with Limited Communication and Differential Privacy ( http://arxiv.org/abs/2106.00564v1 )

ライセンス: Link先を確認
Amir Sonee and Stefano Rini and Yu-Chih Huang(参考訳) 本稿では,空力計算(AirComp)に基づくフェデレーション学習(FL)モデルにおいて,ローカルデータセットの効率的な通信と差分プライバシー(DP)における次元性低減の役割について検討する。 より正確には、ガウスマルチアクセスチャネル(gmac)上のパラメータサーバ(ps)との同時チャネル認識と限定的な通信により、クライアントが機械学習モデルをトレーニングするように促されるfl設定を考える。 この設定のために、局所勾配に基づいて与えられた損失関数の最小値をトレーニングするためのフェデレート確率勾配降下(FedSGD)、局所的な更新の次元を小さくするためのジョンソン・リンデンシュトラウス(JL)ランダムプロジェクション、ユーザのプライバシーをさらに支援するための人工ノイズを適用するアルゴリズムを提案する。 本手法では,各次元に大きなノイズを注入し,ベクトルの感度を一定に保ちながら,局所DP性能が主に向上していることが示唆された。 これは次元減少のない場合と比較して収束速度が遅くなるのに対してである。 コンバージェンスが遅いため、プライバシとコンバージェンスの間のトレードオフは高いが、高次元のシステムでは、通信コストをはるかに少なくしてほぼ同じトレードオフが発生することが示されている。

This paper investigates the role of dimensionality reduction in efficient communication and differential privacy (DP) of the local datasets at the remote users for over-the-air computation (AirComp)-based federated learning (FL) model. More precisely, we consider the FL setting in which clients are prompted to train a machine learning model by simultaneous channel-aware and limited communications with a parameter server (PS) over a Gaussian multiple-access channel (GMAC), so that transmissions sum coherently at the PS globally aware of the channel coefficients. For this setting, an algorithm is proposed based on applying federated stochastic gradient descent (FedSGD) for training the minimum of a given loss function based on the local gradients, Johnson-Lindenstraus s (JL) random projection for reducing the dimension of the local updates, and artificial noise to further aid user's privacy. For this scheme, our results show that the local DP performance is mainly improved due to injecting noise of greater variance on each dimension while keeping the sensitivity of the projected vectors unchanged. This is while the convergence rate is slowed down compared to the case without dimensionality reduction. As the performance outweighs for the slower convergence, the trade-off between privacy and convergence is higher but is shown to lessen in high-dimensional regime yielding almost the same trade-off with much less communication cost.
翻訳日:2021-06-02 13:59:52 公開日:2021-06-01
# 機械学習に基づく物理イベント生成に関する調査

A survey of machine learning-based physics event generation ( http://arxiv.org/abs/2106.00643v1 )

ライセンス: Link先を確認
Yasir Alanazi, N. Sato, Pawel Ambrozewicz, Astrid N. Hiller Blin, W. Melnitchouk, Marco Battaglieri, Tianbo Liu, Yaohang Li(参考訳) 高エネルギー核および素粒子物理学における事象生成子は、粒子反応の研究を促進する上で重要な役割を果たす。 物理イベントジェネレータの構築における機械学習(ML)の取り組みの現状について調査する。 MLベースのイベントジェネレータで使用されるML生成モデルとその特定の課題について検討し、これらの課題を克服するために、MLモデル設計に物理を組み込む様々なアプローチについて議論する。 最後に,ML技術に基づく物理イベント生成のための超解像,忠実度,外挿に関するオープンな質問について検討する。

Event generators in high-energy nuclear and particle physics play an important role in facilitating studies of particle reactions. We survey the state-of-the-art of machine learning (ML) efforts at building physics event generators. We review ML generative models used in ML-based event generators and their specific challenges, and discuss various approaches of incorporating physics into the ML model designs to overcome these challenges. Finally, we explore some open questions related to super-resolution, fidelity, and extrapolation for physics event generation based on ML technology.
翻訳日:2021-06-02 13:58:58 公開日:2021-06-01
# フォグベースのIoTにおける通信性能とエネルギー利用向上のための強化学習手法

A reinforcement learning approach to improve communication performance and energy utilization in fog-based IoT ( http://arxiv.org/abs/2106.00654v1 )

ライセンス: Link先を確認
Babatunji Omoniwa, Maxime Gueriau and Ivana Dusparic(参考訳) 近年の研究では、利用可能なモバイルフォグデバイス(スマートフォン、ドローン、国内および産業用ロボットなど)をリレーとして、センサーと目的地デバイス間の通信停止を最小限に抑える可能性を実証している。 しかし、移動中のリレーは移動時にエネルギーを減らし、遠隔地へ送信する。 したがって、中継装置の電力制御機構とインテリジェントモビリティは、通信性能とエネルギー利用の改善に不可欠である。 本稿では,各移動式フォグ中継エージェント(MFRA)を,強化学習を用いて通信性能とエネルギー利用を同時に向上させる自律エージェントによって制御する,Qラーニングに基づく分散型アプローチを提案する。 それぞれの自律エージェントは、目的地とそのエネルギーレベルからのフィードバックに基づいて、メッセージの送信を継続するか、送信フェーズに受動的になるかを学習する。 本手法は集中型アプローチと比較し,MFRAの少ない数で信頼性の高いデータ配信を実現し,全体のエネルギーコストを 56.76\% -- 88.03\% 削減できることを示した。

Recent research has shown the potential of using available mobile fog devices (such as smartphones, drones, domestic and industrial robots) as relays to minimize communication outages between sensors and destination devices, where localized Internet-of-Things services (e.g., manufacturing process control, health and security monitoring) are delivered. However, these mobile relays deplete energy when they move and transmit to distant destinations. As such, power-control mechanisms and intelligent mobility of the relay devices are critical in improving communication performance and energy utilization. In this paper, we propose a Q-learning-based decentralized approach where each mobile fog relay agent (MFRA) is controlled by an autonomous agent which uses reinforcement learning to simultaneously improve communication performance and energy utilization. Each autonomous agent learns based on the feedback from the destination and its own energy levels whether to remain active and forward the message, or become passive for that transmission phase. We evaluate the approach by comparing with the centralized approach, and observe that with lesser number of MFRAs, our approach is able to ensure reliable delivery of data and reduce overall energy cost by 56.76\% -- 88.03\%.
翻訳日:2021-06-02 13:58:50 公開日:2021-06-01