このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200517となっている論文です。

PDF登録状況(公開日: 20200517)

TitleAuthorsAbstract論文公表日・翻訳日
# 画像暗号化と復号のためのShallow Encoder Deep Decoder (SEDD) Networks

Shallow Encoder Deep Decoder (SEDD) Networks for Image Encryption and Decryption ( http://arxiv.org/abs/2001.03017v2 )

ライセンス: Link先を確認
Chirag Gupta(参考訳) 本稿では、暗号化のための浅いエンコーダニューラルネットワークEと復号のための複雑なディープデコーダニューラルネットワークDを用いて、損失の多い画像暗号化と復号化のための新しいフレームワークを探索する。 エンコーディングは低消費電力でポータブルなデバイス上で行うことができ、原理的にはエンコードされたベクトルを出力する非線形関数である。 Dは画像のデータセットを使って符号化を復号するために訓練されている - Eから得られたベクトル対を符号化し、Eから独立して発生する。 符号化はEから来ているが、単純なニューラルネットワークであるにもかかわらず、数千のランダムパラメータを持つため、Dなしでは解読は事実上不可能である。この方法は、DがEから完全に独立して訓練されているため、オートエンコーダとは異なる。 そこで本研究では,ニューラルネットワークの出力や,クリプトアナリシスにおいて非常に有用な非線形関数によって,ニューラルネットワークが元のデータを何らかの有用な形で再構築できることを実証的に検討する。 実験では、Dからデコードされた画像の定性的かつ定量的な評価を通じて、いくつかの制限とともにフレームワークの可能性を示す。

This paper explores a new framework for lossy image encryption and decryption using a simple shallow encoder neural network E for encryption, and a complex deep decoder neural network D for decryption. E is kept simple so that encoding can be done on low power and portable devices and can in principle be any nonlinear function which outputs an encoded vector. D is trained to decode the encodings using the dataset of image - encoded vector pairs obtained from E and happens independently of E. As the encodings come from E which while being a simple neural network, still has thousands of random parameters and therefore the encodings would be practically impossible to crack without D. This approach differs from autoencoders as D is trained completely independently of E, although the structure may seem similar. Therefore, this paper also explores empirically if a deep neural network can learn to reconstruct the original data in any useful form given the output of a neural network or any other nonlinear function, which can have very useful applications in Cryptanalysis. Experiments demonstrate the potential of the framework through qualitative and quantitative evaluation of the decoded images from D along with some limitations.
翻訳日:2023-01-13 04:39:46 公開日:2020-05-17
# 静止電流の欠如について

On the absence of stationary currents ( http://arxiv.org/abs/2001.05093v2 )

ライセンス: Link先を確認
Sven Bachmann and Martin Fraas(参考訳) 我々は、量子系におけるマクロな定常電流の欠如に関するブロッホの定理の証明をレビューする。 標準的な証明は、1Dの電流がより一般的な条件の下で大きな体積制限で消えることを示している。 高次元では、断面全体の電流はギャップのない系で消滅する必要はないが、ガッピングされた系では消滅する。 我々は後者の主張に注目し、保存された u(1)$-charge を持つ量子格子系において、最近導入された多体電荷輸送の指数に動機付けられた自己完結した証明を与える。

We review proofs of a theorem of Bloch on the absence of macroscopic stationary currents in quantum systems. The standard proof shows that the current in 1D vanishes in the large volume limit under rather general conditions. In higher dimension, the total current across a cross-section does not need to vanish in gapless systems but it does vanish in gapped systems. We focus on the latter claim and give a self-contained proof motivated by a recently introduced index for many-body charge transport in quantum lattice systems having a conserved $U(1)$-charge.
翻訳日:2023-01-11 07:26:24 公開日:2020-05-17
# ビジュアル・セマンティック・エンベディングを用いた重み付き物体分割法

Weakly Supervised Few-shot Object Segmentation using Co-Attention with Visual and Semantic Embeddings ( http://arxiv.org/abs/2001.09540v3 )

ライセンス: Link先を確認
Mennatullah Siam, Naren Doraiswamy, Boris N. Oreshkin, Hengshuai Yao and Martin Jagersand(参考訳) 最近、数発のオブジェクトセグメンテーション法の開発で重要な進歩を遂げている。 学習は、ピクセルレベル、スクリブル、バウンディングボックス管理を使用して、数ショットのセグメンテーション設定で成功している。 本論文では, 画像レベルのラベルを必要とせず, 少数のオブジェクトセグメンテーションを行う。 視覚と単語の埋め込みを併用したコアテンション機構を利用した,少数ショットオブジェクトセグメンテーションのための新しいマルチモーダルインタラクションモジュールを提案する。 画像レベルラベルを用いたモデルでは,従来提案していた画像レベル少数ショットオブジェクトのセグメンテーションよりも4.8%向上した。 またPASCAL-5iの弱いバウンディングボックス管理を使用する最先端の手法よりも優れている。 この結果から, 単語埋め込みの利点を生かし, 画像レベルラベルの弱い結合視覚的セグメンテーションを用いて, 少数のセグメンテーションを行うことができることがわかった。 さらに,ビデオのためのマイナショット学習(tosfl)のための新しい設定,時間オブジェクトセグメンテーションを提案する。 TOSFLは、インスタンスレベルとカテゴリレベルのTOSFL実験の両方で示されているように、Youtube-VOSのような様々な公開ビデオデータで使用することができる。

Significant progress has been made recently in developing few-shot object segmentation methods. Learning is shown to be successful in few-shot segmentation settings, using pixel-level, scribbles and bounding box supervision. This paper takes another approach, i.e., only requiring image-level label for few-shot object segmentation. We propose a novel multi-modal interaction module for few-shot object segmentation that utilizes a co-attention mechanism using both visual and word embedding. Our model using image-level labels achieves 4.8% improvement over previously proposed image-level few-shot object segmentation. It also outperforms state-of-the-art methods that use weak bounding box supervision on PASCAL-5i. Our results show that few-shot segmentation benefits from utilizing word embeddings, and that we are able to perform few-shot segmentation using stacked joint visual semantic processing with weak image-level labels. We further propose a novel setup, Temporal Object Segmentation for Few-shot Learning (TOSFL) for videos. TOSFL can be used on a variety of public video data such as Youtube-VOS, as demonstrated in both instance-level and category-level TOSFL experiments.
翻訳日:2023-01-06 19:34:42 公開日:2020-05-17
# 文圧縮のための構文的ルックアヘッド注意ネットワーク

Syntactically Look-Ahead Attention Network for Sentence Compression ( http://arxiv.org/abs/2002.01145v2 )

ライセンス: Link先を確認
Hidetaka Kamigaito, Manabu Okumura(参考訳) 文圧縮は、冗長な単語を削除して長い文を短い文に圧縮する作業である。 シーケンシャル・ツー・シーケンス(Seq2Seq)ベースのモデルでは、デコーダは一方向で単語の保持または削除を決定する。 したがって、通常は、復号された単語と将来の時間ステップで復号される未知の単語の関係を明示的に捉えることはできない。 したがって、非文法的な文を生成するのを避けるために、デコーダは時に重要な単語を圧縮文にドロップする。 そこで本研究では,将来復号化される重要な単語の抽出と復号化において,依存親語と子語の両方を明示的に追跡することにより,情報的要約を生成できる新しいSeq2Seqモデルを提案する。 Googleの文圧縮データセットの自動評価の結果、SLAHANは、それぞれ85.5, 79.3, 71.3, 79.1の最高保持型F1, ROUGE-1, ROUGE-2, ROUGE-Lスコアを達成した。 SLAHANは長文の要約性能も改善した。 さらに,人間の評価において,SLAHANは可読性を損なうことなく情報性が向上した。

Sentence compression is the task of compressing a long sentence into a short one by deleting redundant words. In sequence-to-sequence (Seq2Seq) based models, the decoder unidirectionally decides to retain or delete words. Thus, it cannot usually explicitly capture the relationships between decoded words and unseen words that will be decoded in the future time steps. Therefore, to avoid generating ungrammatical sentences, the decoder sometimes drops important words in compressing sentences. To solve this problem, we propose a novel Seq2Seq model, syntactically look-ahead attention network (SLAHAN), that can generate informative summaries by explicitly tracking both dependency parent and child words during decoding and capturing important words that will be decoded in the future. The results of the automatic evaluation on the Google sentence compression dataset showed that SLAHAN achieved the best kept-token-based-F1, ROUGE-1, ROUGE-2 and ROUGE-L scores of 85.5, 79.3, 71.3 and 79.1, respectively. SLAHAN also improved the summarization performance on longer sentences. Furthermore, in the human evaluation, SLAHAN improved informativeness without losing readability.
翻訳日:2023-01-04 03:10:18 公開日:2020-05-17
# 運動量は正規化sgdを改善する

Momentum Improves Normalized SGD ( http://arxiv.org/abs/2002.03305v2 )

ライセンス: Link先を確認
Ashok Cutkosky and Harsh Mehta(参考訳) 正規化SGDを改良した解析により,非凸目的の大規模バッチサイズの必要性を確実に除去できることを示す。 次に、有界二階微分を持つ対象の場合について考察し、この場合、運動量公式に対する小さな微調整により、運動量を持つ正規化 SGD が$O(1/\epsilon^{3.5})$繰り返しの$\epsilon$-Critical point を見つけることができ、対数因子や次元への依存を伴わずに最もよく知られた速度と一致することを示す。 また,勾配のばらつきが小さい場合に自動的に収束率を改善する適応法を提案する。 最後に,ResNet-50 や BERT の事前学習などの大規模タスクに使用する場合,両タスクの最先端化に使用する異種メソッドの性能とを一致させることで,本手法が有効であることを示す。

We provide an improved analysis of normalized SGD showing that adding momentum provably removes the need for large batch sizes on non-convex objectives. Then, we consider the case of objectives with bounded second derivative and show that in this case a small tweak to the momentum formula allows normalized SGD with momentum to find an $\epsilon$-critical point in $O(1/\epsilon^{3.5})$ iterations, matching the best-known rates without accruing any logarithmic factors or dependence on dimension. We also provide an adaptive method that automatically improves convergence rates when the variance in the gradients is small. Finally, we show that our method is effective when employed on popular large scale tasks such as ResNet-50 and BERT pretraining, matching the performance of the disparate methods used to get state-of-the-art results on both tasks.
翻訳日:2023-01-02 14:24:37 公開日:2020-05-17
# コンテキスト多要素帯域によるオンライン住宅需要応答

Online Residential Demand Response via Contextual Multi-Armed Bandits ( http://arxiv.org/abs/2003.03627v2 )

ライセンス: Link先を確認
Xin Chen, Yutong Nie, Na Li(参考訳) 住宅の負荷は需要応答(DR)プログラムによる電力システムの効率性と信頼性を高める大きな可能性を秘めている。 住宅DRにおける大きな課題の1つは、未知かつ不確実な顧客行動を扱うことである。 従来の研究は学習技術を用いて顧客のDR行動を予測するが、時間変化の環境要因の影響は概して無視され、不正確な予測と非効率な負荷調整につながる可能性がある。 本稿では,lse(ロードサービス・エンティティ)が顧客の最適なサブセットを選択し,財務予算で期待される負荷削減を最大化することを目的とした住宅dr問題を考える。 環境影響下での不確実な顧客の振る舞いを学習するために,住宅DRを文脈的マルチアームバンディット(MAB)問題として定式化し,トンプソンサンプリングに基づくオンライン学習と選択(OLS)アルゴリズムを提案する。 このアルゴリズムはコンテキスト情報を考慮に入れ、複雑なDR設定に適用できる。 提案手法の学習効果を示すために数値シミュレーションを行った。

Residential loads have great potential to enhance the efficiency and reliability of electricity systems via demand response (DR) programs. One major challenge in residential DR is to handle the unknown and uncertain customer behaviors. Previous works use learning techniques to predict customer DR behaviors, while the influence of time-varying environmental factors is generally neglected, which may lead to inaccurate prediction and inefficient load adjustment. In this paper, we consider the residential DR problem where the load service entity (LSE) aims to select an optimal subset of customers to maximize the expected load reduction with a financial budget. To learn the uncertain customer behaviors under the environmental influence, we formulate the residential DR as a contextual multi-armed bandit (MAB) problem, and the online learning and selection (OLS) algorithm based on Thompson sampling is proposed to solve it. This algorithm takes the contextual information into consideration and is applicable to complicated DR settings. Numerical simulations are performed to demonstrate the learning effectiveness of the proposed algorithm.
翻訳日:2022-12-25 20:10:04 公開日:2020-05-17
# 機械学習におけるjulia言語: アルゴリズム、アプリケーション、オープンイシュー

Julia Language in Machine Learning: Algorithms, Applications, and Open Issues ( http://arxiv.org/abs/2003.10146v2 )

ライセンス: Link先を確認
Kaifeng Gao, Gang Mei, Francesco Piccialli, Salvatore Cuomo, Jingzhi Tu, Zenan Huo(参考訳) 機械学習は、科学と工学の分野で開発を推進している。 シンプルで効率的なプログラミング言語は、様々な分野における機械学習の応用を加速することができる。 現在、機械学習アルゴリズムの開発に最もよく使われているプログラミング言語は、Python、MATLAB、C/C ++である。 しかしながら、これらの言語は効率と単純さのバランスがよくない。 julia言語は、高速で使いやすいオープンソースのプログラミング言語で、元々は高性能コンピューティングのために設計されており、効率とシンプルさのバランスがとれます。 本稿では,機械学習におけるJulia言語の適用に関する研究成果と展開について要約する。 最初に、Julia言語で開発された一般的な機械学習アルゴリズムを調査した。 次に、Julia言語で実装された機械学習アルゴリズムの適用について検討する。 最後に、機械学習におけるJulia言語の使用におけるオープンな問題と潜在的な将来方向について論じる。

Machine learning is driving development across many fields in science and engineering. A simple and efficient programming language could accelerate applications of machine learning in various fields. Currently, the programming languages most commonly used to develop machine learning algorithms include Python, MATLAB, and C/C ++. However, none of these languages well balance both efficiency and simplicity. The Julia language is a fast, easy-to-use, and open-source programming language that was originally designed for high-performance computing, which can well balance the efficiency and simplicity. This paper summarizes the related research work and developments in the application of the Julia language in machine learning. It first surveys the popular machine learning algorithms that are developed in the Julia language. Then, it investigates applications of the machine learning algorithms implemented with the Julia language. Finally, it discusses the open issues and the potential future directions that arise in the use of the Julia language in machine learning.
翻訳日:2022-12-20 23:32:49 公開日:2020-05-17
# DeTraCディープ畳み込みニューラルネットワークを用いた胸部X線画像におけるCOVID-19の分類

Classification of COVID-19 in chest X-ray images using DeTraC deep convolutional neural network ( http://arxiv.org/abs/2003.13815v3 )

ライセンス: Link先を確認
Asmaa Abbas, Mohammed M. Abdelsamea, Mohamed Medhat Gaber(参考訳) 胸部X線は、新型コロナウイルスの診断に重要な役割を果たす最初のイメージング技術である。 大規模アノテーション付き画像データセットの高可用性により、画像認識と分類に畳み込みニューラルネットワーク(cnns)を用いることで、大きな成功を収めている。 しかし, 注記医用画像の入手が限られているため, 医用画像の分類が医用診断の最大の課題である。 トランスファー学習のおかげで、汎用オブジェクト認識タスクから知識をドメイン固有のタスクに転送することで、有望なソリューションを提供することができる。 本稿では、新型コロナウイルスの胸部X線画像の分類において、Decompose, Transfer, Compose (DeTraC) と呼ばれる、これまで開発したCNNを検証し、適応する。 DeTraCは、クラス分解メカニズムを使用してクラス境界を調査することで、イメージデータセットの異常に対処することができる。 実験の結果、世界中の複数の病院から収集された総合的な画像データセットから新型コロナウイルスの検出において、detracの能力が示された。 95.12%の精度(感度97.91%、特異性91.87%、精度93.36%)は、正常および重症急性呼吸器症候群患者からのcovid-19 x線画像の検出においてdetracによって達成された。

Chest X-ray is the first imaging technique that plays an important role in the diagnosis of COVID-19 disease. Due to the high availability of large-scale annotated image datasets, great success has been achieved using convolutional neural networks (CNNs) for image recognition and classification. However, due to the limited availability of annotated medical images, the classification of medical images remains the biggest challenge in medical diagnosis. Thanks to transfer learning, an effective mechanism that can provide a promising solution by transferring knowledge from generic object recognition tasks to domain-specific tasks. In this paper, we validate and adapt our previously developed CNN, called Decompose, Transfer, and Compose (DeTraC), for the classification of COVID-19 chest X-ray images. DeTraC can deal with any irregularities in the image dataset by investigating its class boundaries using a class decomposition mechanism. The experimental results showed the capability of DeTraC in the detection of COVID-19 cases from a comprehensive image dataset collected from several hospitals around the world. High accuracy of 95.12% (with a sensitivity of 97.91%, a specificity of 91.87%, and a precision of 93.36%) was achieved by DeTraC in the detection of COVID-19 X-ray images from normal, and severe acute respiratory syndrome cases.
翻訳日:2022-12-19 20:55:24 公開日:2020-05-17
# ClovaCall:コンタクトセンターの自動音声認識のための韓国ゴール指向対話音声コーパス

ClovaCall: Korean Goal-Oriented Dialog Speech Corpus for Automatic Speech Recognition of Contact Centers ( http://arxiv.org/abs/2004.09367v2 )

ライセンス: Link先を確認
Jung-Woo Ha, Kihyun Nam, Jingu Kang, Sang-Woo Lee, Sohee Yang, Hyunhoon Jung, Eunmi Kim, Hyeji Kim, Soojin Kim, Hyun Ah Kim, Kyoungtae Doh, Chan Kyu Lee, Nako Sung, Sunghun Kim(参考訳) AI for Contact Center(AICC)サービスなど、さまざまなアプリケーションにおいて、コールによる自動音声認識(ASR)が不可欠である。 しかし、ASRの進歩にもかかわらず、Switchboardのような一般的な通話ベースの音声コーパスは時代遅れである。 また、既存のコールコーパスのほとんどは英語であり、主にオープンドメインダイアログやオーディオブックのような一般的なシナリオに焦点を当てている。 本稿では,ClovaCallコーパス(ClovaCallコーパス)という,11,000人以上の目標志向の対話シナリオの下で,韓国の新しい大規模音声コーパスを紹介する。 ClovaCallは、レストラン予約ドメインで約6万対の短い文とそれに対応する発声を含む。 2つの標準asrモデルを用いて集中実験を行い,データセットの有効性を検証する。 さらに、clovacallデータセットとベースラインソースコードもリリースし、https://github.com/clovaai/clovacallから利用できます。

Automatic speech recognition (ASR) via call is essential for various applications, including AI for contact center (AICC) services. Despite the advancement of ASR, however, most publicly available call-based speech corpora such as Switchboard are old-fashioned. Also, most existing call corpora are in English and mainly focus on open domain dialog or general scenarios such as audiobooks. Here we introduce a new large-scale Korean call-based speech corpus under a goal-oriented dialog scenario from more than 11,000 people, i.e., ClovaCall corpus. ClovaCall includes approximately 60,000 pairs of a short sentence and its corresponding spoken utterance in a restaurant reservation domain. We validate the effectiveness of our dataset with intensive experiments using two standard ASR models. Furthermore, we release our ClovaCall dataset and baseline source codes to be available via https://github.com/ClovaAI/ClovaCall.
翻訳日:2022-12-11 17:25:39 公開日:2020-05-17
# ICLR Workshop on Computer Vision for Agriculture (CV4A) 2020 に参加して

Proceedings of the ICLR Workshop on Computer Vision for Agriculture (CV4A) 2020 ( http://arxiv.org/abs/2004.11051v3 )

ライセンス: Link先を確認
Yannis Kalantidis, Laura Sevilla-Lara, Ernest Mwebaze, Dina Machuve, Hamed Alemohammad, David Guerena(参考訳) 以下は、2020年のiclr(international conference on learning representations)とともに開催されたコンピュータビジョン・フォー・農業(cv4a)ワークショップの議事録である。 computer vision for agriculture (cv4a) 2020 workshopは、2020年4月26日にエチオピアのアディスアベバで開催される予定である。 新型コロナウイルスのパンデミックのため、ほぼ同じ日に開催された。 ワークショップはICLR(International Conference on Learning Representations) 2020と共同で開催された。

This is the proceedings of the Computer Vision for Agriculture (CV4A) Workshop that was held in conjunction with the International Conference on Learning Representations (ICLR) 2020. The Computer Vision for Agriculture (CV4A) 2020 workshop was scheduled to be held in Addis Ababa, Ethiopia, on April 26th, 2020. It was held virtually that same day due to the COVID-19 pandemic. The workshop was held in conjunction with the International Conference on Learning Representations (ICLR) 2020.
翻訳日:2022-12-10 09:03:27 公開日:2020-05-17
# 野生の3次元グラフ構造点雲における弱教師付きセマンティックセグメンテーション

Weakly Supervised Semantic Segmentation in 3D Graph-Structured Point Clouds of Wild Scenes ( http://arxiv.org/abs/2004.12498v2 )

ライセンス: Link先を確認
Haiyan Wang, Xuejian Rong, Liang Yang, Jinglun Feng, Jizhong Xiao, Yingli Tian(参考訳) 3Dセグメンテーションラベルの欠如は、特に様々な物体を持つ野生のシーンにおいて、効果的な点雲セグメンテーションの主な障害の1つである。 そこで本研究では,2次元監視による大規模セマンティックシーンセグメンテーションのためのディープグラフ畳み込みネットワークフレームワークを提案する。 従来の多視点監視アプローチとは違って、2次元監視は自然のシーンポイントクラウドの3次元セマンティックセグメンテーションモデルをトレーニングするための十分なガイダンス情報を提供すると同時に、トレーニングサンプルごとの単一のビューのみであっても、それらの固有の構造を明示的に捉えない。 具体的には、グラフベースのピラミッド特徴ネットワーク(GPFN)は、点集合のグローバルな特徴と局所的な特徴の両方を暗黙的に推測するように設計され、オブザーバビリティネットワーク(OBSNet)は、3Dシーンにおけるオブジェクトの複雑な空間的関係に起因するオブジェクトの閉塞問題を解決するために導入された。 プロジェクション過程において,2次元3次元共同最適化戦略とともに2次元監視信号の高度化を実現するために,視点描画と意味融合モジュールを提案する。 SUNCG合成データセットとS3DIS実世界のデータセットのセマンティックポイントクラウドセグメンテーションにおいて、フル3Dラベルでトレーニングされた最先端のアプローチと同等の結果を得る2D教師付きフレームワークの有効性を示す。

The deficiency of 3D segmentation labels is one of the main obstacles to effective point cloud segmentation, especially for scenes in the wild with varieties of different objects. To alleviate this issue, we propose a novel deep graph convolutional network-based framework for large-scale semantic scene segmentation in point clouds with sole 2D supervision. Different with numerous preceding multi-view supervised approaches focusing on single object point clouds, we argue that 2D supervision is capable of providing sufficient guidance information for training 3D semantic segmentation models of natural scene point clouds while not explicitly capturing their inherent structures, even with only single view per training sample. Specifically, a Graph-based Pyramid Feature Network (GPFN) is designed to implicitly infer both global and local features of point sets and an Observability Network (OBSNet) is introduced to further solve object occlusion problem caused by complicated spatial relations of objects in 3D scenes. During the projection process, perspective rendering and semantic fusion modules are proposed to provide refined 2D supervision signals for training along with a 2D-3D joint optimization strategy. Extensive experimental results demonstrate the effectiveness of our 2D supervised framework, which achieves comparable results with the state-of-the-art approaches trained with full 3D labels, for semantic point cloud segmentation on the popular SUNCG synthetic dataset and S3DIS real-world dataset.
翻訳日:2022-12-09 13:46:23 公開日:2020-05-17
# ランキングモデル学習のための妥当性説明

Valid Explanations for Learning to Rank Models ( http://arxiv.org/abs/2004.13972v3 )

ライセンス: Link先を確認
Jaspreet Singh, Zhenye Wang, Megha Khosla, and Avishek Anand(参考訳) learning-to-rank(ltr)は、多数の機能を扱う問題をランク付けするための教師付き学習テクニックのクラスである。 様々な分野の情報優先順位付けにおけるltrモデルの人気と普及は、今日の公正で透明な学習システムの展望において、その精査性が不可欠である。 しかし、ランキングを出力する学習システムの判断を解釈する限定的な作業が存在する。 本稿では,入力特徴の少数のサブセットをランキング決定の理由として同定するモデル非依存的局所的説明法を提案する。 評価方法として,選択された特徴の有無に基づいて,ランク付け専用の説明の妥当性と完全性の新たな概念を導入する。 妥当性を直接最大化するための新しい最適化問題を考案し,解としてグリードアルゴリズムを提案する。 広範に定量的な実験を行った結果,本手法は完全性を損なうことなく,ポイントワイド,ペアワイド,リストワイドのLTRモデルにまたがる他のモデル非依存的説明手法よりも優れていることがわかった。

Learning-to-rank (LTR) is a class of supervised learning techniques that apply to ranking problems dealing with a large number of features. The popularity and widespread application of LTR models in prioritizing information in a variety of domains makes their scrutability vital in today's landscape of fair and transparent learning systems. However, limited work exists that deals with interpreting the decisions of learning systems that output rankings. In this paper we propose a model agnostic local explanation method that seeks to identify a small subset of input features as explanation to a ranking decision. We introduce new notions of validity and completeness of explanations specifically for rankings, based on the presence or absence of selected features, as a way of measuring goodness. We devise a novel optimization problem to maximize validity directly and propose greedy algorithms as solutions. In extensive quantitative experiments we show that our approach outperforms other model agnostic explanation approaches across pointwise, pairwise and listwise LTR models in validity while not compromising on completeness.
翻訳日:2022-12-08 13:16:54 公開日:2020-05-17
# cp-nas:バイナリニューラルネットのための子-母系ニューラルアーキテクチャ探索

CP-NAS: Child-Parent Neural Architecture Search for Binary Neural Networks ( http://arxiv.org/abs/2005.00057v2 )

ライセンス: Link先を確認
Li'an Zhuo, Baochang Zhang, Hanlin Chen, Linlin Yang, Chen Chen, Yanjun Zhu and David Doermann(参考訳) ニューラルアーキテクチャ検索(nas)は、アプリケーション適応型ニューラルアーキテクチャを生成することによって、多くのタスクにおいて最善のアプローチであることが証明されている。 同時に、二元化重みとアクティベーションを持つ1ビット畳み込みニューラルネットワーク(cnns)は、リソース制限された組み込みデバイスにその可能性を示す。 自然なアプローチの1つは、統一されたフレームワークにおけるそれぞれの長所を生かしてNASの計算とメモリコストを削減するために1ビットCNNを使用することである。 この目的のために、子母モデル(cp)を微分可能なnasに導入し、全精度モデル(parent)の監督下で二元化アーキテクチャ(child)を探索する。 探索段階では、子母モデルは、子と親モデルの精度によって生成された指標を用いて、パフォーマンスを評価し、少ないポテンシャルで操作を放棄する。 トレーニング段階では、二項化ネットワークを最適化するためにカーネルレベルのCP損失を導入する。 CP-NASはCIFARデータベースとImageNetデータベースの両方で従来のNASと同等の精度を達成している。 cifar-10では$95.27\%、imagenetでは$64.3\%、以前のartsより$30\%高速検索を実現している。

Neural architecture search (NAS) proves to be among the best approaches for many tasks by generating an application-adaptive neural architecture, which is still challenged by high computational cost and memory consumption. At the same time, 1-bit convolutional neural networks (CNNs) with binarized weights and activations show their potential for resource-limited embedded devices. One natural approach is to use 1-bit CNNs to reduce the computation and memory cost of NAS by taking advantage of the strengths of each in a unified framework. To this end, a Child-Parent (CP) model is introduced to a differentiable NAS to search the binarized architecture (Child) under the supervision of a full-precision model (Parent). In the search stage, the Child-Parent model uses an indicator generated by the child and parent model accuracy to evaluate the performance and abandon operations with less potential. In the training stage, a kernel-level CP loss is introduced to optimize the binarized network. Extensive experiments demonstrate that the proposed CP-NAS achieves a comparable accuracy with traditional NAS on both the CIFAR and ImageNet databases. It achieves the accuracy of $95.27\%$ on CIFAR-10, $64.3\%$ on ImageNet with binarized weights and activations, and a $30\%$ faster search than prior arts.
翻訳日:2022-12-08 05:08:18 公開日:2020-05-17
# 英語から英語への翻訳はより簡単: 相互交流情報による神経翻訳の難易度の測定

It's Easier to Translate out of English than into it: Measuring Neural Translation Difficulty by Cross-Mutual Information ( http://arxiv.org/abs/2005.02354v2 )

ライセンス: Link先を確認
Emanuele Bugliarello, Sabrina J. Mielke, Antonios Anastasopoulos, Ryan Cotterell, Naoaki Okazaki(参考訳) ニューラルマシン翻訳システムの性能は一般にbleuの観点から評価される。 しかし、ターゲット言語の性質や生成に依存しているため、BLEUメトリックはどの翻訳方向をモデル化するのがより難しいかを評価できない。 本稿では,ほとんどのニューラル機械翻訳モデルの確率的性質を生かした,機械翻訳の難易度に関する非対称な情報理論であるクロスミューチュアル情報(XMI)を提案する。 XMIは,テキストを対象言語に翻訳することの難しさを,翻訳タスクに依存しないターゲット側生成コンポーネントの難しさを制御しながら,よりよく評価することができる。 次に,近代ニューラル翻訳システムを用いた言語間翻訳の難易度について,初めて体系的かつ制御された研究を行う。 実験を複製するコードはhttps://github.com/e-bug/nmt-difficulty.comで公開されている。

The performance of neural machine translation systems is commonly evaluated in terms of BLEU. However, due to its reliance on target language properties and generation, the BLEU metric does not allow an assessment of which translation directions are more difficult to model. In this paper, we propose cross-mutual information (XMI): an asymmetric information-theoretic metric of machine translation difficulty that exploits the probabilistic nature of most neural machine translation models. XMI allows us to better evaluate the difficulty of translating text into the target language while controlling for the difficulty of the target-side generation component independent of the translation task. We then present the first systematic and controlled study of cross-lingual translation difficulties using modern neural translation systems. Code for replicating our experiments is available online at https://github.com/e-bug/nmt-difficulty.
翻訳日:2022-12-06 14:07:59 公開日:2020-05-17
# マルチエンコーダは役に立つか? 文脈認識型ニューラルマシン翻訳の事例研究

Does Multi-Encoder Help? A Case Study on Context-Aware Neural Machine Translation ( http://arxiv.org/abs/2005.03393v2 )

ライセンス: Link先を確認
Bei Li, Hui Liu, Ziyang Wang, Yufan Jiang, Tong Xiao, Jingbo Zhu, Tongran Liu, Changliang Li(参考訳) エンコーダ・デコーダニューラルモデルでは、一般に複数のエンコーダが個々の文に加えて文脈情報を表現するために使用される。 本稿では,文書レベルのニューラルマシン翻訳(NMT)におけるマルチエンコーダアプローチについて検討する。 驚くべきことに、文脈エンコーダは周囲の文を符号化するだけでなく、ノイズ発生器として振る舞う。 これにより、コンテキスト対応翻訳におけるマルチエンコーダの本当のメリットを再考することができます。 これらのエンコーダのトレーニングにノイズおよび/またはよく調整されたドロップアウト設定を導入するいくつかの方法を比較した。 実験の結果,マルチエンコーダベースのnmtでは,特にトレーニングデータが小さい場合には,ノイズトレーニングが重要な役割を担っていることがわかった。 また,ノイズ生成とドロップアウトを慎重に利用することにより,iwslt fr-enタスクに関する最新技術を確立する。

In encoder-decoder neural models, multiple encoders are in general used to represent the contextual information in addition to the individual sentence. In this paper, we investigate multi-encoder approaches in documentlevel neural machine translation (NMT). Surprisingly, we find that the context encoder does not only encode the surrounding sentences but also behaves as a noise generator. This makes us rethink the real benefits of multi-encoder in context-aware translation - some of the improvements come from robust training. We compare several methods that introduce noise and/or well-tuned dropout setup into the training of these encoders. Experimental results show that noisy training plays an important role in multi-encoder-based NMT, especially when the training data is small. Also, we establish a new state-of-the-art on IWSLT Fr-En task by careful use of noise generation and dropout methods.
翻訳日:2022-12-05 23:14:58 公開日:2020-05-17
# 複数タスク間の建物ブロックの移動を支援するための関連性対策

Relatedness Measures to Aid the Transfer of Building Blocks among Multiple Tasks ( http://arxiv.org/abs/2005.03947v2 )

ライセンス: Link先を確認
Trung B. Nguyen, Will N. Browne, Mengjie Zhang(参考訳) マルチタスク学習は、複数の異なるタスクを並行して処理し、それらの間の知識を伝達する学習パラダイムである。 xofは、木ベースのプログラムを使ってビルディングブロック(メタ機能)をエンコードする学習分類システムで、観察されたリスト内の分類タスクのためのリッチな識別情報を持つ機能を構築、収集する。 本稿では,観察したリストを活用し,タスク間の機能伝達の自動化を容易にすることを目的とする。 分類タスクの最良の判別的特徴は、その特性を持つと仮定する。 したがって、最も適切なパターンを比較することで、2つのタスク間の関連性を推定することができる。 我々は、XOF間の特徴伝達を動的に適応できるmXOFと呼ばれる多重XOFシステムを提案する。 このシステムは、観測されたリストを利用してタスク関連性を推定する。 この方法は、機能転送の自動化を可能にする。 知識発見の観点では、類似度推定は複数のデータ間の洞察的な関係を提供する。 我々は,mXOFを代表的階層的ブール問題,UCI Zooデータセットのクラス別分類,非関連タスクなど様々なシナリオで実験し,自動知識伝達とタスク関連性の推定能力の検証を行った。 その結果、mXOFは複数のタスク間の関連性を合理的に推定し、動的特徴伝達による学習性能を向上できることを示した。

Multitask Learning is a learning paradigm that deals with multiple different tasks in parallel and transfers knowledge among them. XOF, a Learning Classifier System using tree-based programs to encode building blocks (meta-features), constructs and collects features with rich discriminative information for classification tasks in an observed list. This paper seeks to facilitate the automation of feature transferring in between tasks by utilising the observed list. We hypothesise that the best discriminative features of a classification task carry its characteristics. Therefore, the relatedness between any two tasks can be estimated by comparing their most appropriate patterns. We propose a multiple-XOF system, called mXOF, that can dynamically adapt feature transfer among XOFs. This system utilises the observed list to estimate the task relatedness. This method enables the automation of transferring features. In terms of knowledge discovery, the resemblance estimation provides insightful relations among multiple data. We experimented mXOF on various scenarios, e.g. representative Hierarchical Boolean problems, classification of distinct classes in the UCI Zoo dataset, and unrelated tasks, to validate its abilities of automatic knowledge-transfer and estimating task relatedness. Results show that mXOF can estimate the relatedness reasonably between multiple tasks to aid the learning performance with the dynamic feature transferring.
翻訳日:2022-12-05 11:41:20 公開日:2020-05-17
# セル進化的マルチタスキングによる車両経路問題間の知識伝達可能性について

On the Transferability of Knowledge among Vehicle Routing Problems by using Cellular Evolutionary Multitasking ( http://arxiv.org/abs/2005.05066v2 )

ライセンス: Link先を確認
Eneko Osaba, Aritz D. Martinez, Jesus L. Lobo, Ibai La\~na and Javier Del Ser(参考訳) マルチタスク最適化は、複数の最適化問題インスタンス(タスク)の同時解決に焦点を当てた、最近導入されたパラダイムである。 マルチタスク環境の目標は、タスク間の既存の相補性と相乗効果を動的に活用し、遺伝物質の伝達を相互に支援することである。 より具体的には、進化的マルチタスク(EM)は進化的計算から受け継いだ概念を用いたマルチタスクシナリオの解決を考慮している。 MFEA(Multifactorial Evolutionary Algorithm)のようなEMアプローチは、最近、複数の最適化問題に直面しているときに顕著な研究の勢いを増している。 この研究は、最近提案されたMFCGA(Multifactorial Cellular Genetic Algorithm)をよく知られたCVRP(Capacitated Vehicle Routing Problem)に適用することに焦点を当てている。 全体として、11の異なるマルチタスクセットアップが12のデータセットを使用して構築されている。 この研究の貢献は2つある。 一方、MFCGAの自動車ルーティング問題への最初の応用である。 一方,問題事例間の正の遺伝移動可能性の定量的解析に焦点をあてた第2の貢献も同様に興味深い。 そこで我々は,異なる最適化タスク間で発生する相乗効果を実証的に示す。

Multitasking optimization is a recently introduced paradigm, focused on the simultaneous solving of multiple optimization problem instances (tasks). The goal of multitasking environments is to dynamically exploit existing complementarities and synergies among tasks, helping each other through the transfer of genetic material. More concretely, Evolutionary Multitasking (EM) regards to the resolution of multitasking scenarios using concepts inherited from Evolutionary Computation. EM approaches such as the well-known Multifactorial Evolutionary Algorithm (MFEA) are lately gaining a notable research momentum when facing with multiple optimization problems. This work is focused on the application of the recently proposed Multifactorial Cellular Genetic Algorithm (MFCGA) to the well-known Capacitated Vehicle Routing Problem (CVRP). In overall, 11 different multitasking setups have been built using 12 datasets. The contribution of this research is twofold. On the one hand, it is the first application of the MFCGA to the Vehicle Routing Problem family of problems. On the other hand, equally interesting is the second contribution, which is focused on the quantitative analysis of the positive genetic transferability among the problem instances. To do that, we provide an empirical demonstration of the synergies arisen between the different optimization tasks.
翻訳日:2022-12-04 19:26:56 公開日:2020-05-17
# discretizationnet:有限体積離散化を用いたnavier-stokes方程式の機械学習による解法

DiscretizationNet: A Machine-Learning based solver for Navier-Stokes Equations using Finite Volume Discretization ( http://arxiv.org/abs/2005.08357v1 )

ライセンス: Link先を確認
Rishikesh Ranade, Chris Hill and Jay Pathak(参考訳) 過去数十年間、既存の偏微分方程式 (Partial Differential Equation, PDE) は複雑で非線形なPDEを解くことに大きな成功を収めた。 正確ではあるが、これらのPDEソルバは計算コストが高い。 機械学習(ML)技術の進歩により、PDEを解決するためにMLを使用する研究が大幅に増加した。 本研究の目的は,既存のPDEソルバをML技術と組み合わせたMLベースのPDEソルバを開発することである。 この研究で採用された2つの解法の特徴は次のとおりである。 1)時空間偏微分を近似するための離散化に基づくスキームの利用 2) 線形化されたPDEを離散形式で解くために反復アルゴリズムを用いる。 高度に非線形な結合pdeソリューションが存在する場合、これらの戦略は精度、安定性、より高速な収束を達成する上で非常に重要である。 我々のML-ソルバであるDiscretizationNetは、PDE変数を入力と出力の両方の特徴として、生成CNNベースのエンコーダデコーダモデルを採用している。 トレーニング中、離散化スキームは計算グラフ内に実装され、PDE残差の高速GPU計算を可能にする。 mlソルバの安定性と収束性を改善するために,ネットワークトレーニング中に新たな反復機能を実現する。 ML-ソルバーは、蓋駆動キャビティ、シリンダーを通過する流れ、共役熱伝達など、安定で圧縮不能なナビエ-ストークス方程式を3次元で解くことができる。

Over the last few decades, existing Partial Differential Equation (PDE) solvers have demonstrated a tremendous success in solving complex, non-linear PDEs. Although accurate, these PDE solvers are computationally costly. With the advances in Machine Learning (ML) technologies, there has been a significant increase in the research of using ML to solve PDEs. The goal of this work is to develop an ML-based PDE solver, that couples important characteristics of existing PDE solvers with ML technologies. The two solver characteristics that have been adopted in this work are: 1) the use of discretization-based schemes to approximate spatio-temporal partial derivatives and 2) the use of iterative algorithms to solve linearized PDEs in their discrete form. In the presence of highly non-linear, coupled PDE solutions, these strategies can be very important in achieving good accuracy, better stability and faster convergence. Our ML-solver, DiscretizationNet, employs a generative CNN-based encoder-decoder model with PDE variables as both input and output features. During training, the discretization schemes are implemented inside the computational graph to enable faster GPU computation of PDE residuals, which are used to update network weights that result into converged solutions. A novel iterative capability is implemented during the network training to improve the stability and convergence of the ML-solver. The ML-Solver is demonstrated to solve the steady, incompressible Navier-Stokes equations in 3-D for several cases such as, lid-driven cavity, flow past a cylinder and conjugate heat transfer.
翻訳日:2022-12-02 06:05:16 公開日:2020-05-17
# DMN問題へのcDMNの取り組み--DMNの厳密な統合と制約推論

Tackling the DMN Challenges with cDMN: a Tight Integration of DMN and constraint reasoning ( http://arxiv.org/abs/2005.09998v1 )

ライセンス: Link先を確認
Bram Aerts, Simon Vandevelde, and Joost Vennekens(参考訳) 本稿では,cDMNと呼ばれるDMN標準の拡張について述べる。 ドメインの専門家によって読めるというdmnの目標を維持しつつ、より複雑な問題を解決するためにdmnの表現性を拡大することを目指している。 DMコミュニティのウェブサイトに投稿された最も複雑な課題を解決することで、cDMNをテストする。 我々は、我々のcDMNソリューションをウェブサイトに提出されたソリューションと比較し、我々のアプローチが可読性とコンパクト性の両方において競争力があることを見出した。 さらに、cDMNは他のどのアプローチよりも多くの課題を解決できる。

This paper describes an extension to the DMN standard, called cDMN. It aims to enlarge the expressivity of DMN in order to solve more complex problems, while retaining DMN's goal of being readable by domain experts. We test cDMN by solving the most complex challenges posted on the DM Community website. We compare our own cDMN solutions to the solutions that have been submitted to the website and find that our approach is competitive, both in readability and compactness. Moreover, cDMN is able to solve more challenges than any other approach.
翻訳日:2022-12-02 06:02:20 公開日:2020-05-17
# 構造に基づくディープフュージョン推論によるタンパク質-リガンド結合親和性予測の改善

Improved Protein-ligand Binding Affinity Prediction with Structure-Based Deep Fusion Inference ( http://arxiv.org/abs/2005.07704v1 )

ライセンス: Link先を確認
Derek Jones, Hyojin Kim, Xiaohua Zhang, Adam Zemla, Garrett Stevenson, William D. Bennett, Dan Kirshner, Sergio Wong, Felice Lightstone and Jonathan E. Allen(参考訳) 正確なタンパク質-リガンド結合親和性を予測することは、薬物発見において重要であるが、計算に高価な生物物理学に基づくエネルギー評価法や最先端のディープラーニングアプローチでさえも課題である。 深層畳み込みとグラフニューラルネットワークに基づくアプローチの最近の進歩にもかかわらず、モデルの性能は入力データ表現に依存し、異なる制限に悩まされている。 より良い予測のために、補完的な特徴と個々のモデルからの推論を組み合わせることは自然である。 結合親和性予測を改善するため、2つのニューラルネットワークモデルの異なる特徴表現の恩恵を受けるための融合モデルを提案する。 pdbbind 2016データセットとそのドッキングポーズ複合体を用いて実験を行い,提案手法の有効性を示す。 提案手法は,生物物理学に基づくエネルギー評価関数よりも計算効率の高い個々のニューラルネットワークモデルと比較して,全体的な予測を改善する。 また,いくつかの例を用いた核融合推論の利点について考察する。 このソフトウェアはhttps://github.com/llnl/fast.comでオープンソースとして公開されている。

Predicting accurate protein-ligand binding affinity is important in drug discovery but remains a challenge even with computationally expensive biophysics-based energy scoring methods and state-of-the-art deep learning approaches. Despite the recent advances in the deep convolutional and graph neural network based approaches, the model performance depends on the input data representation and suffers from distinct limitations. It is natural to combine complementary features and their inference from the individual models for better predictions. We present fusion models to benefit from different feature representations of two neural network models to improve the binding affinity prediction. We demonstrate effectiveness of the proposed approach by performing experiments with the PDBBind 2016 dataset and its docking pose complexes. The results show that the proposed approach improves the overall prediction compared to the individual neural network models with greater computational efficiency than related biophysics based energy scoring functions. We also discuss the benefit of the proposed fusion inference with several example complexes. The software is made available as open source at https://github.com/llnl/fast.
翻訳日:2022-12-02 06:02:03 公開日:2020-05-17
# コンテンツ特徴関係に基づく純粋協調フィルタリングのハイブリッド化

A Hybrid Approach to Enhance Pure Collaborative Filtering based on Content Feature Relationship ( http://arxiv.org/abs/2005.08148v1 )

ライセンス: Link先を確認
Mohammad Maghsoudi Mehrabani, Hamid Mohayeji and Ali Moeini(参考訳) 勧告システムは、学術的なコミュニティと産業の両方に応用されているため、重要性が増している。 アイテム上のクライアントのレーティング履歴以外の新しい情報を抽出するための追加のデータソースや方法の開発により、パフォーマンスを改善するためにいくつかの手法が組み合わされたハイブリッドレコメンデーションアルゴリズムが普及した。 本稿では,まず自然言語処理領域であるword2vecから,知名度の高い手法を用いて,コンテンツ特徴間の暗黙的関係を抽出する新しい手法を提案する。 Word2Vecの典型的な使用とは対照的に、いくつかの特徴を文の単語として利用してニューラル特徴埋め込みを生成し、特徴間の類似性を計算する。 次に,アイテム間の類似性を計算可能な項目のベクトル表現を決定するために,関係性を利用した新しいコンテンツベースレコメンデーションシステムを提案する(relfsim)。 評価結果から,ユーザが選択した項目の選好を,純粋に協調的なフィルタリングと同等に予測できることが示唆された。 このコンテンツベースアルゴリズムは、純粋なアイテムベースの協調フィルタリングアルゴリズムにも組み込まれ、コールドスタート問題に対処し、その精度を高める。 本実験は,提案手法がシステムの精度を向上させることを裏付けるものである。

Recommendation systems get expanding significance because of their applications in both the scholarly community and industry. With the development of additional data sources and methods of extracting new information other than the rating history of clients on items, hybrid recommendation algorithms, in which some methods have usually been combined to improve performance, have become pervasive. In this work, we first introduce a novel method to extract the implicit relationship between content features using a sort of well-known methods from the natural language processing domain, namely Word2Vec. In contrast to the typical use of Word2Vec, we utilize some features of items as words of sentences to produce neural feature embeddings, through which we can calculate the similarity between features. Next, we propose a novel content-based recommendation system that employs the relationship to determine vector representations for items by which the similarity between items can be computed (RELFsim). Our evaluation results demonstrate that it can predict the preference a user would have for a set of items as good as pure collaborative filtering. This content-based algorithm is also embedded in a pure item-based collaborative filtering algorithm to deal with the cold-start problem and enhance its accuracy. Our experiments on a benchmark movie dataset corroborate that the proposed approach improves the accuracy of the system.
翻訳日:2022-12-02 06:01:47 公開日:2020-05-17
# 5Gと6G以上の無線ネットワークのためのインテリジェントO-RAN

Intelligent O-RAN for Beyond 5G and 6G Wireless Networks ( http://arxiv.org/abs/2005.08374v1 )

ライセンス: Link先を確認
Solmaz Niknam, Abhishek Roy, Harpreet S. Dhillon, Sukhdeep Singh, Rahul Banerji, Jeffery H. Reed, Navrati Saxena, Seungil Yoon(参考訳) オープン性とインテリジェンス(英語版)の原則に基づいて、無線アクセスネットワーク(RAN)アーキテクチャの強化に向けたオペレーターのグローバルな取り組みが続けられている。 目的は、第5世代(5G)を超えるインテリジェントな無線制御と将来の第6世代(6G)無線ネットワークを提供するオープンハードウェア上に、オペレータ定義のRANアーキテクチャ(および関連するインターフェース)を構築することである。 特に、open-radio access network (o-ran) allianceは、xran forumとc-ran allianceを合併して、この目標を達成するための要件を正式に定義することで結成された。 現在の無線環境におけるO-RANの重要性から,本稿では,O-RANアライアンスによって規定されるオープンRANの概念,原則,要件について紹介する。 O-RANにおけるインテリジェンスの役割を説明するために,交通渋滞に対処し,大規模オペレーターから得られた実世界のデータセットに有効性を示すインテリジェント無線リソース管理手法を提案する。 o-ran要件に準拠した、このデプロイメントシナリオのハイレベルなアーキテクチャについても論じる。 この記事は、今後の研究開発における重要な技術的課題とオープンな課題で締めくくっている。

Building on the principles of openness and intelligence, there has been a concerted global effort from the operators towards enhancing the radio access network (RAN) architecture. The objective is to build an operator-defined RAN architecture (and associated interfaces) on open hardware that provides intelligent radio control for beyond fifth generation (5G) as well as future sixth generation (6G) wireless networks. Specifically, the open-radio access network (O-RAN) alliance has been formed by merging xRAN forum and C-RAN alliance to formally define the requirements that would help achieve this objective. Owing to the importance of O-RAN in the current wireless landscape, this article provides an introduction to the concepts, principles, and requirements of the Open RAN as specified by the O-RAN alliance. In order to illustrate the role of intelligence in O-RAN, we propose an intelligent radio resource management scheme to handle traffic congestion and demonstrate its efficacy on a real-world dataset obtained from a large operator. A high-level architecture of this deployment scenario that is compliant with the O-RAN requirements is also discussed. The article concludes with key technical challenges and open problems for future research and development.
翻訳日:2022-12-02 06:01:06 公開日:2020-05-17
# 高忠実性合成データを用いたロバスト非局所物理学のデータ駆動学習

Data-driven learning of robust nonlocal physics from high-fidelity synthetic data ( http://arxiv.org/abs/2005.10076v1 )

ライセンス: Link先を確認
Huaiqian You, Yue Yu, Nathaniel Trask, Mamikon Gulian, Marta D'Elia(参考訳) 非局所モデルに対する重要な課題は、それらを第一原理から導き出す解析的複雑さであり、しばしばそれらの使用は後続法として正当化される。 本研究では、データから非局所モデルを取り出し、これらの課題を回避し、結果のモデルフォームに対するデータ駆動的正当化を提供する。 確実に堅牢なデータ駆動サロゲートを抽出することは、非線形性と凸性の欠如により、機械学習(ML)アプローチの大きな課題である。 このスキームは、カーネルが部分的に負である可能性のある可逆な非局所モデルを抽出することができる。 これを実現するために、確立された非局所理論に基づいて、学習者演算子の適合性を保証するカーネルの非正の部分に十分な条件を埋め込む。 これらの条件は不平等な制約として課せられ、小さなデータ体制であってもモデルが堅牢であることを保証する。 本研究では,非局所カーネルの再現,不均質な周期的構造を伴うダーシー流れの数値的均質化,高次局所輸送現象に対する非局所近似,切断したカーネルによるグローバルに支持された分数拡散作用素の近似など,様々な応用分野におけるこのワークフローを実証する。

A key challenge to nonlocal models is the analytical complexity of deriving them from first principles, and frequently their use is justified a posteriori. In this work we extract nonlocal models from data, circumventing these challenges and providing data-driven justification for the resulting model form. Extracting provably robust data-driven surrogates is a major challenge for machine learning (ML) approaches, due to nonlinearities and lack of convexity. Our scheme allows extraction of provably invertible nonlocal models whose kernels may be partially negative. To achieve this, based on established nonlocal theory, we embed in our algorithm sufficient conditions on the non-positive part of the kernel that guarantee well-posedness of the learnt operator. These conditions are imposed as inequality constraints and ensure that models are robust, even in small-data regimes. We demonstrate this workflow for a range of applications, including reproduction of manufactured nonlocal kernels; numerical homogenization of Darcy flow associated with a heterogeneous periodic microstructure; nonlocal approximation to high-order local transport phenomena; and approximation of globally supported fractional diffusion operators by truncated kernels.
翻訳日:2022-12-02 06:00:44 公開日:2020-05-17
# SPot:財務表の操作セグメントを識別するツール

SPot: A tool for identifying operating segments in financial tables ( http://arxiv.org/abs/2005.12966v1 )

ライセンス: Link先を確認
Zhiqiang Ma, Steven Pomerville, Mingyang Di, Armineh Nourbakhsh(参考訳) 本稿では、業績報告からオペレーションセグメントとその関連パフォーマンス指標を検出する自動化ツールであるSPotについて述べる。 企業固有の性質上、運用セグメントは分類学に基づくアプローチでは検出できない。 代わりに、双方向RNN分類器をトレーニングし、"revenue"のような一般的なメトリクスと、"iPhone"や"クラウドサービス"といったセグメントを運用する可能性のある企業固有のメトリクスを区別します。 SPotは、ユーザが各操作セグメントのパフォーマンスメトリクスをトレースして調整できるインタラクティブなWebインターフェースで結果をサーフェスする。 これは信用監視を促進し、競争力のあるベンチマークをより効果的に実行し、企業やセクターレベルでのトレンド分析に使用することができる。

In this paper we present SPot, an automated tool for detecting operating segments and their related performance indicators from earnings reports. Due to their company-specific nature, operating segments cannot be detected using taxonomy-based approaches. Instead, we train a Bidirectional RNN classifier that can distinguish between common metrics such as "revenue" and company-specific metrics that are likely to be operating segments, such as "iPhone" or "cloud services". SPot surfaces the results in an interactive web interface that allows users to trace and adjust performance metrics for each operating segment. This facilitates credit monitoring, enables them to perform competitive benchmarking more effectively, and can be used for trend analysis at company and sector levels.
翻訳日:2022-12-02 06:00:21 公開日:2020-05-17
# 指紋の未知提示攻撃検出に関する調査研究

A Survey on Unknown Presentation Attack Detection for Fingerprint ( http://arxiv.org/abs/2005.08337v1 )

ライセンス: Link先を確認
Jag Mohan Singh, Ahmed Madhun, Guoqiang Li, Raghavendra Ramachandra(参考訳) 指紋認識システムは様々なリアルタイムアプリケーションに広く応用されており、精度が高い。 広く使われているアプリケーションは、境界制御、自動テラーマシン(atm)、出席監視システムである。 しかし、これらの重要なシステムは、攻撃を偽造する傾向がある(つまり、プレゼンテーション攻撃(PA))。 指紋用PAは、シリコーン、ゼラチン、プレイドー、エコフレックス、2Dプリント紙、3Dプリント材料、ラテックスなどの異なる材料から作られたグミ指を提示することにより行うことができる。 バイオメトリックス研究者は、PA対策としてプレゼンテーション検出法(PAD)を開発した。 PADは通常、与えられたデータセットに対する既知の攻撃のために機械学習分類器をトレーニングすることで行われ、このタスクで高い精度を達成する。 しかし、未知の攻撃への一般化は現実世界のシステムへの適用性にとって重要な問題である。 本稿では,指紋認証システムにおける既存のPADアルゴリズムに関する総合的な調査,特に未知のPAD検出の観点から述べる。 PADアルゴリズムを分類し、その利点/不便さと今後の方向性を指摘する。

Fingerprint recognition systems are widely deployed in various real-life applications as they have achieved high accuracy. The widely used applications include border control, automated teller machine (ATM), and attendance monitoring systems. However, these critical systems are prone to spoofing attacks (a.k.a presentation attacks (PA)). PA for fingerprint can be performed by presenting gummy fingers made from different materials such as silicone, gelatine, play-doh, ecoflex, 2D printed paper, 3D printed material, or latex. Biometrics Researchers have developed Presentation Attack Detection (PAD) methods as a countermeasure to PA. PAD is usually done by training a machine learning classifier for known attacks for a given dataset, and they achieve high accuracy in this task. However, generalizing to unknown attacks is an essential problem from applicability to real-world systems, mainly because attacks cannot be exhaustively listed in advance. In this survey paper, we present a comprehensive survey on existing PAD algorithms for fingerprint recognition systems, specifically from the standpoint of detecting unknown PAD. We categorize PAD algorithms, point out their advantages/disadvantages, and future directions for this area.
翻訳日:2022-12-02 06:00:00 公開日:2020-05-17
# コロナウイルスか、中国ウイルスか? 人種差別的ハッシュタグによるツイートに反映されるネガティブ感情の理解

#Coronavirus or #Chinesevirus?!: Understanding the negative sentiment reflected in Tweets with racist hashtags across the development of COVID-19 ( http://arxiv.org/abs/2005.08224v1 )

ライセンス: Link先を確認
Xin Pei, Deval Mehta(参考訳) 新型コロナウイルスの世界的な感染拡大にともなうこの研究は、ソーシャルメディア上での創発的人種差別とキセノフォビアに関する議論を深めている。 Twitterから抽出されたビッグデータでは、人種差別的なハッシュタグでマークされたツイートに反映されるネガティブな感情の分析に焦点が当てられている。 特に、新型コロナウイルスの3つの発達段階とともに負の感情がどう変化するかをステージベースで把握し、国内流行から国際公衆衛生緊急事態へと、そして後に世界的パンデミックへと変化させるアプローチを提案する。 各段階において、感情分析により、人種差別的なハッシュタグを持つツイートからネガティブな感情を認識することができ、キーワード抽出により、これらのツイートによるネガティブな感情表現におけるテーマの発見が可能になる。 ヒトの公衆衛生危機下では、このステージベースのアプローチにより、より効果的な方法でソーシャルメディア上での人種差別や異性愛と戦うためのステージ固有の介入戦略の実施のための政策提案を行うことができる。

Situated in the global outbreak of COVID-19, our study enriches the discussion concerning the emergent racism and xenophobia on social media. With big data extracted from Twitter, we focus on the analysis of negative sentiment reflected in tweets marked with racist hashtags, as racism and xenophobia are more likely to be delivered via the negative sentiment. Especially, we propose a stage-based approach to capture how the negative sentiment changes along with the three development stages of COVID-19, under which it transformed from a domestic epidemic into an international public health emergency and later, into the global pandemic. At each stage, sentiment analysis enables us to recognize the negative sentiment from tweets with racist hashtags, and keyword extraction allows for the discovery of themes in the expression of negative sentiment by these tweets. Under this public health crisis of human beings, this stage-based approach enables us to provide policy suggestions for the enactment of stage-specific intervention strategies to combat racism and xenophobia on social media in a more effective way.
翻訳日:2022-12-02 05:53:47 公開日:2020-05-17
# 医用情報検索における外部意味資源の併用について

On the Combined Use of Extrinsic Semantic Resources for Medical Information Search ( http://arxiv.org/abs/2005.08259v1 )

ライセンス: Link先を確認
Mohammed Maree, Israa Noor, Khaled Rabayah, Mohammed Belkhatir, and Saadat M. Alhashmi(参考訳) ドメイン固有のオントロジーやその他の医学的意味資源にエンコードされる意味論の概念と関係は、医学的問合せや文書における用語の解読において重要な役割を果たす。 セマンティクスギャップ問題に取り組むためのこれらの資源の活用は文献で広く研究されている。 しかし、現実世界のアプリケーションで広く使われるのを妨げる課題もある。 これらの課題の中には、既存の医学的オントロジーに個別にエンコードされる知識の不足がある。 この文脈では、利用者の問い合わせ用語の多くは、使用されるオントロジーによって認識されていないか、あるいは現在の医療情報検索手法の品質を低下させる偽陽性の検索を引き起こす。 本稿では,総合的な医療情報検索フレームワークの開発における,複数の外在的意味資源の組み合わせについて考察する。 一 冗長な医学的問合せ(すなわち、ある問合せの有意義さ及び意図に著しく寄与する問合せ用語のコンセプト)における主観的な医療概念を強調及び拡大すること。 二 意味的に強化された逆インデックス文書を構築すること。 三 クエリ文書マッチングプロセスにおいて、ヒューリスティックな重み付け手法に貢献すること。 提案手法の有効性を示すため,CLEF eHealth 2014データセット上でいくつかの実験を行った。 提案手法は,いくつかの外生的セマンティックリソースを組み合わせることで,精度測定の手法よりも有効であることが示唆された。

Semantic concepts and relations encoded in domain-specific ontologies and other medical semantic resources play a crucial role in deciphering terms in medical queries and documents. The exploitation of these resources for tackling the semantic gap issue has been widely studied in the literature. However, there are challenges that hinder their widespread use in real-world applications. Among these challenges is the insufficient knowledge individually encoded in existing medical ontologies, which is magnified when users express their information needs using long-winded natural language queries. In this context, many of the users query terms are either unrecognized by the used ontologies, or cause retrieving false positives that degrade the quality of current medical information search approaches. In this article, we explore the combination of multiple extrinsic semantic resources in the development of a full-fledged medical information search framework to: i) highlight and expand head medical concepts in verbose medical queries (i.e. concepts among query terms that significantly contribute to the informativeness and intent of a given query), ii) build semantically enhanced inverted index documents, iii) contribute to a heuristical weighting technique in the query document matching process. To demonstrate the effectiveness of the proposed approach, we conducted several experiments over the CLEF eHealth 2014 dataset. Findings indicate that the proposed method combining several extrinsic semantic resources proved to be more effective than related approaches in terms of precision measure.
翻訳日:2022-12-02 05:53:29 公開日:2020-05-17
# NLPを用いたイランにおける新型コロナウイルスパンデミック時のペルシャ・ファルシツイートの内容分析

Content analysis of Persian/Farsi Tweets during COVID-19 pandemic in Iran using NLP ( http://arxiv.org/abs/2005.08400v1 )

ライセンス: Link先を確認
Pedram Hosseini and Poorya Hosseini and David A. Broniatowski(参考訳) イランと中国、韓国、イタリアは、新型コロナウイルス(COVID-19)の感染拡大で打撃を受けた国の一つだった。 Twitterはイラン国内外で広く使われているオンラインプラットフォームの一つで、さまざまな問題に対する意見や考え、感情を共有している。 本研究では,イラン人を中心に,ペルシャ・ファルシ語で書かれた35万以上のオリジナルのツイートを用いて,パンデミックへの対応と時間とともにどのように変化したかを評価するために,ユーザの間で議論されたトピックを分析した。 ランダムなツイートサンプルのマニュアルアノテーションとトピックモデリングツールを組み合わせて、トピックのカテゴリごとの内容と頻度を分類した。 在宅隔離下での生活経験を主要な話題として挙げた上位25項目を特定した。 また、イランのユーザーの間では、風刺やニュースに続き、より広い範囲のツイートを分類した。 この枠組みと方法論は、新型コロナウイルス関連の継続的な進展に対する公衆の反応を追跡するのに利用できるが、この枠組みの一般化は、現在進行中の政策措置や出来事に対するイランの公的反応を地域・国際的に評価するための有用な枠組みとなる。

Iran, along with China, South Korea, and Italy was among the countries that were hit hard in the first wave of the COVID-19 spread. Twitter is one of the widely-used online platforms by Iranians inside and abroad for sharing their opinion, thoughts, and feelings about a wide range of issues. In this study, using more than 530,000 original tweets in Persian/Farsi on COVID-19, we analyzed the topics discussed among users, who are mainly Iranians, to gauge and track the response to the pandemic and how it evolved over time. We applied a combination of manual annotation of a random sample of tweets and topic modeling tools to classify the contents and frequency of each category of topics. We identified the top 25 topics among which living experience under home quarantine emerged as a major talking point. We additionally categorized broader content of tweets that shows satire, followed by news, is the dominant tweet type among the Iranian users. While this framework and methodology can be used to track public response to ongoing developments related to COVID-19, a generalization of this framework can become a useful framework to gauge Iranian public reaction to ongoing policy measures or events locally and internationally.
翻訳日:2022-12-02 05:52:25 公開日:2020-05-17
# zoeaを用いた構成可能インダクティブプログラミングのソフトウェア複雑性への影響の定量化

Quantifying the Impact on Software Complexity of Composable Inductive Programming using Zoea ( http://arxiv.org/abs/2005.08211v1 )

ライセンス: Link先を確認
Edward McDaid and Sarah McDaid(参考訳) Zoeaプログラミング言語で実装された構成可能なインダクティブプログラミングは、ソフトウェア開発に対する単純な宣言的アプローチである。 言語レベルでは、Zoeaはすべての主流言語よりもはるかに単純である。 しかし、これまでZoeaで作られたソフトウェアは、従来の言語で作られた同等のソフトウェアよりもシンプルである、という逸話的な証拠しかなかった。 本稿では,Zoeaや従来のプログラミング言語で実装された等価コードのソフトウェア複雑性を定量的に比較した結果について述べる。 この研究は、人気のあるプログラミング言語 chrestomathy の様々なプログラミングタスクを使用している。 2つの確立されたメトリクスと相対的なプログラムサイズを用いて、プログラムの複雑さに関する結果を示す。 Zoeaプログラムは、従来の言語における等価プログラムの複雑さのおよそ50%と、平均的に同じサイズであることが判明した。 その結果、現在のプログラミング言語は(ソフトウェア要件とは対照的に)ソフトウェア複雑性に最大の貢献者であり、帰納的プログラミングアプローチによってかなりの複雑さを回避できることが示唆された。

Composable inductive programming as implemented in the Zoea programming language is a simple declarative approach to software development. At the language level it is evident that Zoea is significantly simpler than all mainstream languages. However, until now we have only had anecdotal evidence that software produced with Zoea is also simpler than equivalent software produced with conventional languages. This paper presents the results of a quantitative comparison of the software complexity of equivalent code implemented in Zoea and also in a conventional programming language. The study uses a varied set of programming tasks from a popular programming language chrestomathy. Results are presented for relative program complexity using two established metrics and also for relative program size. It was found that Zoea programs are approximately 50% the complexity of equivalent programs in a conventional language and on average equal in size. The results suggest that current programming languages (as opposed to software requirements) are the largest contributor to software complexity and that significant complexity could be avoided through an inductive programming approach.
翻訳日:2022-12-02 05:51:20 公開日:2020-05-17
# スペクトルブロックのスパースモデリングに基づくハイパースペクトル画像分類

Hyperspectral Image Classification Based on Sparse Modeling of Spectral Blocks ( http://arxiv.org/abs/2005.08191v1 )

ライセンス: Link先を確認
Saeideh Ghanbari Azar and Saeed Meshgini and Tohid Yousefi Rezaii and Soosan Beheshti(参考訳) ハイパースペクトル画像は多岐にわたる空間的およびスペクトル的情報を提供し、実用科学の様々な分野における物質検出に非常に有用である。 データの高次元化は、既存の空間的およびスペクトル的冗長性によって対処できる多くの処理課題につながる。 本稿では,超スペクトル画像分類のためのスパースモデリングフレームワークを提案する。 スペクトルブロックは、スペクトルと空間の冗長性を共同で活用するために空間群と共に使用される。 スパースモデリングの計算複雑性を低減するため、スペクトルブロックは高次元最適化問題をより高速に解ける小さなサブプロブレムに分解するために用いられる。 さらに,提案するスパース構造により,最も識別的なスペクトルブロックを抽出し,計算量を削減することができる。 3つのベンチマークデータセット、すなわちpavia university imageとindian pines imageの実験は、提案手法が超スペクトル画像の頑健なスパースモデリングにつながり、いくつかの最先端手法と比較して分類精度を向上させることを検証している。 さらに,提案手法では処理時間が少なくなることを示す実験を行った。

Hyperspectral images provide abundant spatial and spectral information that is very valuable for material detection in diverse areas of practical science. The high-dimensions of data lead to many processing challenges that can be addressed via existent spatial and spectral redundancies. In this paper, a sparse modeling framework is proposed for hyperspectral image classification. Spectral blocks are introduced to be used along with spatial groups to jointly exploit spectral and spatial redundancies. To reduce the computational complexity of sparse modeling, spectral blocks are used to break the high-dimensional optimization problems into small-size sub-problems that are faster to solve. Furthermore, the proposed sparse structure enables to extract the most discriminative spectral blocks and further reduce the computational burden. Experiments on three benchmark datasets, i.e., Pavia University Image and Indian Pines Image verify that the proposed method leads to a robust sparse modeling of hyperspectral images and improves the classification accuracy compared to several state-of-the-art methods. Moreover, the experiments demonstrate that the proposed method requires less processing time.
翻訳日:2022-12-02 05:44:42 公開日:2020-05-17
# FuCiTNet:学習クラス継承変換の融合によるディープラーニングネットワークの一般化の改善

FuCiTNet: Improving the generalization of deep learning networks by the fusion of learned class-inherent transformations ( http://arxiv.org/abs/2005.08235v1 )

ライセンス: Link先を確認
Manuel Rey-Area, Emilio Guirado, Siham Tabik and Javier Ruiz-Hidalgo(参考訳) 非常に小さなデータセットがDeep Neural Networks(DNN)において過度に適合していること、すなわちネットワークがトレーニングされたデータに非常に偏っていることが広く知られている。 この問題はしばしば、転送学習、正規化技術、および/またはデータ拡張を使用して緩和される。 本研究は,多数の視覚的特徴を持つ非常に小さなデータセット上でのDNNの一般化を改善するために,従来の手法を補完する新たなアプローチを提案する。 提案手法はFuCiTNet (Fusion Class inherent Transformations Network) と呼ばれ、GANにインスパイアされ、問題のクラスとして多くのジェネレータを生成する。 各ジェネレータ($k$)は、入力イメージをkクラスドメインに持ち込む変換を学習する。 我々は、特定のkクラス変換の傾きを駆動するために、ジェネレータの分類損失を導入する。 提案手法は,3つの多様なデータセットにおける分類モデルの一般化を改善できることを実証する。

It is widely known that very small datasets produce overfitting in Deep Neural Networks (DNNs), i.e., the network becomes highly biased to the data it has been trained on. This issue is often alleviated using transfer learning, regularization techniques and/or data augmentation. This work presents a new approach, independent but complementary to the previous mentioned techniques, for improving the generalization of DNNs on very small datasets in which the involved classes share many visual features. The proposed methodology, called FuCiTNet (Fusion Class inherent Transformations Network), inspired by GANs, creates as many generators as classes in the problem. Each generator, $k$, learns the transformations that bring the input image into the k-class domain. We introduce a classification loss in the generators to drive the leaning of specific k-class transformations. Our experiments demonstrate that the proposed transformations improve the generalization of the classification model in three diverse datasets.
翻訳日:2022-12-02 05:44:22 公開日:2020-05-17
# 顔の3次元ランドマークを用いた大規模表情変化の主観的同定

Subject Identification Across Large Expression Variations Using 3D Facial Landmarks ( http://arxiv.org/abs/2005.08339v1 )

ライセンス: Link先を確認
Sk Rahatul Jannat, Diego Fabiano, Shaun Canavan, and Tempestt Neal(参考訳) ランドマークのローカライゼーションは、主観的識別を含む幾何学的視覚研究に向けた重要な第一歩である。 これを踏まえて,感情の表現範囲を越えて,被験者識別作業に3次元顔のランドマークを用いることを提案する。 ランドマークは、時間変形可能な形状モデルを用いて検出され、被験者識別のためのサポートベクトルマシン(SVM)、ランダムフォレスト(RF)、ロング短期記憶(LSTM)ニューラルネットワークのトレーニングに使用される。 表現のバリエーションが大きい被験者識別に関心があるため, BU-4DFE, BP4D, BP4D+ 3D/4D顔データベースという3つの感情ベースデータベースの実験を行った。 提案手法は, BU-4DFE およびBP4D の被検体識別方法の現況よりも優れていることを示す。 我々の知る限りでは、BP4D+の被検体識別を調査するのはこれが初めてであり、その結果、コミュニティのベースラインとなる。

Landmark localization is an important first step towards geometric based vision research including subject identification. Considering this, we propose to use 3D facial landmarks for the task of subject identification, over a range of expressed emotion. Landmarks are detected, using a Temporal Deformable Shape Model and used to train a Support Vector Machine (SVM), Random Forest (RF), and Long Short-term Memory (LSTM) neural network for subject identification. As we are interested in subject identification with large variations in expression, we conducted experiments on 3 emotion-based databases, namely the BU-4DFE, BP4D, and BP4D+ 3D/4D face databases. We show that our proposed method outperforms current state of the art methods for subject identification on BU-4DFE and BP4D. To the best of our knowledge, this is the first work to investigate subject identification on the BP4D+, resulting in a baseline for the community.
翻訳日:2022-12-02 05:44:04 公開日:2020-05-17
# 複数のモダリティが感情認識に及ぼす影響:3次元顔ランドマーク,行動単位,生理学的データの検討

Impact of multiple modalities on emotion recognition: investigation into 3d facial landmarks, action units, and physiological data ( http://arxiv.org/abs/2005.08341v1 )

ライセンス: Link先を確認
Diego Fabiano, Manikandan Jaishanker, and Shaun Canavan(参考訳) 人間の感情の複雑さを十分に理解するには、異なるモダリティから複数の物理的特徴の統合が有利である。 そこで本研究では,感情認識に影響を及ぼす3次元顔データ,行動単位,生理データの解析を行う。 それぞれを独立して分析し,人間の感情を認識するためにそれぞれを融合させる。 この分析には、特定の感情(例えば幸福)に最も重要な特徴が含まれている。 分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。 一方,行動単位は他のモダリティと融合すると感情認識に正の影響を与えうるが,単調な方法で感情を検知することは困難であることが示唆された。

To fully understand the complexities of human emotion, the integration of multiple physical features from different modalities can be advantageous. Considering this, we present an analysis of 3D facial data, action units, and physiological data as it relates to their impact on emotion recognition. We analyze each modality independently, as well as the fusion of each for recognizing human emotion. This analysis includes which features are most important for specific emotions (e.g. happy). Our analysis indicates that both 3D facial landmarks and physiological data are encouraging for expression/emotion recognition. On the other hand, while action units can positively impact emotion recognition when fused with other modalities, the results suggest it is difficult to detect emotion using them in a unimodal fashion.
翻訳日:2022-12-02 05:43:46 公開日:2020-05-17
# 3次元顔ランドマークを用いた顔行動単位検出

Facial Action Unit Detection using 3D Facial Landmarks ( http://arxiv.org/abs/2005.08343v1 )

ライセンス: Link先を確認
Saurabh Hinduja and Shaun Canavan(参考訳) 本稿では,3次元顔ランドマークを用いた顔動作単位(au)の検出を提案する。 具体的には,3次元顔ランドマーク上で2次元畳み込みニューラルネットワーク(cnn)を訓練し,形状指数に基づく統計的形状モデルを用いて2値および多値au検出を行う。 提案手法は,顔のランドマークの動きがAUの動きと直接対応するため,AUの発生を正確にモデル化できることを示す。 CNNを3Dランドマークでトレーニングすることで、最先端の2つの感情データセット、すなわちBP4DとBP4D+の正確なAU検出が可能になる。 提案手法を用いて,330,000フレーム以上のAUを複数検出し,最先端手法による改善結果を報告する。

In this paper, we propose to detect facial action units (AU) using 3D facial landmarks. Specifically, we train a 2D convolutional neural network (CNN) on 3D facial landmarks, tracked using a shape index-based statistical shape model, for binary and multi-class AU detection. We show that the proposed approach is able to accurately model AU occurrences, as the movement of the facial landmarks corresponds directly to the movement of the AUs. By training a CNN on 3D landmarks, we can achieve accurate AU detection on two state-of-the-art emotion datasets, namely BP4D and BP4D+. Using the proposed method, we detect multiple AUs on over 330,000 frames, reporting improved results over state-of-the-art methods.
翻訳日:2022-12-02 05:43:33 公開日:2020-05-17
# 畳み込みニューラルネットワークを用いた顔映像の偽造検出

Detecting Forged Facial Videos using convolutional neural network ( http://arxiv.org/abs/2005.08344v1 )

ライセンス: Link先を確認
Neilesh Sambhu and Shaun Canavan(参考訳) 本稿では,オンラインビデオにおける顔の偽造映像の検出方法を提案する。 この検出を容易にするために,より小さな(少ない)畳み込みニューラルネットワーク(CNN)を用いて,データ駆動型ビデオ検出手法を提案する。 このアプローチを検証するために,フレームベースとビデオベースの両方の結果を詳述したfaceforensics public datasetを調査した。 提案手法は,現在の技術よりも優れていることを示す。 また, バッチサイズ, フィルタ数, ネットワーク層数の影響を解析したアブレーション実験を行い, 偽造映像の検出精度について検討した。

In this paper, we propose to detect forged videos, of faces, in online videos. To facilitate this detection, we propose to use smaller (fewer parameters to learn) convolutional neural networks (CNN), for a data-driven approach to forged video detection. To validate our approach, we investigate the FaceForensics public dataset detailing both frame-based and video-based results. The proposed method is shown to outperform current state of the art. We also perform an ablation study, analyzing the impact of batch size, number of filters, and number of network layers on the accuracy of detecting forged videos.
翻訳日:2022-12-02 05:43:17 公開日:2020-05-17
# T-VSE: トランスフォーマーベースのビジュアルセマンティック埋め込み

T-VSE: Transformer-Based Visual Semantic Embedding ( http://arxiv.org/abs/2005.08399v1 )

ライセンス: Link先を確認
Muhammet Bastan, Arnau Ramisa, Mehmet Tek(参考訳) トランスフォーマーモデルは、非常に大きなテキストコーパス上での自己教師付き事前学習のための新しいアルゴリズムのおかげで、NLPタスクにおいて印象的なパフォーマンスを達成した。 対照的に、最近の文献では、単純な平均語モデルは、MS COCOのような標準ベンチマーク上のクロスモーダル画像/テキスト検索タスクにおいて、RNNやTransformerのようなより複雑な言語モデルよりも優れていることを示唆している。 本稿では,データセットのスケールとトレーニング戦略が重要であり,トランスフォーマティブベースのクロスモーダル組込みが,eコマース製品イメージタイトルペアの大規模なデータセット上でトレーニングされた場合,単語平均やrnnベースの組込みよりも大きなマージンがあることを実証する。

Transformer models have recently achieved impressive performance on NLP tasks, owing to new algorithms for self-supervised pre-training on very large text corpora. In contrast, recent literature suggests that simple average word models outperform more complicated language models, e.g., RNNs and Transformers, on cross-modal image/text search tasks on standard benchmarks, like MS COCO. In this paper, we show that dataset scale and training strategy are critical and demonstrate that transformer-based cross-modal embeddings outperform word average and RNN-based embeddings by a large margin, when trained on a large dataset of e-commerce product image-title pairs.
翻訳日:2022-12-02 05:43:07 公開日:2020-05-17
# パラレル映画のサブタイトルから語彙資源をラベル付けしたヘブライ語セマンティックロールの構築

Building a Hebrew Semantic Role Labeling Lexical Resource from Parallel Movie Subtitles ( http://arxiv.org/abs/2005.08206v1 )

ライセンス: Link先を確認
Ben Eyal and Michael Elhadad(参考訳) 本稿では,英語からのアノテーション投影により半自動生成したヘブライ語に対する意味的役割ラベル付けリソースを提案する。 このコーパスは多言語opensubtitlesデータセットから派生し、信頼できる言語アノテーションが計算された短い非公式文を含む。 FrameNetとPropBankの両方のスタイルで、形態解析、依存性構文、セマンティックロールラベルを含む、完全に注釈付けされたデータを提供する。 文は英語とヘブライ語の間で一致しており、双方とも完全な注釈と英語の議論からヘブライ語への明示的なマッピングを含んでいる。 このヘブライ語リソース上でニューラルネットワークsrlモデルをトレーニングし,事前学習された多言語bertトランスフォーマーモデルを活用し,ヘブライ語srlを基準点として,最初のベースラインモデルを提供する。 私たちの提供するコードはジェネリックで、SRLリソースをブートストラップするために他の言語に適応することができます。

We present a semantic role labeling resource for Hebrew built semi-automatically through annotation projection from English. This corpus is derived from the multilingual OpenSubtitles dataset and includes short informal sentences, for which reliable linguistic annotations have been computed. We provide a fully annotated version of the data including morphological analysis, dependency syntax and semantic role labeling in both FrameNet and PropBank styles. Sentences are aligned between English and Hebrew, both sides include full annotations and the explicit mapping from the English arguments to the Hebrew ones. We train a neural SRL model on this Hebrew resource exploiting the pre-trained multilingual BERT transformer model, and provide the first available baseline model for Hebrew SRL as a reference point. The code we provide is generic and can be adapted to other languages to bootstrap SRL resources.
翻訳日:2022-12-02 05:36:55 公開日:2020-05-17
# Support-BERT:Deep Bidirectional Transformer を用いたMSDNにおける質問応答ペアの品質予測

Support-BERT: Predicting Quality of Question-Answer Pairs in MSDN using Deep Bidirectional Transformer ( http://arxiv.org/abs/2005.08294v1 )

ライセンス: Link先を確認
Bhaskar Sen, Nikhil Gopal, and Xinwei Xue(参考訳) コミュニティサポートWebサイト(例えば、Microsoft Developers Network、Stackoverflow、Githubなど)からの質問や回答の品質は定義が困難であり、品質に関する質問や回答の予測モデルの実装はさらに困難である。 以前の著作では、質問品質モデルと回答品質モデルに、アップボアの数、質問や回答を投稿する人の信頼性、投稿のタイトル、文脈ナイーブな自然言語処理機能といったメタ機能を使用して別々に取り組んだ。 しかし,文献上では,コミュニティ質問応答webサイトのための統合質問応答品質モデルが欠如している。 本稿では,最近開発された双方向トランスフォーマーを用いたディープラーニングモデルを用いて,コミュニティ支援サイトの品質Q&Aモデリング問題に取り組む。 ウィキペディアを用いた別のタスクで訓練された変換器(BERT)の双方向エンコーダ表現を用いたQ&A品質モデリングにおける伝達学習の適用性を検討した。 Microsoft Developer Network (MSDN) から抽出したQ&Aの微調整とともに,BERTモデルをさらに事前トレーニングすることで,自動品質予測の性能を80%以上向上させることができることがわかった。 さらに、AzureナレッジベースシステムでAzureMLを使用して、詳細なモデルをリアルタイムシナリオにデプロイするための実装も実施されている。

Quality of questions and answers from community support websites (e.g. Microsoft Developers Network, Stackoverflow, Github, etc.) is difficult to define and a prediction model of quality questions and answers is even more challenging to implement. Previous works have addressed the question quality models and answer quality models separately using meta-features like number of up-votes, trustworthiness of the person posting the questions or answers, titles of the post, and context naive natural language processing features. However, there is a lack of an integrated question-answer quality model for community question answering websites in the literature. In this brief paper, we tackle the quality Q&A modeling problems from the community support websites using a recently developed deep learning model using bidirectional transformers. We investigate the applicability of transfer learning on Q&A quality modeling using Bidirectional Encoder Representations from Transformers (BERT) trained on a separate tasks originally using Wikipedia. It is found that a further pre-training of BERT model along with finetuning on the Q&As extracted from Microsoft Developer Network (MSDN) can boost the performance of automated quality prediction to more than 80%. Furthermore, the implementations are carried out for deploying the finetuned model in real-time scenario using AzureML in Azure knowledge base system.
翻訳日:2022-12-02 05:36:41 公開日:2020-05-17
# テュルク諸語における言語間埋め込み

Cross-Lingual Word Embeddings for Turkic Languages ( http://arxiv.org/abs/2005.08340v1 )

ライセンス: Link先を確認
Elmurod Kuriyozov, Yerai Doval, Carlos G\'omez-Rodr\'iguez(参考訳) 英語などの資源豊富な言語から得られた知識を、トルコ語、ロシア語など、注釈付きデータが乏しい低リソース言語に伝達するために、言語間単語の埋め込みを学ぶことへの関心が高まっている。 本稿では,トルコ語,ウズベク語,アゼルバイジャン語,カザフ語,キルギス語など,低リソース制約の影響を強く受けているトルコ語族に属する一言語組込み空間を統一するための確立された手法について,最初の実現可能性について検討する。 これらの技術は、主にバイリンガル辞書の形で明示的な監督をほとんど必要とせず、低リソースの辞書を含む様々な領域に容易に適応できることが知られている。 両言語辞書とこれらの言語に対する新しい単語埋め込みを取得し、最先端技術を用いて言語間単語埋め込みを得るためのステップを示す。 次に,バイリンガル辞書誘導タスクを用いて結果を評価する。 実験の結果,得られたバイリンガル辞書は従来よりも優れており,低リソース言語からの単語の埋め込みは,リソースに富んだ近縁な言語が連携する上で有効であることがわかった。 さらに、外在的タスク(ウズベクの感性分析)の評価は、単言語単語の埋め込みはわずかながら言語間アライメントの恩恵を受けることができることを証明している。

There has been an increasing interest in learning cross-lingual word embeddings to transfer knowledge obtained from a resource-rich language, such as English, to lower-resource languages for which annotated data is scarce, such as Turkish, Russian, and many others. In this paper, we present the first viability study of established techniques to align monolingual embedding spaces for Turkish, Uzbek, Azeri, Kazakh and Kyrgyz, members of the Turkic family which is heavily affected by the low-resource constraint. Those techniques are known to require little explicit supervision, mainly in the form of bilingual dictionaries, hence being easily adaptable to different domains, including low-resource ones. We obtain new bilingual dictionaries and new word embeddings for these languages and show the steps for obtaining cross-lingual word embeddings using state-of-the-art techniques. Then, we evaluate the results using the bilingual dictionary induction task. Our experiments confirm that the obtained bilingual dictionaries outperform previously-available ones, and that word embeddings from a low-resource language can benefit from resource-rich closely-related languages when they are aligned together. Furthermore, evaluation on an extrinsic task (Sentiment analysis on Uzbek) proves that monolingual word embeddings can, although slightly, benefit from cross-lingual alignments.
翻訳日:2022-12-02 05:35:32 公開日:2020-05-17
# ドイツの列車、米国でのテスト:3d物体探知機を一般化

Train in Germany, Test in The USA: Making 3D Object Detectors Generalize ( http://arxiv.org/abs/2005.08139v1 )

ライセンス: Link先を確認
Yan Wang, Xiangyu Chen, Yurong You, Li Erran, Bharath Hariharan, Mark Campbell, Kilian Q. Weinberger, Wei-Lun Chao(参考訳) 自動運転の分野では、ディープラーニングはLiDARやステレオカメラデータの3Dオブジェクト検出精度を大幅に向上させた。 ディープネットワークは一般化に優れていますが、明るさ、車のサイズ、モデルなど、データ全体を通して一貫して現れるあらゆる種類の刺激的なアーティファクトに適していることでも知られています。 実際、自動運転のためのほとんどのデータセットは、通常同様の気象条件下で、1つの国の都市の狭い部分で収集される。 本稿では,あるデータセットから別のデータセットへ3次元物体検出器を適用する作業について検討する。 これは非常に難しい作業であり、結果として正確度が大幅に低下するのである。 我々は、真の適応課題を調査する広範囲な実験を行い、驚くべき結論に達した: 克服すべき主な適応ハードルは、地理的領域における車のサイズの違いである。 平均車の大きさに基づく単純な補正は、適応ギャップの強い補正をもたらす。 提案手法はほとんどの3次元オブジェクト検出フレームワークに簡単に組み込むことができる。 これは、各国にまたがる3dオブジェクト検出適応のための最初のベースラインを提供し、基盤となる問題は、期待していたよりも把握範囲内にあることを期待している。 私たちのコードはhttps://github.com/cxy1997/3d_adapt_auto_drivingで利用可能です。

In the domain of autonomous driving, deep learning has substantially improved the 3D object detection accuracy for LiDAR and stereo camera data alike. While deep networks are great at generalization, they are also notorious to over-fit to all kinds of spurious artifacts, such as brightness, car sizes and models, that may appear consistently throughout the data. In fact, most datasets for autonomous driving are collected within a narrow subset of cities within one country, typically under similar weather conditions. In this paper we consider the task of adapting 3D object detectors from one dataset to another. We observe that naively, this appears to be a very challenging task, resulting in drastic drops in accuracy levels. We provide extensive experiments to investigate the true adaptation challenges and arrive at a surprising conclusion: the primary adaptation hurdle to overcome are differences in car sizes across geographic areas. A simple correction based on the average car size yields a strong correction of the adaptation gap. Our proposed method is simple and easily incorporated into most 3D object detection frameworks. It provides a first baseline for 3D object detection adaptation across countries, and gives hope that the underlying problem may be more within grasp than one may have hoped to believe. Our code is available at https://github.com/cxy1997/3D_adapt_auto_driving.
翻訳日:2022-12-02 05:33:58 公開日:2020-05-17
# 連結・自動走行車による停留所交通の減衰 -深層強化学習アプローチ-

Dampen the Stop-and-Go Traffic with Connected and Automated Vehicles -- A Deep Reinforcement Learning Approach ( http://arxiv.org/abs/2005.08245v1 )

ライセンス: Link先を確認
Liming Jiang, Yuanchang Xie, Danjue Chen, Tienan Li, Nicholas G. Evans(参考訳) 輸送システムには多くの課題があるが、その形成と機構はまだ検討中である。しかし、注意深く設計された制御器を備えた連結型自動車両(cav)を導入することで、車両群におけるストップ・アンド・ゴー波を弱めることができることが証明されている。 本研究は, 解析モデルではなく, CAVの動作制御に強化学習を導入し, CAVを車両の2番目の位置に置くことにより, 車両の速度振動を低減し, 人間の運転者がよりスムーズな運転行動を採用するのを支援する。 その結果,本制御器は,人間の走行する車両のspped振動を54%,8%-28%低減できることがわかった。 燃料消費も大幅に削減されている。 さらに、CAVは、わずかに利他的に振る舞うことを選択した場合、交通安定剤として機能する可能性があることを示唆している。

Stop-and-go traffic poses many challenges to tranportation system, but its formation and mechanism are still under exploration.however, it has been proved that by introducing Connected Automated Vehicles(CAVs) with carefully designed controllers one could dampen the stop-and-go waves in the vehicle fleet. Instead of using analytical model, this study adopts reinforcement learning to control the behavior of CAV and put a single CAV at the 2nd position of a vehicle fleet with the purpose to dampen the speed oscillation from the fleet leader and help following human drivers adopt more smooth driving behavior. The result show that our controller could decrease the spped oscillation of the CAV by 54% and 8%-28% for those following human-driven vehicles. Significant fuel consumption savings are also observed. Additionally, the result suggest that CAVs may act as a traffic stabilizer if they choose to behave slightly altruistically.
翻訳日:2022-12-02 05:26:43 公開日:2020-05-17
# 特殊化深層ニューラルネットワークの集合における多様性による対向ロバスト性に向けて

Toward Adversarial Robustness by Diversity in an Ensemble of Specialized Deep Neural Networks ( http://arxiv.org/abs/2005.08321v1 )

ライセンス: Link先を確認
Mahdieh Abbasi and Arezoo Rajabi and Christian Gagne and Rakesh B. Bobba(参考訳) 我々は,CNNのアンサンブルにおける多様性がブラックボックスの敵インスタンスの検出およびホワイトボックスの敵攻撃の発生に及ぼす影響を明らかにすることを目的とする。 そこで本研究では,シンプルな投票機構とともに,多様なCNNのアンサンブルを提案する。 このアンサンブルの多様性は、敵の予測的自信とクリーンサンプルの信頼のギャップを生じさせ、敵を検出できる。 次に,このような専門家集団における多様性が,ブラックボックスとホワイトボックスの敵対的事例のリスクをいかに軽減するかを分析する。 mnist と cifar-10 を用いて, 既知のブラックボックス攻撃例の大部分を検出するアンサンブルの有効性を実証し, クリーンサンプルのリスク率の小さな増加を犠牲にして, 敵のリスク率を大幅に削減した。 さらに,バニラcnnおよびバニラcnnのアンサンブルと比較して,このアンサンブルによるホワイトボックス攻撃の成功率は著しく減少し,より堅牢なモデルを開発する上での多様性の有益性を強調した。

We aim at demonstrating the influence of diversity in the ensemble of CNNs on the detection of black-box adversarial instances and hardening the generation of white-box adversarial attacks. To this end, we propose an ensemble of diverse specialized CNNs along with a simple voting mechanism. The diversity in this ensemble creates a gap between the predictive confidences of adversaries and those of clean samples, making adversaries detectable. We then analyze how diversity in such an ensemble of specialists may mitigate the risk of the black-box and white-box adversarial examples. Using MNIST and CIFAR-10, we empirically verify the ability of our ensemble to detect a large portion of well-known black-box adversarial examples, which leads to a significant reduction in the risk rate of adversaries, at the expense of a small increase in the risk rate of clean samples. Moreover, we show that the success rate of generating white-box attacks by our ensemble is remarkably decreased compared to a vanilla CNN and an ensemble of vanilla CNNs, highlighting the beneficial role of diversity in the ensemble for developing more robust models.
翻訳日:2022-12-02 05:26:11 公開日:2020-05-17
# 機械学習のためのパフォーマンス適合性とエラーメトリクスに関する洞察

Insights into Performance Fitness and Error Metrics for Machine Learning ( http://arxiv.org/abs/2006.00887v1 )

ライセンス: Link先を確認
M.Z. Naser, Amir Alavi(参考訳) 機械学習(ML)は、高いレベルの認知と人間のような分析を行うための訓練機械の分野である。 MLはデータ駆動型アプローチであるため、日々の生活や運用だけでなく、複雑で学際的な分野にも当てはまります。 商用、オープンソース、ユーザ分類のMLツールの台頭により、MLが現象やシナリオを探索するために適用される場合、重要な疑問がしばしば発生します。 この問題に対する適切な答えが様々な要因に依存することを念頭に置いておくと、この研究は、優れたMLモデルが、その現象を最適に実行し、最もよく記述するものであると仮定する。 この観点から、MLモデルの性能を評価するための適切な評価指標を特定することは必要であるだけでなく、保証される。 そこで本研究では,工学的応用に重点を置き,回帰・分類アルゴリズムにおいて最も一般的に使用される性能適合度と誤差指標について検討する。

Machine learning (ML) is the field of training machines to achieve high level of cognition and perform human-like analysis. Since ML is a data-driven approach, it seemingly fits into our daily lives and operations as well as complex and interdisciplinary fields. With the rise of commercial, open-source and user-catered ML tools, a key question often arises whenever ML is applied to explore a phenomenon or a scenario: what constitutes a good ML model? Keeping in mind that a proper answer to this question depends on a variety of factors, this work presumes that a good ML model is one that optimally performs and best describes the phenomenon on hand. From this perspective, identifying proper assessment metrics to evaluate performance of ML models is not only necessary but is also warranted. As such, this paper examines a number of the most commonly-used performance fitness and error metrics for regression and classification algorithms, with emphasis on engineering applications.
翻訳日:2022-12-02 05:25:28 公開日:2020-05-17
# 正確な口唇音声合成のための個別発話スタイル学習

Learning Individual Speaking Styles for Accurate Lip to Speech Synthesis ( http://arxiv.org/abs/2005.08209v1 )

ライセンス: Link先を確認
K R Prajwal, Rudrabha Mukhopadhyay, Vinay Namboodiri, C V Jawahar(参考訳) 人間は自発的に会話の一部を口唇の動きから推測する傾向がある。 本研究では,話者の唇の動きのみから自然発声を学習する,口唇音声合成の課題について検討する。 口唇読解における文脈的・話者特異的な手がかりの重要性を認識し,既存の研究と異なる道のりをたどる。 制約のない大きな語彙設定で個々の話者の正確なリップシーケンスと音声マッピングの学習に焦点をあてた。 この目的を達成するために,我々は,自然環境において単一話者の口唇から音声へのタスクを訓練し,評価するための,最初のベンチマークデータセットを収集し,公開する。 このような制約のないシナリオにおいて、音声合成の正確で自然な唇を実現するための、重要な設計選択を伴う新しいアプローチを提案する。 定量的,定性的な測定値と人的評価値を用いた大規模評価は,本手法が従来の研究の4倍の知能を有することを示す。 論文、方法、定性的な結果の簡単な概要については、デモビデオをご覧ください。 https://www.youtube.com/watch? v=HziA-jmlk_4&feature=youtu.be

Humans involuntarily tend to infer parts of the conversation from lip movements when the speech is absent or corrupted by external noise. In this work, we explore the task of lip to speech synthesis, i.e., learning to generate natural speech given only the lip movements of a speaker. Acknowledging the importance of contextual and speaker-specific cues for accurate lip-reading, we take a different path from existing works. We focus on learning accurate lip sequences to speech mappings for individual speakers in unconstrained, large vocabulary settings. To this end, we collect and release a large-scale benchmark dataset, the first of its kind, specifically to train and evaluate the single-speaker lip to speech task in natural settings. We propose a novel approach with key design choices to achieve accurate, natural lip to speech synthesis in such unconstrained scenarios for the first time. Extensive evaluation using quantitative, qualitative metrics and human evaluation shows that our method is four times more intelligible than previous works in this space. Please check out our demo video for a quick overview of the paper, method, and qualitative results. https://www.youtube.com/watch?v=HziA-jmlk_4&feature=youtu.be
翻訳日:2022-12-02 05:25:11 公開日:2020-05-17
# 常識推論のための敵対的訓練

Adversarial Training for Commonsense Inference ( http://arxiv.org/abs/2005.08156v1 )

ライセンス: Link先を確認
Lis Pereira, Xiaodong Liu, Fei Cheng, Masayuki Asahara, Ichiro Kobayashi(参考訳) 本稿では,Commonsense InferenCE(ALICE)のためのAdversariaLトレーニングアルゴリズムを提案する。 我々は、単語埋め込みに小さな摂動を適用し、モデルに正則化する結果として生じる敵意リスクを最小限に抑える。 これらの摂動を推定するために、2つの異なるアプローチの新たな組み合わせを利用する。 1) 真のラベルを用いて 2) モデル予測を用いた。 人為的な特徴や知識ベース、あるいはターゲットデータセット以外の追加データセットに頼ることなく、我々のモデルはRoBERTaの微調整性能を高め、常識推論を必要とする複数の読解データセットに対する競合的な結果を達成する。

We propose an AdversariaL training algorithm for commonsense InferenCE (ALICE). We apply small perturbations to word embeddings and minimize the resultant adversarial risk to regularize the model. We exploit a novel combination of two different approaches to estimate these perturbations: 1) using the true label and 2) using the model prediction. Without relying on any human-crafted features, knowledge bases, or additional datasets other than the target datasets, our model boosts the fine-tuning performance of RoBERTa, achieving competitive results on multiple reading comprehension datasets that require commonsense inference.
翻訳日:2022-12-02 05:24:53 公開日:2020-05-17
# IMOJIE:イテレーティブメモリベース共同オープン情報抽出

IMoJIE: Iterative Memory-Based Joint Open Information Extraction ( http://arxiv.org/abs/2005.08178v1 )

ライセンス: Link先を確認
Keshav Kolluru, Samarth Aggarwal, Vipul Rathore, Mausam and Soumen Chakrabarti(参考訳) オープン情報抽出のための従来のシステムは統計的かつルールベースであったが、近年はニューラルモデルが導入されている。 当社の作業は,シーケンス生成OpenIEモデルであるCopyAttention(Cui et al., 2018)をベースにしています。 解析の結果,CopyAttentionは文毎に一定数の抽出を発生し,抽出したタプルは冗長な情報を表現していることがわかった。 今回提案するIMoJIEはCopyAttentionの拡張であり, これまでに抽出したタプルに対して次なる抽出条件を導出する。 このアプローチはコピーアテンションの欠点を克服し、1文あたりのさまざまな抽出結果を生み出す。 複数の非神経系の抽出からブートストラップされたトレーニングデータに基づいてイモジエを訓練し,冗長性と雑音を低減するために自動フィルタリングを行った。 IMoJIEはCopyAttentionを約18F1ptで、BERTベースの強力なベースラインを2F1ptで上回り、タスクのための新しい最先端技術を確立する。

While traditional systems for Open Information Extraction were statistical and rule-based, recently neural models have been introduced for the task. Our work builds upon CopyAttention, a sequence generation OpenIE model (Cui et. al., 2018). Our analysis reveals that CopyAttention produces a constant number of extractions per sentence, and its extracted tuples often express redundant information. We present IMoJIE, an extension to CopyAttention, which produces the next extraction conditioned on all previously extracted tuples. This approach overcomes both shortcomings of CopyAttention, resulting in a variable number of diverse extractions per sentence. We train IMoJIE on training data bootstrapped from extractions of several non-neural systems, which have been automatically filtered to reduce redundancy and noise. IMoJIE outperforms CopyAttention by about 18 F1 pts, and a BERT-based strong baseline by 2 F1 pts, establishing a new state of the art for the task.
翻訳日:2022-12-02 05:24:44 公開日:2020-05-17
# グローバルEコマースのための言語間低リソース集合記述検索

Cross-Lingual Low-Resource Set-to-Description Retrieval for Global E-Commerce ( http://arxiv.org/abs/2005.08188v1 )

ライセンス: Link先を確認
Juntao Li, Chang Liu, Jian Wang, Lidong Bing, Hongsong Li, Xiaozhong Liu, Dongyan Zhao, Rui Yan(参考訳) 国境を越えたeコマースが繁栄する中、世界中の消費者にローカル製品を提供するeコマース販売者を支援するために、インテリジェントなアプローチをデザインする緊急の需要がある。 本稿では,対話型電子商取引における言語間情報検索の新たな課題,すなわち,対象言語における説得的製品記述とソース言語における製品属性集合のマッチングを含む言語間情報検索の課題について検討する。 我々は手動で新しい高品質のペアデータセットを収集し、各ペアはソース言語にセットされた未順序の製品属性と、ターゲット言語にセットされた情報的製品記述を含む。 データセットの構築プロセスは時間と費用がかかるため、新しいデータセットは13.5kペアのみで構成されており、低リソース設定であり、国境を越えたeコマースにおけるモデル開発と評価のための挑戦的なテストベッドと見なすことができる。 この言語間セット・トゥ・記述検索課題に対処するために,事前学習した単言語BERT表現に対する文脈依存の言語間マッピングの強化を伴う,新しい言語間マッチングネットワーク(CLMN)を提案する。 実験結果から,提案したCLMNは,難解な課題に対する印象的な結果を得られ,BERT上での文脈依存の言語間マッピングは,事前学習した多言語BERTモデルよりも顕著な改善をもたらすことが示された。

With the prosperous of cross-border e-commerce, there is an urgent demand for designing intelligent approaches for assisting e-commerce sellers to offer local products for consumers from all over the world. In this paper, we explore a new task of cross-lingual information retrieval, i.e., cross-lingual set-to-description retrieval in cross-border e-commerce, which involves matching product attribute sets in the source language with persuasive product descriptions in the target language. We manually collect a new and high-quality paired dataset, where each pair contains an unordered product attribute set in the source language and an informative product description in the target language. As the dataset construction process is both time-consuming and costly, the new dataset only comprises of 13.5k pairs, which is a low-resource setting and can be viewed as a challenging testbed for model development and evaluation in cross-border e-commerce. To tackle this cross-lingual set-to-description retrieval task, we propose a novel cross-lingual matching network (CLMN) with the enhancement of context-dependent cross-lingual mapping upon the pre-trained monolingual BERT representations. Experimental results indicate that our proposed CLMN yields impressive results on the challenging task and the context-dependent cross-lingual mapping on BERT yields noticeable improvement over the pre-trained multi-lingual BERT model.
翻訳日:2022-12-02 05:24:25 公開日:2020-05-17
# 戦略分類におけるランダム性とノイズの役割

The Role of Randomness and Noise in Strategic Classification ( http://arxiv.org/abs/2005.08377v1 )

ライセンス: Link先を確認
Mark Braverman and Sumegha Garg(参考訳) 戦略的分類設定における最適分類器設計の問題点について検討し, 分類は, プレイヤーが特徴を改変して良好な分類結果を得るゲームの一部である(コストはかかるが)。 これまで、この問題は学習理論的な観点とアルゴリズム的公平性の観点から検討されてきた。 私たちの主な貢献は 1. 分類プロセスの効率を最大化すること(その結果の精度が、より優れた結果を得るために、その特徴を操る資格のある選手の日焼けコストを抑えるものとして定義される)が目的であれば、ランダム化された分類器(すなわち、与えられた特徴ベクトルの確率が0から1に厳密に一致するもの)を用いる必要があること。 2)多くの自然な場合において、課せられる最適解(効率の観点から言えば)は、プレイヤーが特徴ベクトルを決して変更しない構造を持つ(ランダム化分類器は、1に分類される確率の利得が、その特徴の変更の費用を正当化しないような方法で構成されている)。 3. ランダム化分類は分類器の観点からは安定な最善応答ではなく、分類器はシステムの不安定さを生じさせることなくランダム化分類器の利益を享受しない。 4. ある場合において、ノイズ信号は、より良い平衡結果をもたらすことを示し、特徴調整コストが異なる複数のサブ集団が関与する場合の正確性と公平性を改善する。 これは政策の観点からは、特定のランダム化された分類戦略(特に複数の分類器を持つ市場において)を強制することは困難であるため興味深いが、特徴信号が本質的にノイズになるように情報環境を変更することは可能である。

We investigate the problem of designing optimal classifiers in the strategic classification setting, where the classification is part of a game in which players can modify their features to attain a favorable classification outcome (while incurring some cost). Previously, the problem has been considered from a learning-theoretic perspective and from the algorithmic fairness perspective. Our main contributions include 1. Showing that if the objective is to maximize the efficiency of the classification process (defined as the accuracy of the outcome minus the sunk cost of the qualified players manipulating their features to gain a better outcome), then using randomized classifiers (that is, ones where the probability of a given feature vector to be accepted by the classifier is strictly between 0 and 1) is necessary. 2. Showing that in many natural cases, the imposed optimal solution (in terms of efficiency) has the structure where players never change their feature vectors (the randomized classifier is structured in a way, such that the gain in the probability of being classified as a 1 does not justify the expense of changing one's features). 3. Observing that the randomized classification is not a stable best-response from the classifier's viewpoint, and that the classifier doesn't benefit from randomized classifiers without creating instability in the system. 4. Showing that in some cases, a noisier signal leads to better equilibria outcomes -- improving both accuracy and fairness when more than one subpopulation with different feature adjustment costs are involved. This is interesting from a policy perspective, since it is hard to force institutions to stick to a particular randomized classification strategy (especially in a context of a market with multiple classifiers), but it is possible to alter the information environment to make the feature signals inherently noisier.
翻訳日:2022-12-02 05:16:56 公開日:2020-05-17
# ファッション画像分類とビジュアル検索のためのニューラルネットワーク

Neural Networks for Fashion Image Classification and Visual Search ( http://arxiv.org/abs/2005.08170v1 )

ライセンス: Link先を確認
Fengzi Li, Shashi Kant, Shunichi Araki, Sumer Bangera, Swapna Samir Shukla(参考訳) 電子商取引業界が直面している2つの潜在的課題について論じる。 一つは売り手が直面する問題、もうひとつは販売プラットフォームに商品の写真をアップロードし、関連するマニュアルタグを付けることだ。 これは、検索結果がないことにつながる誤分類を引き起こす。 もう一つの問題は、顧客が正しいキーワードを知らないが画像の視覚的な印象を持つ場合、注文を配置する際の潜在的なボトルネックに関するものである。 画像ベースの検索アルゴリズムは、ユーザーがオブジェクトの画像をクリックして類似商品をタイピングすることなく検索できるようにすることで、Eコマースの真の可能性を解き放つことができる。 本稿では,これらの問題を解決する機械学習アルゴリズムについて検討する。

We discuss two potentially challenging problems faced by the ecommerce industry. One relates to the problem faced by sellers while uploading pictures of products on the platform for sale and the consequent manual tagging involved. It gives rise to misclassifications leading to its absence from search results. The other problem concerns with the potential bottleneck in placing orders when a customer may not know the right keywords but has a visual impression of an image. An image based search algorithm can unleash the true potential of ecommerce by enabling customers to click a picture of an object and search for similar products without the need for typing. In this paper, we explore machine learning algorithms which can help us solve both these problems.
翻訳日:2022-12-02 05:16:23 公開日:2020-05-17
# ベクトル量子化自己回帰予測符号化

Vector-Quantized Autoregressive Predictive Coding ( http://arxiv.org/abs/2005.08392v1 )

ライセンス: Link先を確認
Yu-An Chung, Hao Tang, James Glass(参考訳) 自己監視型予測符号化(autoregressive prediction coding, apc)は,大量のラベルなしデータから表現を学ぶことに成功し,学習された表現は多くの下流タスクに豊富である。 しかし、低自己監督損失と下流タスクの強い性能の関連性は未だ不明である。 本研究では,量子化表現を生成する新しいモデルであるVector-Quantized Autoregressive Predictive Coding (VQ-APC)を提案する。 限られたモデルの列を研究することで、学習された表現の構成要素を明らかにする。 特に,調査課題を伴う情報の存在を確認するとともに,情報の欠如を相互情報で示しながら,音声情報の容量が制限されることなく保存するモデルの嗜好を明らかにする。 自己監督目的を最大化するために、音声情報と話者情報が増幅される点が存在することを見出した。 副産物として、特定のモデル容量の学習符号は、英語の電話機とよく一致する。

Autoregressive Predictive Coding (APC), as a self-supervised objective, has enjoyed success in learning representations from large amounts of unlabeled data, and the learned representations are rich for many downstream tasks. However, the connection between low self-supervised loss and strong performance in downstream tasks remains unclear. In this work, we propose Vector-Quantized Autoregressive Predictive Coding (VQ-APC), a novel model that produces quantized representations, allowing us to explicitly control the amount of information encoded in the representations. By studying a sequence of increasingly limited models, we reveal the constituents of the learned representations. In particular, we confirm the presence of information with probing tasks, while showing the absence of information with mutual information, uncovering the model's preference in preserving speech information as its capacity becomes constrained. We find that there exists a point where phonetic and speaker information are amplified to maximize a self-supervised objective. As a byproduct, the learned codes for a particular model capacity correspond well to English phones.
翻訳日:2022-12-02 05:15:26 公開日:2020-05-17
# 2つの計算知モデルによる太陽活動予測(比較研究)

Forecasting Solar Activity with Two Computational Intelligence Models (A Comparative Study) ( http://arxiv.org/abs/2005.08350v1 )

ライセンス: Link先を確認
M.Parsapoor, U.Bilstrup, B.Svensson(参考訳) 太陽活動 太陽活動の正確な予測は、高強度の太陽噴火が発生した場合、電子機器の可視的な損傷を減らすために必要不可欠である。 近年,カオスシステムの予測ツールとしてbelfis(brain emotional learning-based fuzzy inference system)が提案されている。 BELFISの構造は、恐怖条件付けの神経構造に基づいて設計されている。 BELFISの機能は、適応ネットワークをBELFIS構造の構成要素に割り当てることで実現される。 本稿では,太陽周期16~24の予測による予測器としてのBELFISの性能評価に着目する。 BELFISの性能は、この目的のために使われる他の計算モデル、特に適応型神経ファジィ推論システム(ANFIS)と比較される。

Solar activity It is vital to accurately predict solar activity, in order to decrease the plausible damage of electronic equipment in the event of a large high-intensity solar eruption. Recently, we have proposed BELFIS (Brain Emotional Learning-based Fuzzy Inference System) as a tool for the forecasting of chaotic systems. The structure of BELFIS is designed based on the neural structure of fear conditioning. The function of BELFIS is implemented by assigning adaptive networks to the components of the BELFIS structure. This paper especially focuses on performance evaluation of BELFIS as a predictor by forecasting solar cycles 16 to 24. The performance of BELFIS is compared with other computational models used for this purpose, and in particular with adaptive neuro-fuzzy inference system (ANFIS).
翻訳日:2022-12-02 05:08:33 公開日:2020-05-17
# デュアルリカレントニューラルネットワークにおけるメモリと処理の分離

Separation of Memory and Processing in Dual Recurrent Neural Networks ( http://arxiv.org/abs/2005.13971v1 )

ライセンス: Link先を確認
Christian Oliva and Luis F. Lago-Fern\'andez(参考訳) 入力に接続する繰り返し層とフィードフォワード層を積み重ねたニューラルネットワークアーキテクチャを探索し、精度と解釈可能性の観点から標準のElmanおよびLSTMアーキテクチャと比較する。 ノイズがリカレントユニットの活性化関数に導入されると、これらのニューロンは、ネットワークを有限オートマトンのように振る舞う2値活性化レジームに強制される。 得られたモデルは、正規言語の認識、異なる基底における加算の計算、算術式の生成など、様々なサンプル問題に対してよりシンプルで、解釈しやすく、精度の高いものとなる。

We explore a neural network architecture that stacks a recurrent layer and a feedforward layer that is also connected to the input, and compare it to standard Elman and LSTM architectures in terms of accuracy and interpretability. When noise is introduced into the activation function of the recurrent units, these neurons are forced into a binary activation regime that makes the networks behave much as finite automata. The resulting models are simpler, easier to interpret and get higher accuracy on different sample problems, including the recognition of regular languages, the computation of additions in different bases and the generation of arithmetic expressions.
翻訳日:2022-12-02 05:08:20 公開日:2020-05-17
# 双対学習:理論的研究とアルゴリズム拡張

Dual Learning: Theoretical Study and an Algorithmic Extension ( http://arxiv.org/abs/2005.08238v1 )

ライセンス: Link先を確認
Zhibing Zhao, Yingce Xia, Tao Qin, Lirong Xia, Tie-Yan Liu(参考訳) デュアルラーニングは、機械翻訳、画像から画像への変換など、多くの機械学習アプリケーションで成功している。 もし1つのドメインから別のドメインにx$をマップし、それを別のドメインにマップしたら、元のx$を復元するべきです。 その効果は実証的に検証されているが、二重学習の理論的理解はいまだに限られている。 本稿では,二重学習が機能する理由と時期を理解することを目的とする。 この理論解析に基づき,より関連するマッピングを導入することにより,デュアルラーニングをさらに拡張し,新たな領域からのフィードバック信号を利用してマッピングの品質を向上させる多段階デュアルラーニングを提案する。 マルチステップの二重学習は、穏やかな条件下での標準的な二重学習の性能を高めることができることを示す。 wmt 14 english$\leftrightarrow$ german and multiun english$\leftrightarrow$ french translations (wmt 14 english$\leftrightarrow$ german and multiun english$\leftrightarrow$ french translations) では、二重学習に関する理論的な知見が検証され、マルチアンの英語、フランス語、スペイン語の翻訳結果が多段階二重学習の有効性を示している。

Dual learning has been successfully applied in many machine learning applications including machine translation, image-to-image transformation, etc. The high-level idea of dual learning is very intuitive: if we map an $x$ from one domain to another and then map it back, we should recover the original $x$. Although its effectiveness has been empirically verified, theoretical understanding of dual learning is still very limited. In this paper, we aim at understanding why and when dual learning works. Based on our theoretical analysis, we further extend dual learning by introducing more related mappings and propose multi-step dual learning, in which we leverage feedback signals from additional domains to improve the qualities of the mappings. We prove that multi-step dual learn-ing can boost the performance of standard dual learning under mild conditions. Experiments on WMT 14 English$\leftrightarrow$German and MultiUNEnglish$\leftrightarrow$French translations verify our theoretical findings on dual learning, and the results on the translations among English, French, and Spanish of MultiUN demonstrate the effectiveness of multi-step dual learning.
翻訳日:2022-12-02 05:08:09 公開日:2020-05-17
# 幾何学的パターン認識のための高次元畳み込みネットワーク

High-dimensional Convolutional Networks for Geometric Pattern Recognition ( http://arxiv.org/abs/2005.08144v1 )

ライセンス: Link先を確認
Christopher Choy, Junha Lee, Rene Ranftl, Jaesik Park, Vladlen Koltun(参考訳) 科学や工学における多くの問題は、高次元空間における幾何学的パターンによって定式化することができる。 本稿では,幾何学的登録の文脈で発生するパターン認識問題に対して,高次元畳み込みネットワーク(convnets)を提案する。 まず,32次元の高次元空間における線形部分空間の検出における畳み込みネットワークの有効性について検討した。 次に,剛体運動と画像対応推定の下での3次元登録に高次元convnetを適用する。 実験の結果、我々の高次元ConvNetsは、グローバルプール演算子に基づくディープネットワークに依存する従来のアプローチよりも優れていた。

Many problems in science and engineering can be formulated in terms of geometric patterns in high-dimensional spaces. We present high-dimensional convolutional networks (ConvNets) for pattern recognition problems that arise in the context of geometric registration. We first study the effectiveness of convolutional networks in detecting linear subspaces in high-dimensional spaces with up to 32 dimensions: much higher dimensionality than prior applications of ConvNets. We then apply high-dimensional ConvNets to 3D registration under rigid motions and image correspondence estimation. Experiments indicate that our high-dimensional ConvNets outperform prior approaches that relied on deep networks based on global pooling operators.
翻訳日:2022-12-02 05:07:47 公開日:2020-05-17
# ソース構文のエンコーディング:ターゲット言語間のnmt表現の類似性

Encodings of Source Syntax: Similarities in NMT Representations Across Target Languages ( http://arxiv.org/abs/2005.08177v1 )

ライセンス: Link先を確認
Tyler A. Chang and Anna N. Rafferty(参考訳) 我々は、NMTエンコーダ表現を用いて、英語から6つのターゲット言語へのニューラルマシン翻訳(NMT)モデルを訓練し、ソース言語単語の祖先構成ラベルを予測する。 NMTエンコーダは,NMTのターゲット言語によらず,ソース文から構文的特徴を抽出するために,明示的な形態的手がかりに依存する。 さらに、NMTエンコーダは、いくつかの構成ラベル予測タスクで直接訓練されたRNNよりも優れており、構文を含む自然言語タスクに対して、NMTエンコーダ表現が効果的に使用できることを示唆している。 しかし、NMTエンコーダと直接学習されたRNNは、確率論的文脈自由文法(PCFG)パーサから実質的に異なる構文情報を学習する。 全体的な精度は低いが、PCFGはRNNベースのモデルでは不十分な文でよく機能し、RNNアーキテクチャは学習可能な構文の種類に制約されていることを示唆している。

We train neural machine translation (NMT) models from English to six target languages, using NMT encoder representations to predict ancestor constituent labels of source language words. We find that NMT encoders learn similar source syntax regardless of NMT target language, relying on explicit morphosyntactic cues to extract syntactic features from source sentences. Furthermore, the NMT encoders outperform RNNs trained directly on several of the constituent label prediction tasks, suggesting that NMT encoder representations can be used effectively for natural language tasks involving syntax. However, both the NMT encoders and the directly-trained RNNs learn substantially different syntactic information from a probabilistic context-free grammar (PCFG) parser. Despite lower overall accuracy scores, the PCFG often performs well on sentences for which the RNN-based models perform poorly, suggesting that RNN architectures are constrained in the types of syntax they can learn.
翻訳日:2022-12-02 05:06:47 公開日:2020-05-17
# TaBERT: テキストとタブラリデータの共同理解のための事前学習

TaBERT: Pretraining for Joint Understanding of Textual and Tabular Data ( http://arxiv.org/abs/2005.08314v1 )

ライセンス: Link先を確認
Pengcheng Yin, Graham Neubig, Wen-tau Yih, Sebastian Riedel(参考訳) 近年、テキストベース自然言語(nl)理解タスクのための事前学習言語モデル(lms)が急成長している。 このようなモデルは典型的には自由形式のNLテキストで訓練されるため、構造化されたデータに対する意味解析のようなタスクには適さないかもしれない。 本稿では,NL文と半構造化表の表現を共同で学習する事前学習型LMであるTaBERTを提案する。 TaBERTは、600万のテーブルとその英語コンテキストからなる大規模なコーパスで訓練されている。 実験では、TaBERTを特徴表現層として使用するニューラルセマンティックパーサは、テキストからSQLへのデータセットSpiderで競合しながら、弱い教師付きセマンティックパーシングベンチマークであるWikiTableQuestionsにおいて、新たなベストプラクティスを達成する。 モデルの実装はhttp://fburl.com/TaBERT で公開される。

Recent years have witnessed the burgeoning of pretrained language models (LMs) for text-based natural language (NL) understanding tasks. Such models are typically trained on free-form NL text, hence may not be suitable for tasks like semantic parsing over structured data, which require reasoning over both free-form NL questions and structured tabular data (e.g., database tables). In this paper we present TaBERT, a pretrained LM that jointly learns representations for NL sentences and (semi-)structured tables. TaBERT is trained on a large corpus of 26 million tables and their English contexts. In experiments, neural semantic parsers using TaBERT as feature representation layers achieve new best results on the challenging weakly-supervised semantic parsing benchmark WikiTableQuestions, while performing competitively on the text-to-SQL dataset Spider. Implementation of the model will be available at http://fburl.com/TaBERT .
翻訳日:2022-12-02 05:06:30 公開日:2020-05-17
# ストリーム推論のための固定点意味論

Fixed Point Semantics for Stream Reasoning ( http://arxiv.org/abs/2005.08384v1 )

ライセンス: Link先を確認
Christian Anti\'c(参考訳) 入力データのストリームに対する推論は、人間の知性の重要な部分である。 過去10年間に、ストリーム推論はAIコミュニティ内の研究領域として現れ、多くの潜在的な応用が期待されている。 実際、GoogleやFacebookなどのサービスによるストリーミングデータの可用性の向上は、高速に変化するデータに対処する推論エンジンの必要性を高めている。 近年,解集合意味論に基づく非単調ストリーム推論の規則に基づく形式化が提案されている。 構文的には、LARSプログラムは時間的推論に演算子を組み込んだ論理プログラムであり、特に関連する時間点を選択するためのウィンドウ演算子である。 残念ながら、プログラムの意味的評価のために"em fixed"間隔を事前に選択することで、larsプログラムの厳格な意味論は、急速に変化するデータ依存に対処するのに十分柔軟ではない。 さらに、FLPレダクトの観点からLARSの解集合意味論を定義することは、他のASP拡張と同様に望ましくない円形の正当化をもたらすことを示す。 本稿では、上記LARSの欠点を全て解決する。 より正確には、完全に柔軟なlarsの変形に対して操作可能な不動点セマンティクスを提供することで、ストリーム推論の基礎に貢献し、我々のセマンティクスは、答え集合が導出可能なボトムアップであり、円状正当化がないという意味で健全で構成的であることを示します。

Reasoning over streams of input data is an essential part of human intelligence. During the last decade {\em stream reasoning} has emerged as a research area within the AI-community with many potential applications. In fact, the increased availability of streaming data via services like Google and Facebook has raised the need for reasoning engines coping with data that changes at high rate. Recently, the rule-based formalism {\em LARS} for non-monotonic stream reasoning under the answer set semantics has been introduced. Syntactically, LARS programs are logic programs with negation incorporating operators for temporal reasoning, most notably {\em window operators} for selecting relevant time points. Unfortunately, by preselecting {\em fixed} intervals for the semantic evaluation of programs, the rigid semantics of LARS programs is not flexible enough to {\em constructively} cope with rapidly changing data dependencies. Moreover, we show that defining the answer set semantics of LARS in terms of FLP reducts leads to undesirable circular justifications similar to other ASP extensions. This paper fixes all of the aforementioned shortcomings of LARS. More precisely, we contribute to the foundations of stream reasoning by providing an operational fixed point semantics for a fully flexible variant of LARS and we show that our semantics is sound and constructive in the sense that answer sets are derivable bottom-up and free of circular justifications.
翻訳日:2022-12-02 05:06:13 公開日:2020-05-17