このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210307となっている論文です。

PDF登録状況(公開日: 20210307)

TitleAuthorsAbstract論文公表日・翻訳日
# 連続遷移:ミックスアップによる連続制御問題に対するサンプル効率の改善

Continuous Transition: Improving Sample Efficiency for Continuous Control Problems via MixUp ( http://arxiv.org/abs/2011.14487v2 )

ライセンス: Link先を確認
Junfan Lin, Zhongzhan Huang, Keze Wang, Xiaodan Liang, Weiwei Chen, and Liang Lin(参考訳) 深部強化学習(RL)は様々なロボット制御タスクにうまく適用されているが、サンプル効率の低さから現実のタスクに応用することは依然として困難である。 この欠点を克服しようと、いくつかの研究は、訓練中に収集された軌跡データを政策に関係のない離散的な遷移に分解することで再利用することに焦点を当てた。 しかし、その改善は (i) 遷移の量は通常小さく、 (i) 値の割り当ては結合状態でのみ発生するため、多少限界がある。 これらの問題に対処するため,本論文では,経路に沿った潜在的な遷移を利用して軌道情報を利用する連続遷移を構築するための簡潔かつ強力な手法を提案する。 具体的には,連続的な遷移を線形補間することにより,学習のための新しい遷移を合成する。 構築された遷移を本物に保つために、我々は、自動的に構築プロセスを導く識別器も開発する。 提案手法は, MuJoCo の複雑な連続ロボット制御問題に対して, サンプル効率を大幅に向上し, モデルベース/モデルフリー RL 法より優れていることを示す。 ソースコードは利用可能である。

Although deep reinforcement learning (RL) has been successfully applied to a variety of robotic control tasks, it's still challenging to apply it to real-world tasks, due to the poor sample efficiency. Attempting to overcome this shortcoming, several works focus on reusing the collected trajectory data during the training by decomposing them into a set of policy-irrelevant discrete transitions. However, their improvements are somewhat marginal since i) the amount of the transitions is usually small, and ii) the value assignment only happens in the joint states. To address these issues, this paper introduces a concise yet powerful method to construct Continuous Transition, which exploits the trajectory information by exploiting the potential transitions along the trajectory. Specifically, we propose to synthesize new transitions for training by linearly interpolating the consecutive transitions. To keep the constructed transitions authentic, we also develop a discriminator to guide the construction process automatically. Extensive experiments demonstrate that our proposed method achieves a significant improvement in sample efficiency on various complex continuous robotic control problems in MuJoCo and outperforms the advanced model-based / model-free RL methods. The source code is available.
翻訳日:2021-06-06 14:39:15 公開日:2021-03-07
# オブジェクト認識のための解釈可能なグラフカプセルネットワーク

Interpretable Graph Capsule Networks for Object Recognition ( http://arxiv.org/abs/2012.01674v3 )

ライセンス: Link先を確認
Jindong Gu and Volker Tresp(参考訳) Convolutional Neural Networksに代わるCapsule Networksは、画像からオブジェクトを認識するために提案されている。 現在の文献は、CNNに対するCapsNetsの多くの利点を示している。 しかし,capsnetsの個別分類についての説明は十分に検討されていない。 主にcnnに基づく分類を説明するために広く用いられ、活性化値と対応する勾配(例えばgrad-cam)を組み合わせることで塩分マップを説明する。 これらのsaliencyメソッドは、下位の分類器の特定のアーキテクチャを必要とし、繰り返しルーティング機構のため、capsnetsに自明に適用できない。 解釈可能性の欠如を克服するために、CapsNetsの新しいポストホック解釈手法を提案するか、ビルトインの説明を持つようにモデルを変更できる。 本研究では後者について検討する。 具体的には,多面的注意に基づくグラフプーリングアプローチでルーティング部を置き換える,解釈可能なグラフカプセルネットワーク(gracapsnets)を提案する。 提案モデルでは,個々の分類説明を効果的かつ効率的に作成することができる。 当社のモデルは,CapsNetsの基本部分を置き換えたとしても,予期せぬメリットも示しています。 gracapsnetsは、capsnetsと比較して、パラメータが少なく、敵のロバスト性も向上しています。 さらに、gracapsnetsはcapsnetsの他の利点、すなわち不等角表現とアフィン変換のロバスト性も持っている。

Capsule Networks, as alternatives to Convolutional Neural Networks, have been proposed to recognize objects from images. The current literature demonstrates many advantages of CapsNets over CNNs. However, how to create explanations for individual classifications of CapsNets has not been well explored. The widely used saliency methods are mainly proposed for explaining CNN-based classifications; they create saliency map explanations by combining activation values and the corresponding gradients, e.g., Grad-CAM. These saliency methods require a specific architecture of the underlying classifiers and cannot be trivially applied to CapsNets due to the iterative routing mechanism therein. To overcome the lack of interpretability, we can either propose new post-hoc interpretation methods for CapsNets or modifying the model to have build-in explanations. In this work, we explore the latter. Specifically, we propose interpretable Graph Capsule Networks (GraCapsNets), where we replace the routing part with a multi-head attention-based Graph Pooling approach. In the proposed model, individual classification explanations can be created effectively and efficiently. Our model also demonstrates some unexpected benefits, even though it replaces the fundamental part of CapsNets. Our GraCapsNets achieve better classification performance with fewer parameters and better adversarial robustness, when compared to CapsNets. Besides, GraCapsNets also keep other advantages of CapsNets, namely, disentangled representations and affine transformation robustness.
翻訳日:2021-05-23 14:57:28 公開日:2021-03-07
# 学習画像圧縮の従来型コーデックへの転送可能性の活用法

How to Exploit the Transferability of Learned Image Compression to Conventional Codecs ( http://arxiv.org/abs/2012.01874v2 )

ライセンス: Link先を確認
Jan P. Klopp, Keng-Chi Liu, Liang-Gee Chen, Shao-Yi Chien(参考訳) 損失画像圧縮は、選択された損失測度の単純さによってしばしば制限される。 近年の研究では、生成的敵ネットワークは、この制限を克服し、特にテクスチャにおいてマルチモーダル損失として機能する能力を持っていることが示唆されている。 学習した画像圧縮とともに、この2つのテクニックは、一般的に使われる歪みの厳密な尺度を緩和する際に大きな効果を発揮する。 しかし、畳み込みニューラルネットワークに基づくアルゴリズムは計算フットプリントが大きい。 理想的には、既存のコーデックはそのままであり、より高速な採用とバランスの取れた計算エンベロープへの付着を保証する。 本研究は,この目標への道筋として,学習した画像の符号化を代用して,画像の符号化を最適化する手法を提案する。 画像は学習したフィルタによって変更され、異なるパフォーマンス指標や特定のタスクに最適化される。 このアイデアを生成的敵ネットワークで拡張すると、テクスチャ全体がエンコードするコストが低く、詳細さを保っているものに置き換えられることを示す。 提案手法は,従来のコーデックを改造して,デコードオーバーヘッドを必要とせず,20%以上のレート改善でms-ssim歪みを調整できる。 タスク認識画像圧縮では、類似するがコーデック特有のアプローチに対して好適に実行する。

Lossy image compression is often limited by the simplicity of the chosen loss measure. Recent research suggests that generative adversarial networks have the ability to overcome this limitation and serve as a multi-modal loss, especially for textures. Together with learned image compression, these two techniques can be used to great effect when relaxing the commonly employed tight measures of distortion. However, convolutional neural network based algorithms have a large computational footprint. Ideally, an existing conventional codec should stay in place, which would ensure faster adoption and adhering to a balanced computational envelope. As a possible avenue to this goal, in this work, we propose and investigate how learned image coding can be used as a surrogate to optimize an image for encoding. The image is altered by a learned filter to optimise for a different performance measure or a particular task. Extending this idea with a generative adversarial network, we show how entire textures are replaced by ones that are less costly to encode but preserve sense of detail. Our approach can remodel a conventional codec to adjust for the MS-SSIM distortion with over 20% rate improvement without any decoding overhead. On task-aware image compression, we perform favourably against a similar but codec-specific approach.
翻訳日:2021-05-23 14:44:20 公開日:2021-03-07
# (参考訳) CTR予測における細粒度特徴学習のためのマルチインタラクティブ注意ネットワーク

Multi-Interactive Attention Network for Fine-grained Feature Learning in CTR Prediction ( http://arxiv.org/abs/2012.06968v2 )

ライセンス: CC BY 4.0
Kai Zhang, Hao Qian, Qing Cui, Qi Liu, Longfei Li, Jun Zhou, Jianhui Ma, Enhong Chen(参考訳) クリックスルー率(ctr)予測シナリオでは、ユーザのシーケンシャルな動作を利用して、最近の文献に対するユーザの興味を捉えている。 しかし、広く研究されているにもかかわらず、これらのシーケンシャルな方法には3つの制限がある。 まず,CTRの予測に必ずしも適さないユーザの行動に注意を払っている。なぜなら,ユーザーは過去の行動とは無関係な新製品をクリックすることが多いからだ。 第二に、現実のシナリオでは、昔から多くのユーザが存在しますが、近年では比較的アクティブではありません。 したがって、初期の動作でユーザの現在の好みを正確に把握することは困難である。 第3に、異なる特徴部分空間におけるユーザの歴史的行動の複数の表現は無視される。 これらの問題を解消するために,様々なきめ細かい特徴(例えば,性別,年齢,職業など)の潜伏関係を包括的に抽出するMulti-Interactive Attention Network (MIAN)を提案する。 具体的には、MIL(Multi-Interactiv e Layer)を3つのローカルなインタラクションモジュールに統合し、シーケンシャルな振る舞いを通じてユーザ好みの複数の表現をキャプチャし、きめ細かいユーザ固有の情報とコンテキスト情報を同時に利用する。 さらに、高次相互作用を学習し、複数の特徴の異なる影響のバランスをとるために、Global Interaction Module (GIM) を設計する。 最後に、Offline実験は、大規模レコメンデーションシステムにおけるオンラインA/Bテストとともに、3つのデータセットから行われ、提案手法の有効性を実証した。

In the Click-Through Rate (CTR) prediction scenario, user's sequential behaviors are well utilized to capture the user interest in the recent literature. However, despite being extensively studied, these sequential methods still suffer from three limitations. First, existing methods mostly utilize attention on the behavior of users, which is not always suitable for CTR prediction, because users often click on new products that are irrelevant to any historical behaviors. Second, in the real scenario, there exist numerous users that have operations a long time ago, but turn relatively inactive in recent times. Thus, it is hard to precisely capture user's current preferences through early behaviors. Third, multiple representations of user's historical behaviors in different feature subspaces are largely ignored. To remedy these issues, we propose a Multi-Interactive Attention Network (MIAN) to comprehensively extract the latent relationship among all kinds of fine-grained features (e.g., gender, age and occupation in user-profile). Specifically, MIAN contains a Multi-Interactive Layer (MIL) that integrates three local interaction modules to capture multiple representations of user preference through sequential behaviors and simultaneously utilize the fine-grained user-specific as well as context information. In addition, we design a Global Interaction Module (GIM) to learn the high-order interactions and balance the different impacts of multiple features. Finally, Offline experiment results from three datasets, together with an Online A/B test in a large-scale recommendation system, demonstrate the effectiveness of our proposed approach.
翻訳日:2021-05-09 19:42:47 公開日:2021-03-07
# リアルタイムユーザクリックによる画像マッチングの改善と不確かさ推定

Improved Image Matting via Real-time User Clicks and Uncertainty Estimation ( http://arxiv.org/abs/2012.08323v2 )

ライセンス: Link先を確認
Tianyi Wei, Dongdong Chen, Wenbo Zhou, Jing Liao, Hanqing Zhao, Weiming Zhang, Nenghai Yu(参考訳) 画像マッチングはコンピュータビジョンとグラフィックスの基本的な問題である。 既存の畳み込み方式の多くは、優れたアルファマットを生成する補助入力として、ユーザ供給のトリマップを利用する。 しかし、高品質な trimap 自体を得ることは困難であり、これらの手法の適用を制限している。 最近、いくつかのtrimap-freeメソッドが登場しているが、マットングの品質はtrimap-basedメソッドよりはるかに遅れている。 主な理由は、トリマップガイダンスがなければ、ターゲットネットワークがフォアグラウンドターゲットについてあいまいである場合もあります。 実際、前景を選択することは主観的な手続きであり、ユーザの意図に依存する。 そこで本稿では,3マップフリーでユーザクリック操作を数回しか必要とせず,あいまいさを解消できるディープイメージマットリングフレームワークを提案する。 さらに,どの部品に研磨が必要なのかを予測できる新しい不確実性推定モジュールと,後続の局所改質モジュールを導入する。 計算予算に基づいて、不確実性ガイダンスで改善するローカル部品の数を選択できる。 定量的・定性的な結果から,提案手法は既存のtrimapフリーメソッドよりも優れた性能を示し,ユーザによる最小限の労力で,最先端のtrimapベースメソッドと比較できることがわかった。

Image matting is a fundamental and challenging problem in computer vision and graphics. Most existing matting methods leverage a user-supplied trimap as an auxiliary input to produce good alpha matte. However, obtaining high-quality trimap itself is arduous, thus restricting the application of these methods. Recently, some trimap-free methods have emerged, however, the matting quality is still far behind the trimap-based methods. The main reason is that, without the trimap guidance in some cases, the target network is ambiguous about which is the foreground target. In fact, choosing the foreground is a subjective procedure and depends on the user's intention. To this end, this paper proposes an improved deep image matting framework which is trimap-free and only needs several user click interactions to eliminate the ambiguity. Moreover, we introduce a new uncertainty estimation module that can predict which parts need polishing and a following local refinement module. Based on the computation budget, users can choose how many local parts to improve with the uncertainty guidance. Quantitative and qualitative results show that our method performs better than existing trimap-free methods and comparably to state-of-the-art trimap-based methods with minimal user effort.
翻訳日:2021-05-07 05:21:17 公開日:2021-03-07
# モバイルデバイス上でリアルタイムLiDAR 3Dオブジェクト検出を実現する

Achieving Real-Time LiDAR 3D Object Detection on a Mobile Device ( http://arxiv.org/abs/2012.13801v2 )

ライセンス: Link先を確認
Pu Zhao, Wei Niu, Geng Yuan, Yuxuan Cai, Hsin-Hsuan Sung, Sijia Liu, Xipeng Shen, Bin Ren, Yanzhi Wang, Xue Lin(参考訳) 3Dオブジェクト検出は特に自律運転アプリケーション領域において重要なタスクである。 しかし、自動運転車のエッジコンピューティングデバイス上での計算とメモリリソースの制限により、リアルタイムパフォーマンスをサポートすることは困難である。 そこで本研究では,ネットワークの強化と強化学習手法による探索を取り入れたコンパイラ対応統合フレームワークを提案し,資源限定エッジコンピューティングデバイス上での3Dオブジェクト検出のリアルタイム推論を実現する。 具体的には,リカレントニューラルネットワーク(RNN)を用いて,人的知識や支援を伴わずに,ネットワークの強化とプルーニングの両方を自動で行う統一的なスキームを提供する。 また、統一スキームの評価性能は、ジェネレータRNNを訓練するためにフィードバックすることができる。 実験の結果,提案フレームワークはモバイル端末(Samsung Galaxy S20)におけるリアルタイム3Dオブジェクト検出を競合検出性能で実現していることがわかった。

3D object detection is an important task, especially in the autonomous driving application domain. However, it is challenging to support the real-time performance with the limited computation and memory resources on edge-computing devices in self-driving cars. To achieve this, we propose a compiler-aware unified framework incorporating network enhancement and pruning search with the reinforcement learning techniques, to enable real-time inference of 3D object detection on the resource-limited edge-computing devices. Specifically, a generator Recurrent Neural Network (RNN) is employed to provide the unified scheme for both network enhancement and pruning search automatically, without human expertise and assistance. And the evaluated performance of the unified schemes can be fed back to train the generator RNN. The experimental results demonstrate that the proposed framework firstly achieves real-time 3D object detection on mobile devices (Samsung Galaxy S20 phone) with competitive detection performance.
翻訳日:2021-04-25 01:14:23 公開日:2021-03-07
# (参考訳) マルチエージェント強化学習を用いたOFDMAダウンリンクシステムにおけるバースティトラフィックの公正指向スケジューリング [全文訳有]

Fairness-Oriented Scheduling for Bursty Traffic in OFDMA Downlink Systems Using Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2012.15081v8 )

ライセンス: CC BY 4.0
Mingqi Yuan, Qi Cao, Man-on Pun, Yi Chen(参考訳) ユーザスケジューリングは、無線通信における古典的な問題であり、鍵となる技術である。 基地局には、PF(Proportional Fairness)やRRF(Robin Fashion)など、多くの高度なスケジューラが展開されている。 オポチュニティ(OP)スケジューリングは、完全なバッファトラフィックを考慮した平均ユーザデータレート(AUDR)を最大化する最適なスケジューラであることが知られている。 しかし、最高公平性を達成するための最適な戦略は、フルバッファトラフィックとバーストトラフィックの両方において、いまだに不明である。 本研究では,特にRBG割り当てにおける公平性を考慮したユーザスケジューリングの問題について検討する。 本稿では,マルチエージェント強化学習(marl)を用いて,通信システムの公平性を最大化する分散最適化を行うユーザスケジューラを構築する。 エージェントは層間情報(例)を取る。 状態として RSRP, Buffer サイズ) と状態として RBG を割り当て、フェアネスを最大化するように設計された報酬関数に従って最適解を探索する。 さらに、5%タイルのユーザデータレート(5TUDR)をキーパフォーマンス指標(KPI)として、PFスケジューリングとRFスケジューリングとMARLスケジューリングの性能を比較する。 シミュレーションの結果,提案したMARLスケジューリングは従来のスケジューラよりも優れていた。

User scheduling is a classical problem and key technology in wireless communication, which will still plays an important role in the prospective 6G. There are many sophisticated schedulers that are widely deployed in the base stations, such as Proportional Fairness (PF) and Round-Robin Fashion (RRF). It is known that the Opportunistic (OP) scheduling is the optimal scheduler for maximizing the average user data rate (AUDR) considering the full buffer traffic. But the optimal strategy achieving the highest fairness still remains largely unknown both in the full buffer traffic and the bursty traffic. In this work, we investigate the problem of fairness-oriented user scheduling, especially for the RBG allocation. We build a user scheduler using Multi-Agent Reinforcement Learning (MARL), which conducts distributional optimization to maximize the fairness of the communication system. The agents take the cross-layer information (e.g. RSRP, Buffer size) as state and the RBG allocation result as action, then explore the optimal solution following a well-defined reward function designed for maximizing fairness. Furthermore, we take the 5%-tile user data rate (5TUDR) as the key performance indicator (KPI) of fairness, and compare the performance of MARL scheduling with PF scheduling and RRF scheduling by conducting extensive simulations. And the simulation results show that the proposed MARL scheduling outperforms the traditional schedulers.
翻訳日:2021-04-18 15:50:37 公開日:2021-03-07
# AraELECTRA:アラビア語理解のための事前学習テキスト識別装置

AraELECTRA: Pre-Training Text Discriminators for Arabic Language Understanding ( http://arxiv.org/abs/2012.15516v2 )

ライセンス: Link先を確認
Wissam Antoun, Fady Baly, Hazem Hajj(参考訳) 英語表現の進歩により、トークン置換を正確に分類するエンコーダ(ELECTRA)を効果的に学習することで、よりサンプル効率のよい事前学習タスクが実現された。 これは、マスクされたトークンを復元するモデルをトレーニングする代わりに、ジェネレータネットワークに置き換えられた破損したトークンと真の入力トークンを区別するために識別器モデルを訓練する。 一方、現在のアラビア語表現アプローチは、マスク言語モデリングによる事前学習のみに依存している。 本稿では,アラエレクトラ(araelectra)というアラビア語表現モデルを開発した。 我々のモデルは、大きなアラビア文字コーパス上の代用トークン検出目標を用いて事前訓練されている。 我々は,複数のアラビア語nlpタスクにおいて,読み理解,感情分析,名前付きエンティティ認識を含むモデルを評価し,同じ事前学習データとより小さいモデルサイズでアラエレクトラが現在のアラビア語表現モデルよりも優れていることを示す。

Advances in English language representation enabled a more sample-efficient pre-training task by Efficiently Learning an Encoder that Classifies Token Replacements Accurately (ELECTRA). Which, instead of training a model to recover masked tokens, it trains a discriminator model to distinguish true input tokens from corrupted tokens that were replaced by a generator network. On the other hand, current Arabic language representation approaches rely only on pretraining via masked language modeling. In this paper, we develop an Arabic language representation model, which we name AraELECTRA. Our model is pretrained using the replaced token detection objective on large Arabic text corpora. We evaluate our model on multiple Arabic NLP tasks, including reading comprehension, sentiment analysis, and named-entity recognition and we show that AraELECTRA outperforms current state-of-the-art Arabic language representation models, given the same pretraining data and with even a smaller model size.
翻訳日:2021-04-17 17:16:21 公開日:2021-03-07
# aragpt2:アラビア語生成のための事前学習トランスフォーマー

AraGPT2: Pre-Trained Transformer for Arabic Language Generation ( http://arxiv.org/abs/2012.15520v2 )

ライセンス: Link先を確認
Wissam Antoun, Fady Baly, Hazem Hajj(参考訳) 近年、事前学習されたトランスフォーマーベースのアーキテクチャは、十分に大きなコーパスでトレーニングされているため、言語モデリングと理解において非常に効率的であることが証明されている。 アラビア語の言語生成の応用は、アラビア語の先進的な生成モデルが欠如していることから、他のNLPの進歩と比べてもまだ遅れている。 本稿では,インターネットテキストとニュース記事の巨大なアラビア語コーパスをスクラッチから学習した,最初の高度なアラビア語言語生成モデルであるalgpt2を開発した。 私たちの最大のモデルであるAraGPT2-megaは46億のパラメータを持ち、アラビア語のモデルとしては最大です。 megaモデルは評価され、合成ニュース生成やゼロショット質問応答など、さまざまなタスクで成功を収めた。 テキスト生成では、wikipediaの記事に29.8のパープレキシティを達成する。 AraGPT2-megaは,人間による記事と区別が難しいニュース記事の生成において,有意な成功を収めた。 そこで我々は,モデル生成テキストの検出精度98%の精度で自動判別モデルを開発した。 これらのモデルは、アラビア語のNLPのための新しい研究の方向性と応用を促進することを願っている。

Recently, pre-trained transformer-based architectures have proven to be very efficient at language modeling and understanding, given that they are trained on a large enough corpus. Applications in language generation for Arabic are still lagging in comparison to other NLP advances primarily due to the lack of advanced Arabic language generation models. In this paper, we develop the first advanced Arabic language generation model, AraGPT2, trained from scratch on a large Arabic corpus of internet text and news articles. Our largest model, AraGPT2-mega, has 1.46 billion parameters, which makes it the largest Arabic language model available. The Mega model was evaluated and showed success on different tasks including synthetic news generation, and zero-shot question answering. For text generation, our best model achieves a perplexity of 29.8 on held-out Wikipedia articles. A study conducted with human evaluators showed the significant success of AraGPT2-mega in generating news articles that are difficult to distinguish from articles written by humans. We thus develop and release an automatic discriminator model with a 98% percent accuracy in detecting model-generated text. The models are also publicly available, hoping to encourage new research directions and applications for Arabic NLP.
翻訳日:2021-04-17 17:16:05 公開日:2021-03-07
# 時間的点過程を用いた長地平線予測

Long Horizon Forecasting With Temporal Point Processes ( http://arxiv.org/abs/2101.02815v2 )

ライセンス: Link先を確認
Prathamesh Deshpande, Kamlesh Marathe, Abir De, Sunita Sarawagi(参考訳) 近年,多種多様なアプリケーションにおいて,非同期イベントを特徴付ける強力なモデリング機構として,MTPP( marked temporal point process)が出現している。 mtppsは、イベントの予測、特に近い将来のイベントの予測において大きな可能性を実証している。 しかし、現在の設計選択のため、MTPPは遠い未来のイベントの到着を予測する際の予測性能が低いことがしばしばある。 本報告では,この制限を緩和するために,特に長い地平線イベント予測に適したDualTPPを設計する。 DualTPPには2つのコンポーネントがある。 第1のコンポーネントは強度のないMTPPモデルであり、将来のイベントの時刻をモデル化することで、イベントダイナミクスの微視的または粒度の信号をキャプチャする。 第2のコンポーネントは、与えられた時間ウィンドウ内のイベントの集約数をモデル化する異なる双対的な視点を取り、マクロなイベントダイナミクスをカプセル化する。 そこで我々は,制約付き二次最適化問題の列を解いて,長方形事象を効率的に予測するための2つのモデル % 上で協調して新しい推論フレームワークを開発した。 様々な実際のデータセットを用いた実験により、DualTPPは、長い地平線予測において既存のMTPP法よりも優れた性能を示し、実際の事象と予測の間のワッサーシュタイン距離の約1桁の縮小を実現している。

In recent years, marked temporal point processes (MTPPs) have emerged as a powerful modeling machinery to characterize asynchronous events in a wide variety of applications. MTPPs have demonstrated significant potential in predicting event-timings, especially for events arriving in near future. However, due to current design choices, MTPPs often show poor predictive performance at forecasting event arrivals in distant future. To ameliorate this limitation, in this paper, we design DualTPP which is specifically well-suited to long horizon event forecasting. DualTPP has two components. The first component is an intensity free MTPP model, which captures microscopic or granular level signals of the event dynamics by modeling the time of future events. The second component takes a different dual perspective of modeling aggregated counts of events in a given time-window, thus encapsulating macroscopic event dynamics. Then we develop a novel inference framework jointly over the two models % for efficiently forecasting long horizon events by solving a sequence of constrained quadratic optimization problems. Experiments with a diverse set of real datasets show that DualTPP outperforms existing MTPP methods on long horizon forecasting by substantial margins, achieving almost an order of magnitude reduction in Wasserstein distance between actual events and forecasts.
翻訳日:2021-04-10 05:05:46 公開日:2021-03-07
# (参考訳) アンサンブル学習について [全文訳有]

On Ensemble Learning ( http://arxiv.org/abs/2103.12521v1 )

ライセンス: CC BY 4.0
Mark Stamp and Aniket Chandak and Gavin Wong and Allen Ye(参考訳) 本稿では,アンサンブル分類器,すなわち,スコアリング関数の組み合わせを利用した機械学習に基づく分類器について考察する。 このような分類を分類するためのフレームワークを提供し、また、それぞれのフレームワークがどのように適合するかを議論するいくつかのアンサンブルテクニックを概説する。 この一般的な紹介から,マルウェア分析の文脈におけるアンサンブル学習の話題に方向転換する。 本稿では,マルウェア(および関連する)研究で使用されているアンサンブル技術について簡単な調査を行う。 最後に,大規模かつ課題の多いマルウェアデータセットにアンサンブル手法を適用する実験を行った。 これらのアンサンブル技術の多くはマルウェアの文献に現れるが、これまでは、異なるデータセットや異なる成功度合いが一般的に使用されるため、このような結果を直接比較する方法がなかった。 私たちの共通フレームワークと経験的成果は、アンサンブル学習の分野において、マルウェア分析の問題の狭い領域と、マシンラーニング全般の領域の両方において、ある秩序感をもたらすための努力です。

In this paper, we consider ensemble classifiers, that is, machine learning based classifiers that utilize a combination of scoring functions. We provide a framework for categorizing such classifiers, and we outline several ensemble techniques, discussing how each fits into our framework. From this general introduction, we then pivot to the topic of ensemble learning within the context of malware analysis. We present a brief survey of some of the ensemble techniques that have been used in malware (and related) research. We conclude with an extensive set of experiments, where we apply ensemble techniques to a large and challenging malware dataset. While many of these ensemble techniques have appeared in the malware literature, previously there has been no way to directly compare results such as these, as different datasets and different measures of success are typically used. Our common framework and empirical results are an effort to bring some sense of order to the chaos that is evident in the evolving field of ensemble learning -- both within the narrow confines of the malware analysis problem, and in the larger realm of machine learning in general.
翻訳日:2021-04-05 05:22:14 公開日:2021-03-07
# (参考訳) ワイボーにおけるトロール検出の感度解析 [全文訳有]

Sentiment Analysis for Troll Detection on Weibo ( http://arxiv.org/abs/2103.09054v1 )

ライセンス: CC BY 4.0
Zidong Jiang and Fabio Di Troia and Mark Stamp(参考訳) ソーシャルメディアが現代世界に与える影響を誇張することは難しい。 事実上、あらゆる企業や著名人がtwitterやfacebookなどの人気プラットフォーム上でソーシャルメディアアカウントを持っている。 中国では、マイクロブログサービスプロバイダであるsina weiboが最も人気のあるサービスである。 世論に影響を与えるため、Weibo Trolls(いわゆるWater Army)は偽りのコメントを投稿するために雇われる。 本稿では,Sina Weiboプラットフォーム上での感情分析およびその他のユーザ活動データを用いたトロル検出に焦点を当てた。 中国語文のセグメンテーション,単語埋め込み,感情スコア計算のための手法を実装した。 近年, トラル検出と感情分析が研究されているが, これまでのトロール検出を感情分析に基づいて検討した研究は知られていない。 我々は、様々な機械学習戦略に基づいて、トロール検出のための感情分析アプローチを開発し、テストするために、得られた技術を用いる。 実験結果が生成され分析される。 提案手法を実装したChromeエクステンションは,ユーザがSina Weiboを閲覧すると,リアルタイムのトロル検出を可能にする。

The impact of social media on the modern world is difficult to overstate. Virtually all companies and public figures have social media accounts on popular platforms such as Twitter and Facebook. In China, the micro-blogging service provider, Sina Weibo, is the most popular such service. To influence public opinion, Weibo trolls -- the so called Water Army -- can be hired to post deceptive comments. In this paper, we focus on troll detection via sentiment analysis and other user activity data on the Sina Weibo platform. We implement techniques for Chinese sentence segmentation, word embedding, and sentiment score calculation. In recent years, troll detection and sentiment analysis have been studied, but we are not aware of previous research that considers troll detection based on sentiment analysis. We employ the resulting techniques to develop and test a sentiment analysis approach for troll detection, based on a variety of machine learning strategies. Experimental results are generated and analyzed. A Chrome extension is presented that implements our proposed technique, which enables real-time troll detection when a user browses Sina Weibo.
翻訳日:2021-04-05 04:59:42 公開日:2021-03-07
# (参考訳) 脳波特徴を用いた抑うつ検出のためのアンサンブルアプローチ [全文訳有]

Ensemble approach for detection of depression using EEG features ( http://arxiv.org/abs/2103.08467v1 )

ライセンス: CC BY 4.0
Egils Avots, Kla\=vs Jermakovs, Maie Bachmann, Laura Paeske, Cagri Ozcinar, Gholamreza Anbarjafari(参考訳) うつ病は社会の健康に深刻な影響を与え、社会に悪影響を及ぼす公衆衛生問題である。 これらの問題に対する意識を高めるため,脳波信号からうつ病の長期持続効果を判定することを目的とした。 本稿では、線形(相対帯域パワー、APV、SASI)および非線形(HFD、LZC、DFA)EEG機能を用いて訓練されたSVM、LDA、NB、kNN、D3バイナリ分類器の精度比較を含む。 年齢と性別の一致したデータセットは、健常者10名、うつ病診断者10名で構成された。 提案する機能選択と分類の組み合わせのいくつかは90%の精度に達し、10倍のクロス検証を用いて評価したすべてのモデルが、ランダムなサンプル順列で100回以上繰り返した。

Depression is a public health issue which severely affects one's well being and cause negative social and economic effect for society. To rise awareness of these problems, this publication aims to determine if long lasting effects of depression can be determined from electoencephalograph ic (EEG) signals. The article contains accuracy comparison for SVM, LDA, NB, kNN and D3 binary classifiers which were trained using linear (relative band powers, APV, SASI) and non-linear (HFD, LZC, DFA) EEG features. The age and gender matched dataset consisted of 10 healthy subjects and 10 subjects with depression diagnosis at some point in their lifetime. Several of the proposed feature selection and classifier combinations reached accuracy of 90% where all models where evaluated using 10-fold cross validation and averaged over 100 repetitions with random sample permutations.
翻訳日:2021-04-05 04:46:44 公開日:2021-03-07
# ベイズ畳み込みニューラルネットワークを用いたグレース・グレイス・フォギャップにおける陸水貯留異常の予測の改善

Improving prediction of the terrestrial water storage anomalies during the GRACE and GRACE-FO gap with Bayesian convolutional neural networks ( http://arxiv.org/abs/2101.09361v2 )

ライセンス: Link先を確認
Shaoxing Mo, Yulong Zhong, Xiaoqing Shi, Wei Feng, Xin Yin, Jichun Wu(参考訳) 重力回復・気候実験(GRACE)衛星とその後継であるGRACE Follow-On(GRACE-FO)は、地球規模の地球規模の貯水異常(TWSA)の貴重な正確な観測を提供する。 しかし、GRACEとGRACE-FOの間には、TWSAsの約1年間の観測ギャップがある。 これは、twsa観測における不連続性が水文モデル予測に重大なバイアスと不確実性をもたらし、その結果、誤った意思決定をもたらす可能性があるため、実用的な応用にとっての課題となる。 この課題に対処するために、気候データによって駆動されるベイズ畳み込みニューラルネットワーク(BCNN)を提案し、このギャップを世界規模で橋渡しする。 注意機構や残差と密接性を含むディープラーニングの最近の進歩を統合することで、bcnnはマルチソース入力データからtwsa予測の重要な特徴を自動的かつ効率的に抽出することができる。 予測されたtwsaは、水文モデル出力および最近の3つのtwsa予測製品と比較される。 この比較は、比較的乾燥した地域でのギャップにおいて、TWSAの予測を改善するBCNNの優れた性能を示唆している。 さらに, 降水異常, 干ばつ指数, 地下水位を比較することにより, ギャップ期間中の極端に乾燥し, 湿潤な現象を識別するbcnnの能力はさらに議論され, 総合的に実証された。 BCNNは、TWSAデータの連続性を維持し、ギャップの間における気候極端の影響を定量化するための信頼性の高いソリューションを提供することができることを示している。

The Gravity Recovery and Climate Experiment (GRACE) satellite and its successor GRACE Follow-On (GRACE-FO) provide valuable and accurate observations of terrestrial water storage anomalies (TWSAs) at a global scale. However, there is an approximately one-year observation gap of TWSAs between GRACE and GRACE-FO. This poses a challenge for practical applications, as discontinuity in the TWSA observations may introduce significant biases and uncertainties in the hydrological model predictions and consequently mislead decision making. To tackle this challenge, a Bayesian convolutional neural network (BCNN) driven by climatic data is proposed in this study to bridge this gap at a global scale. Enhanced by integrating recent advances in deep learning, including the attention mechanisms and the residual and dense connections, BCNN can automatically and efficiently extract important features for TWSA predictions from multi-source input data. The predicted TWSAs are compared to the hydrological model outputs and three recent TWSA prediction products. The comparison suggests the superior performance of BCNN in providing improved predictions of TWSAs during the gap in particular in the relatively arid regions. The BCNN's ability to identify the extreme dry and wet events during the gap period is further discussed and comprehensively demonstrated by comparing with the precipitation anomalies, drought index, ground/surface water levels. Results indicate that BCNN is capable of offering a reliable solution to maintain the TWSA data continuity and quantify the impacts of climate extremes during the gap.
翻訳日:2021-03-21 07:46:58 公開日:2021-03-07
# 双方向GRUモデルを用いたアラビア語のアスペクトベース感情分析

Arabic aspect based sentiment analysis using bidirectional GRU based models ( http://arxiv.org/abs/2101.10539v3 )

ライセンス: Link先を確認
Mohammed M.Abdelgwad, Taysir Hassan A Soliman, Ahmed I.Taloba, Mohamed Fawzy Farghaly(参考訳) アスペクトベースの知覚分析(ABSA)は、与えられた文書や文の側面と各側面について伝達される感情を定義する、きめ細かい分析を行う。 このレベルの分析は、レビューの微妙な視点を探求できる最も詳細なバージョンである。 ABSAで利用可能な研究のほとんどは英語に焦点を当てており、アラビア語に関する研究はほとんどない。 アラビアにおけるこれまでのほとんどの研究は、主にレキシコンのようなアラビアのコンテンツを分析・処理するための希少なリソースとツールのグループに依存する機械学習の通常の方法に基づいているが、これらのリソースの欠如は別の課題を招いている。 これらの障害を克服するために,gru(gated recurrent unit)ニューラルネットワークを用いた2つのモデルを用いた深層学習法を提案する。 1つ目は、双方向のgrg、畳み込みニューラルネットワーク(cnn)、条件付き確率場(crf)の組み合わせによって単語と文字の両方の表現を利用するdlモデルであり、(bgru-cnn-crf)モデルを作成して主意見の側面(ote)を抽出する。 2つ目は、双方向GRU(IAN-BGRU)に基づく対話型アテンションネットワークで、抽出された側面に対する感情極性を特定する。 アラビアホテルレビューデータセットを用いて,本モデルの評価を行った。 提案手法は,評価対象抽出のためのF1スコアが38.5%,アスペクトベースの感情極性分類(T3)のための精度が7.5%,両タスクのベースライン研究よりも優れていることを示す。 F1得点はT2が69.44%、T3が83.98%である。

Aspect-based Sentiment analysis (ABSA) accomplishes a fine-grained analysis that defines the aspects of a given document or sentence and the sentiments conveyed regarding each aspect. This level of analysis is the most detailed version that is capable of exploring the nuanced viewpoints of the reviews. Most of the research available in ABSA focuses on English language with very few work available on Arabic. Most previous work in Arabic has been based on regular methods of machine learning that mainly depends on a group of rare resources and tools for analyzing and processing Arabic content such as lexicons, but the lack of those resources presents another challenge. To overcome these obstacles, Deep Learning (DL)-based methods are proposed using two models based on Gated Recurrent Units (GRU) neural networks for ABSA. The first one is a DL model that takes advantage of the representations on both words and characters via the combination of bidirectional GRU, Convolutional neural network (CNN), and Conditional Random Field (CRF) which makes up (BGRU-CNN-CRF) model to extract the main opinionated aspects (OTE). The second is an interactive attention network based on bidirectional GRU (IAN-BGRU) to identify sentiment polarity toward extracted aspects. We evaluated our models using the benchmarked Arabic hotel reviews dataset. The results indicate that the proposed methods are better than baseline research on both tasks having 38.5% enhancement in F1-score for opinion target extraction (T2) and 7.5% in accuracy for aspect-based sentiment polarity classification (T3). Obtaining F1 score of 69.44% for T2, and accuracy of 83.98% for T3.
翻訳日:2021-03-19 10:47:20 公開日:2021-03-07
# (参考訳) マルウェア進化検出のための単語埋め込み技術 [全文訳有]

Word Embedding Techniques for Malware Evolution Detection ( http://arxiv.org/abs/2103.05759v1 )

ライセンス: CC BY 4.0
Sunhera Paul and Mark Stamp(参考訳) マルウェア検出は情報セキュリティの重要な側面である。 問題のひとつは、マルウェアが時間とともに進化することです。 効果的なマルウェア検出を維持するためには,マルウェアの進化がいつ発生したのかを判断し,適切な対策を講じる必要がある。 マルウェアファミリーが進化した可能性が高い時期のポイントを検出するための様々な実験を行い、進化が実際に発生したことを確認するための二次テストを検討します。 いくつかのマルウェアファミリーが分析され、それぞれが長期間にわたって収集された多数のサンプルを含んでいる。 実験は, 単語埋め込み技術に基づく機能工学を用いて, 改良結果を得たことを示す。 すべての実験は機械学習モデルに基づいており、進化検出戦略は人間の介入を最小限に抑え、簡単に自動化できる。

Malware detection is a critical aspect of information security. One difficulty that arises is that malware often evolves over time. To maintain effective malware detection, it is necessary to determine when malware evolution has occurred so that appropriate countermeasures can be taken. We perform a variety of experiments aimed at detecting points in time where a malware family has likely evolved, and we consider secondary tests designed to confirm that evolution has actually occurred. Several malware families are analyzed, each of which includes a number of samples collected over an extended period of time. Our experiments indicate that improved results are obtained using feature engineering based on word embedding techniques. All of our experiments are based on machine learning models, and hence our evolution detection strategies require minimal human intervention and can easily be automated.
翻訳日:2021-03-12 09:07:22 公開日:2021-03-07
# (参考訳) マルウェア家族関係のクラスタ分析 [全文訳有]

Cluster Analysis of Malware Family Relationships ( http://arxiv.org/abs/2103.05761v1 )

ライセンス: CC BY 4.0
Samanvitha Basole and Mark Stamp(参考訳) 本稿では,k$-meansクラスタリングを用いてマルウェアサンプル間の各種関係を分析する。 約20のマルウェアファミリーと1家族あたり1000のサンプルからなるデータセットを考察する。 これらの家族は7種類のマルウェアに分類される。 我々は,家族のペアに基づいてクラスタリングを行い,その結果を用いて家族間の関係を判定する。 マルウェアの種類に基づいて同様のクラスタ分析を行います。 以上の結果から,K$-meansクラスタリングは,マルウェアの家族関係を探索するための強力なツールとなる可能性が示唆された。

In this paper, we use $K$-means clustering to analyze various relationships between malware samples. We consider a dataset comprising~20 malware families with~1000 samples per family. These families can be categorized into seven different types of malware. We perform clustering based on pairs of families and use the results to determine relationships between families. We perform a similar cluster analysis based on malware type. Our results indicate that $K$-means clustering can be a powerful tool for data exploration of malware family relationships.
翻訳日:2021-03-12 08:55:50 公開日:2021-03-07
# (参考訳) マルウェア分類のためのWord2Vec, HMM2Vec, PCA2Vecの比較 [全文訳有]

A Comparison of Word2Vec, HMM2Vec, and PCA2Vec for Malware Classification ( http://arxiv.org/abs/2103.05763v1 )

ライセンス: CC BY 4.0
Aniket Chandak and Wendy Lee and Mark Stamp(参考訳) 単語の埋め込みはしばしば、単語間の関係を定量化する手段として自然言語処理で使用される。 より一般的に、これらの同じ単語埋め込み技術は特徴間の関係の定量化に利用できる。 本稿では,マルウェア分類の文脈において,複数の単語埋め込み手法を検討する。 私たちは隠れマルコフモデルを使用して、HMM2Vecと呼ばれるアプローチで埋め込みベクトルを取得し、主成分分析に基づいてベクトル埋め込みを生成します。 また、Word2Vecと呼ばれる一般的なニューラルネットワークベースの単語埋め込み技術も検討します。 いずれの場合も,様々な家系のマルウェアサンプルに対して,オプコードシーケンスに基づく特徴埋め込みを導出する。 本研究では,これらの特徴埋め込みに基づく分類精度の向上を,オプコードシーケンスを直接使用するHMM実験と比較し,ベースラインの確立に役立つことを示した。 これらの結果は,マルウェア解析の分野では,単語埋め込みが有用な機能工学的ステップであることを示す。

Word embeddings are often used in natural language processing as a means to quantify relationships between words. More generally, these same word embedding techniques can be used to quantify relationships between features. In this paper, we first consider multiple different word embedding techniques within the context of malware classification. We use hidden Markov models to obtain embedding vectors in an approach that we refer to as HMM2Vec, and we generate vector embeddings based on principal component analysis. We also consider the popular neural network based word embedding technique known as Word2Vec. In each case, we derive feature embeddings based on opcode sequences for malware samples from a variety of different families. We show that we can obtain better classification accuracy based on these feature embeddings, as compared to HMM experiments that directly use the opcode sequences, and serve to establish a baseline. These results show that word embeddings can be a useful feature engineering step in the field of malware analysis.
翻訳日:2021-03-12 08:43:40 公開日:2021-03-07
# (参考訳) 時系列レコメンダシステムの時間モデルを用いたハイブリッドモデル [全文訳有]

Hybrid Model with Time Modeling for Sequential Recommender Systems ( http://arxiv.org/abs/2103.06138v1 )

ライセンス: CC BY 4.0
Marlesson R. O. Santana, Anderson Soares(参考訳) 深層学習に基づく手法は、推薦システム問題に成功している。 反復ニューラルネットワーク、トランス、および注意メカニズムを用いたアプローチは、シーケンシャルインタラクションにおけるユーザーの長期および短期の好みをモデル化するのに有用である。 さまざまなセッションベースのレコメンデーションソリューションを探求するために、Booking.comは最近WSDM WebTour 2021 Challengeを組織しました。 本研究はこの課題に対する我々のアプローチを示す。 レコメンダシステムのための最先端のディープラーニングアーキテクチャをテストするために,いくつかの実験を行った。 さらに,NARM(Neural Attentive Recommendation Machine)にいくつかの変更を加え,そのアーキテクチャを課題に適応させ,どのセッションベースモデルにも適用可能なトレーニングアプローチを実装して精度を向上した。 実験結果から,narmの改善は他のベンチマーク手法よりも優れていた。

Deep learning based methods have been used successfully in recommender system problems. Approaches using recurrent neural networks, transformers, and attention mechanisms are useful to model users' long- and short-term preferences in sequential interactions. To explore different session-based recommendation solutions, Booking.com recently organized the WSDM WebTour 2021 Challenge, which aims to benchmark models to recommend the final city in a trip. This study presents our approach to this challenge. We conducted several experiments to test different state-of-the-art deep learning architectures for recommender systems. Further, we proposed some changes to Neural Attentive Recommendation Machine (NARM), adapted its architecture for the challenge objective, and implemented training approaches that can be used in any session-based model to improve accuracy. Our experimental result shows that the improved NARM outperforms all other state-of-the-art benchmark methods.
翻訳日:2021-03-12 07:16:44 公開日:2021-03-07
# (参考訳) universal adversarial perturbation とイメージスパム分類器 [全文訳有]

Universal Adversarial Perturbations and Image Spam Classifiers ( http://arxiv.org/abs/2103.05469v1 )

ライセンス: CC BY 4.0
Andy Phung and Mark Stamp(参考訳) 名前が示すように、画像スパムは画像に埋め込まれたスパムメールだ。 画像スパムはテキストベースのフィルターを避けるために開発された。 現代のディープラーニングに基づく分類器は、野生で見られる典型的な画像スパムを検出するのによく機能する。 本章では,ディープラーニングに基づく画像スパム分類器を攻撃するために,多くの敵手法を評価する。 テストした手法のうち、普遍摂動が最善であることがわかった。 そこで本稿では, 画像スパムに適応した「自然な摂動」を生成可能な, 変換に基づく新たな対向攻撃を提案し, 解析する。 結果として得られるスパム画像は、集中した自然特徴の存在と普遍的な敵の摂動の両方から恩恵を受ける。 提案手法は, 精度の低下, 例ごとの計算時間, 摂動距離において, 既存の敵攻撃よりも優れていることを示す。 本手法は,画像スパム検出における今後の研究の課題データセットとして使用できる,敵対的スパム画像のデータセットの作成に応用する。

As the name suggests, image spam is spam email that has been embedded in an image. Image spam was developed in an effort to evade text-based filters. Modern deep learning-based classifiers perform well in detecting typical image spam that is seen in the wild. In this chapter, we evaluate numerous adversarial techniques for the purpose of attacking deep learning-based image spam classifiers. Of the techniques tested, we find that universal perturbation performs best. Using universal adversarial perturbations, we propose and analyze a new transformation-based adversarial attack that enables us to create tailored "natural perturbations" in image spam. The resulting spam images benefit from both the presence of concentrated natural features and a universal adversarial perturbation. We show that the proposed technique outperforms existing adversarial attacks in terms of accuracy reduction, computation time per example, and perturbation distance. We apply our technique to create a dataset of adversarial spam images, which can serve as a challenge dataset for future research in image spam detection.
翻訳日:2021-03-11 18:22:51 公開日:2021-03-07
# (参考訳) セマンティックセグメンテーションにおける平方根親和性を用いたラベルの回帰 [全文訳有]

Use square root affinity to regress labels in semantic segmentation ( http://arxiv.org/abs/2103.04990v1 )

ライセンス: CC BY 4.0
Lumeng Cao, Zhouwang Yang(参考訳) セマンティックセグメンテーションは、コンピュータビジョンにおける基本的な非自明なタスクです。 多くの以前の研究では、アフィニティパターンを利用してセグメンテーションネットワークを強化することに焦点を当てている。 これらの研究のほとんどは、アフィニティ行列を特徴融合重みの一種として使用しており、これは注意モデルや非局所モデルなどのネットワークに組み込まれたモジュールの一部である。 本稿では,アフィニティ行列とラベルを関連付け,教師付き方法でアフィニティを利用する。 具体的には,このラベルを用いてマルチスケールなラベル親和性行列を構造的監視として生成し,平方根カーネルを用いて出力層上の非局所親和性行列を計算する。 このような2つの親和性により、Affinity Regression loss(AR損失)と呼ばれる新しい損失を定義します。 我々のモデルは訓練が容易であり、実行時推論なしで計算負荷をほとんど加えない。 NYUv2データセットとCityscapesデータセットに関する広範な実験は、提案手法がセマンティックセグメンテーションネットワークを促進するのに十分であることを示す。

Semantic segmentation is a basic but non-trivial task in computer vision. Many previous work focus on utilizing affinity patterns to enhance segmentation networks. Most of these studies use the affinity matrix as a kind of feature fusion weights, which is part of modules embedded in the network, such as attention models and non-local models. In this paper, we associate affinity matrix with labels, exploiting the affinity in a supervised way. Specifically, we utilize the label to generate a multi-scale label affinity matrix as a structural supervision, and we use a square root kernel to compute a non-local affinity matrix on output layers. With such two affinities, we define a novel loss called Affinity Regression loss (AR loss), which can be an auxiliary loss providing pair-wise similarity penalty. Our model is easy to train and adds little computational burden without run-time inference. Extensive experiments on NYUv2 dataset and Cityscapes dataset demonstrate that our proposed method is sufficient in promoting semantic segmentation networks.
翻訳日:2021-03-11 16:53:20 公開日:2021-03-07
# (参考訳) カルマンフィルタを用いた最適物体追跡技術 [全文訳有]

Optimized Object Tracking Technique Using Kalman Filter ( http://arxiv.org/abs/2103.05467v1 )

ライセンス: CC BY 4.0
Liana Ellen Taylor, Midriem Mirdanies, Roni Permana Saputra(参考訳) 本稿では, クラッタシーンにおける所望の移動物体の検出精度を維持しつつ, 物体検出プロセスに必要な処理時間を最小化する最適化オブジェクト追跡手法の設計に着目した。 カルマンフィルタベースのトリミング画像は、処理時間がビデオフレーム全体よりも小さい検索ウィンドウを使用する場合にオブジェクトを検出するのにかなり少ないため、画像検出プロセスに使用されます。 この技術は、トリミングプロセスでウィンドウのさまざまなサイズでテストされました。 MATLABは提案手法の設計とテストに使用された。 本論文では, 最大次元の2.16倍のトリミング画像を使用することで, 処理時間が大幅に短縮される一方, 検出成功率が高く, 検出された物体の中心が実物中心に近かったことを明らかにした。

This paper focused on the design of an optimized object tracking technique which would minimize the processing time required in the object detection process while maintaining accuracy in detecting the desired moving object in a cluttered scene. A Kalman filter based cropped image is used for the image detection process as the processing time is significantly less to detect the object when a search window is used that is smaller than the entire video frame. This technique was tested with various sizes of the window in the cropping process. MATLAB was used to design and test the proposed method. This paper found that using a cropped image with 2.16 multiplied by the largest dimension of the object resulted in significantly faster processing time while still providing a high success rate of detection and a detected center of the object that was reasonably close to the actual center.
翻訳日:2021-03-11 15:18:09 公開日:2021-03-07
# 発達期におけるブレッテンベルク車による身体的連続学習

Embodied Continual Learning Across Developmental Time Via Developmental Braitenberg Vehicles ( http://arxiv.org/abs/2103.05753v1 )

ライセンス: Link先を確認
Bradly Alicea, Rishabh Chakrabarty, Akshara Gopi, Anson Lim, and Jesse Parent(参考訳) 発達生物学、認知科学、計算モデリングの合成を通じて学ぶべきことはたくさんある。 この観点から学ぶことができる教訓の1つは、インテリジェントプログラムの初期化は、多数のパラメータの操作にのみ依存できないということです。 今後は、Braitenberg Vehicleをベースとした、開発にインスパイアされた学習エージェントの設計を提案する。 これらのエージェントを人工体型知能の例に用い,認知発達能力の構成要素としての体型経験と形態形成成長のモデル化に近づいた。 成人の表現型の発生と発達経路の同時性に影響を与える生物学的・認知的発達に関する諸要因を考察する。 これらのメカニズムは、シフト重みと適応的ネットワークトポロジーによる創発的接続を生み出し、ニューラルネットワークのトレーニングにおける発達過程の重要性を示す。 このアプローチは、重要な期間や成長と獲得を活用し、明示的に具体化されたネットワークアーキテクチャを活用し、ニューラルネットワークの組み立てとこれらのネットワークでのアクティブラーニングを区別することで、開発アプローチから生じる適応エージェントの振る舞いの青写真を提供する。

There is much to learn through synthesis of Developmental Biology, Cognitive Science and Computational Modeling. One lesson we can learn from this perspective is that the initialization of intelligent programs cannot solely rely on manipulation of numerous parameters. Our path forward is to present a design for developmentally-insp ired learning agents based on the Braitenberg Vehicle. Using these agents to exemplify artificial embodied intelligence, we move closer to modeling embodied experience and morphogenetic growth as components of cognitive developmental capacity. We consider various factors regarding biological and cognitive development which influence the generation of adult phenotypes and the contingency of available developmental pathways. These mechanisms produce emergent connectivity with shifting weights and adaptive network topography, thus illustrating the importance of developmental processes in training neural networks. This approach provides a blueprint for adaptive agent behavior that might result from a developmental approach: namely by exploiting critical periods or growth and acquisition, an explicitly embodied network architecture, and a distinction between the assembly of neural networks and active learning on these networks.
翻訳日:2021-03-11 14:46:44 公開日:2021-03-07
# (参考訳) 深層学習に基づく小型データセットの超解像蛍光顕微鏡 [全文訳有]

Deep learning-based super-resolution fluorescence microscopy on small datasets ( http://arxiv.org/abs/2103.04989v1 )

ライセンス: CC BY 4.0
Varun Mannam, Yide Zhang, Xiaotong Yuan, and Scott Howard(参考訳) 蛍光顕微鏡は、生物をマイクロメートルスケールの解像度で可視化することで、現代の生物学における劇的な発展を可能にした。 しかし、回折限界のため、サブミクロン/ナノメータの特徴は解決しにくい。 ナノメートルの解像度を達成するために様々な超解像技術が開発されているが、高価な光学的セットアップや特殊なフルオロフォを必要とすることが多い。 近年、深層学習は、回折制限画像から技術的障壁を減らし、超解像を得る可能性を示している。 正確な結果を得るためには、従来のディープラーニング技術はトレーニングデータセットとして数千の画像を必要とする。 生物サンプルから大規模なデータセットを得ることは、フルオロフォアのフォトブレッシング、光毒性、生体内で起こる動的プロセスなどによっては実現できないことが多い。 したがって、小さなデータセットを用いたディープラーニングベースの超解像の実現は困難である。 この制限を、小さなデータセットでうまくトレーニングされ、超高解像度画像を実現する新しい畳み込みニューラルネットワークベースのアプローチで解決します。 トレーニングデータセットとして15の異なるフィールドオブビューから合計750枚の画像をキャプチャし,そのテクニックを実証した。 各FOVでは、超解像ラジアルゆらぎ法を用いて単一のターゲット画像を生成する。 予想通り、この小さなデータセットは、従来の超高解像度アーキテクチャを使用して使用可能なモデルを生成できなかった。 しかし、新しいアプローチを使用すると、ネットワークを訓練して、この小さなデータセットから超高解像度の画像を達成できます。 このディープラーニングモデルは、大規模なトレーニングデータセットの取得が困難なMRIやX線イメージングなどの他のバイオメディカルイメージングモードに適用できます。

Fluorescence microscopy has enabled a dramatic development in modern biology by visualizing biological organisms with micrometer scale resolution. However, due to the diffraction limit, sub-micron/nanometer features are difficult to resolve. While various super-resolution techniques are developed to achieve nanometer-scale resolution, they often either require expensive optical setup or specialized fluorophores. In recent years, deep learning has shown the potentials to reduce the technical barrier and obtain super-resolution from diffraction-limited images. For accurate results, conventional deep learning techniques require thousands of images as a training dataset. Obtaining large datasets from biological samples is not often feasible due to the photobleaching of fluorophores, phototoxicity, and dynamic processes occurring within the organism. Therefore, achieving deep learning-based super-resolution using small datasets is challenging. We address this limitation with a new convolutional neural network-based approach that is successfully trained with small datasets and achieves super-resolution images. We captured 750 images in total from 15 different field-of-views as the training dataset to demonstrate the technique. In each FOV, a single target image is generated using the super-resolution radial fluctuation method. As expected, this small dataset failed to produce a usable model using traditional super-resolution architecture. However, using the new approach, a network can be trained to achieve super-resolution images from this small dataset. This deep learning model can be applied to other biomedical imaging modalities such as MRI and X-ray imaging, where obtaining large training datasets is challenging.
翻訳日:2021-03-11 11:43:12 公開日:2021-03-07
# (参考訳) 蛍光ライフタイムイメージング顕微鏡(FLIM)における畳み込みニューラルネットワーク [全文訳有]

Convolutional Neural Network Denoising in Fluorescence Lifetime Imaging Microscopy (FLIM) ( http://arxiv.org/abs/2103.05448v1 )

ライセンス: CC BY 4.0
Varun Mannam, Yide Zhang, Xiaotong Yuan, Takashi Hato, Pierre C. Dagher, Evan L. Nichols, Cody J. Smith, Kenneth W. Dunn, and Scott Howard(参考訳) 蛍光寿命イメージング顕微鏡(FLIM)システムは、その遅い処理速度、低信号対雑音比(SNR)、および高価で困難なハードウェアセットアップによって制限されています。 そこで本研究では,FLIM SNRを改善するために畳み込み畳み込みネットワークを適用した。 ネットワークは、アナログ信号処理に基づく高速なデータ取得、高効率パルス変調を用いた高SNR、オフザシェルフ無線周波数成分を用いたコスト効率実装を備えたインスタントFLIMシステムと統合される。 我々のインスタントFLIMシステムは同時に、強度、寿命、薬理プロット \textit{in vivo} と \textit{ex vivo} を提供する。 FLIMデータに訓練されたディープラーニングモデルを用いて画像の復調を統合することにより、正確なFLIMファサー計測が得られる。 K平均クラスタリングセグメンテーション(K-means clustering segmentation)法は、異なる蛍光体を正確に分離する、偏見のない教師なしの機械学習技術である。 マウスの腎臓実験では, セグメント化前に深層学習画像の認知モデルを導入することで, 既存の方法と比較して, ファーザーのノイズを効果的に除去し, より明瞭なセグメントを提供することが示された。 そこで,提案する深層学習に基づくワークフローは,インスタントflimを用いた蛍光画像の自動セグメンテーションを高速かつ高精度に実現する。 FLIM測定がノイズの多い場合, 除音操作はセグメンテーションに有効である。 クラスタリングは、バイオメディカルイメージングアプリケーションに関心のある生物学的構造の検出を効果的に強化できます。

Fluorescence lifetime imaging microscopy (FLIM) systems are limited by their slow processing speed, low signal-to-noise ratio (SNR), and expensive and challenging hardware setups. In this work, we demonstrate applying a denoising convolutional network to improve FLIM SNR. The network will be integrated with an instant FLIM system with fast data acquisition based on analog signal processing, high SNR using high-efficiency pulse-modulation, and cost-effective implementation utilizing off-the-shelf radio-frequency components. Our instant FLIM system simultaneously provides the intensity, lifetime, and phasor plots \textit{in vivo} and \textit{ex vivo}. By integrating image denoising using the trained deep learning model on the FLIM data, provide accurate FLIM phasor measurements are obtained. The enhanced phasor is then passed through the K-means clustering segmentation method, an unbiased and unsupervised machine learning technique to separate different fluorophores accurately. Our experimental \textit{in vivo} mouse kidney results indicate that introducing the deep learning image denoising model before the segmentation effectively removes the noise in the phasor compared to existing methods and provides clearer segments. Hence, the proposed deep learning-based workflow provides fast and accurate automatic segmentation of fluorescence images using instant FLIM. The denoising operation is effective for the segmentation if the FLIM measurements are noisy. The clustering can effectively enhance the detection of biological structures of interest in biomedical imaging applications.
翻訳日:2021-03-11 08:43:08 公開日:2021-03-07
# (参考訳) オランダ考古学領域におけるオンラインプロフェッショナル検索の有用性評価 [全文訳有]

Usability Evaluation for Online Professional Search in the Dutch Archaeology Domain ( http://arxiv.org/abs/2103.04437v1 )

ライセンス: CC BY 4.0
Alex Brandsen, Suzan Verberne, Karsten Lambers, Milco Wansleeben(参考訳) 本稿では,これらの長文考古学文献のフルテキスト検索を可能にする,最初の考古学グレイ文学情報検索システムagnesについて述べる。 この検索システムは、考古学の専門家や学者が6万以上のオランダの発掘レポートのコレクションを通じて検索することができるWebインターフェイスを持っています。 我々はAGNESの検索インタフェースの評価のために,小規模ながら多様なユーザグループを用いてユーザスタディを行った。 評価はスクリーンキャプチャとthink aloudプロトコルによって行われ、ユーザインタフェースフィードバックアンケートが組み合わされた。 評価は、制御された使用(事前定義されたタスクの補完)と自由使用(自由選択されたタスクの補完)の両方をカバーした。 自由に利用することで、考古学者のニーズや、検索システムとの相互作用を研究することができます。 結論として,(1) 考古学者の情報要求は概ねリコール指向であり,回答として項目のリストを必要とすること,(2) ユーザはメタデータフィルタよりも自由テキストクエリの使用を好み,自由テキスト検索システムの価値を確認すること,(3) 多様なユーザグループの編集が,システム改善のフィードバックとして多様な課題の収集に寄与すること,などがあげられる。 私たちは現在、AGNESのユーザーインターフェイスを改良し、考古学的実体のための精度を向上させることで、考古学者が研究の質問をより効率的かつ効率的に回答できるようにし、過去をより一貫性のある物語に導きます。

This paper presents AGNES, the first information retrieval system for archaeological grey literature, allowing full-text search of these long archaeological documents. This search system has a web interface that allows archaeology professionals and scholars to search through a collection of over 60,000 Dutch excavation reports, totalling 361 million words. We conducted a user study for the evaluation of AGNES's search interface, with a small but diverse user group. The evaluation was done by screen capturing and a think aloud protocol, combined with a user interface feedback questionnaire. The evaluation covered both controlled use (completion of a pre-defined task) as well as free use (completion of a freely chosen task). The free use allows us to study the information needs of archaeologists, as well as their interactions with the search system. We conclude that: (1) the information needs of archaeologists are typically recall-oriented, often requiring a list of items as answer; (2) the users prefer the use of free-text queries over metadata filters, confirming the value of a free-text search system; (3) the compilation of a diverse user group contributed to the collection of diverse issues as feedback for improving the system. We are currently refining AGNES's user interface and improving its precision for archaeological entities, so that AGNES will help archaeologists to answer their research questions more effectively and efficiently, leading to a more coherent narrative of the past.
翻訳日:2021-03-11 00:17:46 公開日:2021-03-07
# (参考訳) Smooth Stochastic Optimizationのレトロスペクティブ近似 [全文訳有]

Retrospective Approximation for Smooth Stochastic Optimization ( http://arxiv.org/abs/2103.04392v1 )

ライセンス: CC BY 4.0
David Newton, Raghu Bollapragada, Raghu Pasupathy, Nung Kwan Yip(参考訳) 確率的一階オラクルを用いてスムーズな(そして潜在的に非凸な)目的を最小化する確率的最適化問題を考察する。 このような問題は、シミュレーション最適化からディープラーニングまで、多くの設定で発生します。 本論文では,各イテレーションで$k$のサンプルパス近似問題を適応したサンプルサイズ$M_k$を用いて暗黙的に生成し,行探索準ニュートン法のような「決定論的方法」を用いて,適応した誤差許容度$\epsilon_k$に(事前の解法で)解決する,普遍的な逐次サンプル平均近似(SAA)パラダイムとして,Retrospective Approximation (RA) を提案する。 RAの主な利点は、最適化を確率的近似から切り離すことであり、既存の決定論的アルゴリズムを修正なしで直接採用できるため、確率的コンテキストのためのアルゴリズムを再設計する必要性が軽減される。 2つめの利点は、RAが並列化に寄与する明らかな方法である。 m_k, k \geq 1\}$ および $\{\epsilon_k, k\geq 1\}$ の条件を特定し、ほぼ確実に $l_1$-norm での収束と収束を保証し、最適なイテレーションと作業の複雑さ率を提供する。 線形探索準ニュートンを用いたRAの性能について,未条件の最小二乗問題と深部畳み込みニューラルネットを用いた画像分類問題について述べる。

We consider stochastic optimization problems where a smooth (and potentially nonconvex) objective is to be minimized using a stochastic first-order oracle. These type of problems arise in many settings from simulation optimization to deep learning. We present Retrospective Approximation (RA) as a universal sequential sample-average approximation (SAA) paradigm where during each iteration $k$, a sample-path approximation problem is implicitly generated using an adapted sample size $M_k$, and solved (with prior solutions as "warm start") to an adapted error tolerance $\epsilon_k$, using a "deterministic method" such as the line search quasi-Newton method. The principal advantage of RA is that decouples optimization from stochastic approximation, allowing the direct adoption of existing deterministic algorithms without modification, thus mitigating the need to redesign algorithms for the stochastic context. A second advantage is the obvious manner in which RA lends itself to parallelization. We identify conditions on $\{M_k, k \geq 1\}$ and $\{\epsilon_k, k\geq 1\}$ that ensure almost sure convergence and convergence in $L_1$-norm, along with optimal iteration and work complexity rates. We illustrate the performance of RA with line-search quasi-Newton on an ill-conditioned least squares problem, as well as an image classification problem using a deep convolutional neural net.
翻訳日:2021-03-11 00:00:00 公開日:2021-03-07
# (参考訳) グラフベースピラミッドグローバルコンテキスト推論によるCOVID-19肺感染症セグメンテーションの検討 [全文訳有]

Graph-based Pyramid Global Context Reasoning with a Saliency-aware Projection for COVID-19 Lung Infections Segmentation ( http://arxiv.org/abs/2103.04235v1 )

ライセンス: CC BY 4.0
Huimin Huang, Ming Cai, Lanfen Lin, Jing Zheng, Xiongwei Mao, Xiaohan Qian, Zhiyi Peng, Jianying Zhou, Yutaro Iwamoto, Xian-Hua Han, Yen-Wei Chen, Ruofeng Tong(参考訳) コロナウイルス病2019(COVID-19)は2020年に急速に広まり、CT画像から肺感染症のセグメンテーションに関する大量の研究が浮かび上がっている。 この問題には多くの方法が提案されているが、さまざまなサイズの感染が異なるローブゾーンに現れるため、それは困難な課題である。 そこで本研究では,不整合感染の長期依存性のモデル化とサイズ変化の適応が可能なグラフベースのPyramid Global Context Reasoning(Graph-PGCR )モジュールを提案する。 最初にグラフ畳み込みを組み込んで、複数のローブゾーンから長期のコンテキスト情報を利用する。 従来の平均プールや最大オブジェクト確率とは異なり、感染関連ピクセルをグラフノードの集合としてピックアップするサリエンシー対応のプロジェクションメカニズムを提案する。 グラフ推論の後、関係認識機能はダウンストリームタスクのために元の座標空間に戻される。 さらに,異なるサンプリングレートで複数のグラフをコンストラクトして,サイズ変動問題に対処する。 この目的のために、異なるマルチスケールの長距離コンテキストパターンをキャプチャできる。 当社のGraph-PGCRモジュールはプラグアンドプレイで、パフォーマンスを向上させるためにあらゆるアーキテクチャに統合できます。 実験により、提案手法は、パブリックとプライベートのCOVID-19データセットの両方において、最先端のバックボーンアーキテクチャのパフォーマンスを継続的に向上することを示した。

Coronavirus Disease 2019 (COVID-19) has rapidly spread in 2020, emerging a mass of studies for lung infection segmentation from CT images. Though many methods have been proposed for this issue, it is a challenging task because of infections of various size appearing in different lobe zones. To tackle these issues, we propose a Graph-based Pyramid Global Context Reasoning (Graph-PGCR) module, which is capable of modeling long-range dependencies among disjoint infections as well as adapt size variation. We first incorporate graph convolution to exploit long-term contextual information from multiple lobe zones. Different from previous average pooling or maximum object probability, we propose a saliency-aware projection mechanism to pick up infection-related pixels as a set of graph nodes. After graph reasoning, the relation-aware features are reversed back to the original coordinate space for the down-stream tasks. We further con- struct multiple graphs with different sampling rates to handle the size variation problem. To this end, distinct multi-scale long-range contextual patterns can be captured. Our Graph- PGCR module is plug-and-play, which can be integrated into any architecture to improve its performance. Experiments demonstrated that the proposed method consistently boost the performance of state-of-the-art backbone architectures on both of public and our private COVID-19 datasets.
翻訳日:2021-03-10 23:16:47 公開日:2021-03-07
# (参考訳) ディファレンスを学ぶ: Sim2Real Small Defection Segmentation Network [全文訳有]

Learn to Differ: Sim2Real Small Defection Segmentation Network ( http://arxiv.org/abs/2103.04297v1 )

ライセンス: CC BY 4.0
Zexi Chen, Zheyuan Huang, Yunkai Wang, Xuecheng Xu, Yue Wang, Rong Xiong(参考訳) 深層学習に基づく小さな欠陥セグメント化手法に関する最近の研究は、特定の設定で訓練されており、一定の文脈で制限される傾向にある。 トレーニング中、ネットワークは、欠陥を突き止める前に、トレーニングデータの背景の表現を必然的に学習します。 コンテキストが変更されると推論段階ではパフォーマンスが低下し、新しい設定ごとにトレーニングすることでのみ解決できる。 これは最終的に、コンテキストが変化し続ける実用的ロボットアプリケーションに制限をもたらす。 これに対処するために、ネットワークコンテキストをコンテキスト別にトレーニングし、一般化を期待するのではなく、制限されたコンテキストで誤解し、純粋なシミュレーションでトレーニングを開始すべきなのか? 本稿では,コンテキストに関わらず2つの画像間の小さな欠陥を識別する方法を学習するネットワークSSDSを提案する。 画像間の位相相関のポーズ感度を利用した小さな欠陥検出層が導入され、その後に異常マスキング層が続く。 ネットワークは、単純な形状でランダムに生成されたシミュレーションデータに基づいて訓練され、現実世界で一般化される。 最後に、SSDSは実世界の収集されたデータに基づいて検証され、安価なシミュレーションでトレーニングしても、実際の世界で小さな欠陥を見つけ、実用的応用の可能性を示す能力を示す。

Recent studies on deep-learning-based small defection segmentation approaches are trained in specific settings and tend to be limited by fixed context. Throughout the training, the network inevitably learns the representation of the background of the training data before figuring out the defection. They underperform in the inference stage once the context changed and can only be solved by training in every new setting. This eventually leads to the limitation in practical robotic applications where contexts keep varying. To cope with this, instead of training a network context by context and hoping it to generalize, why not stop misleading it with any limited context and start training it with pure simulation? In this paper, we propose the network SSDS that learns a way of distinguishing small defections between two images regardless of the context, so that the network can be trained once for all. A small defection detection layer utilizing the pose sensitivity of phase correlation between images is introduced and is followed by an outlier masking layer. The network is trained on randomly generated simulated data with simple shapes and is generalized across the real world. Finally, SSDS is validated on real-world collected data and demonstrates the ability that even when trained in cheap simulation, SSDS can still find small defections in the real world showing the effectiveness and its potential for practical applications.
翻訳日:2021-03-10 23:07:21 公開日:2021-03-07
# (参考訳) オンライン機械学習手法が電力市場の長期投資決定と発電機利用に与える影響 [全文訳有]

The impact of online machine-learning methods on long-term investment decisions and generator utilization in electricity markets ( http://arxiv.org/abs/2103.04327v1 )

ライセンス: CC BY 4.0
Alexander J. M. Kell, A. Stephen McGough, Matthew Forshaw(参考訳) 電力供給は常に需要に合致する必要があります。 これにより、負荷周波数制御や停電といった問題が発生する確率を減らすことができる。 今後24時間以内に必要となるであろう負荷をよりよく理解するためには、不確実性に基づく推定が必要である。 これは、多くのマイクロプロデューサが中央制御下にない分散電力市場では特に困難である。 本稿では,11のオフライン学習と5つのオンライン学習アルゴリズムによる次の24時間における電力需要プロファイルの予測について検討する。 長期エージェントベースのモデルであるElecSimに統合することで実現します。 今後の24時間における電力需要プロファイルの予測を通じて、日頭市場における予測をシミュレートすることができる。 これらの予測を行った後、残留分布からサンプルを採取し、シミュレーションであるElecSimを用いて電力市場需要を摂動させる。 これにより、分散型電力市場の長期的ダイナミクスに対するエラーの影響を理解することができる。 提案手法では,オンラインアルゴリズムを用いて平均絶対誤差を30%削減でき,また,必要となる余裕のある全国的グリッドリザーブを削減できることを示した。 この国別埋蔵量の減少は、コストと排出量の節約につながります。 また, 予測精度の大きな誤差は, 17年間の時間枠での投資に不均等な誤差があり, 電気の混合も可能であることを示した。

Electricity supply must be matched with demand at all times. This helps reduce the chances of issues such as load frequency control and the chances of electricity blackouts. To gain a better understanding of the load that is likely to be required over the next 24h, estimations under uncertainty are needed. This is especially difficult in a decentralized electricity market with many micro-producers which are not under central control. In this paper, we investigate the impact of eleven offline learning and five online learning algorithms to predict the electricity demand profile over the next 24h. We achieve this through integration within the long-term agent-based model, ElecSim. Through the prediction of electricity demand profile over the next 24h, we can simulate the predictions made for a day-ahead market. Once we have made these predictions, we sample from the residual distributions and perturb the electricity market demand using the simulation, ElecSim. This enables us to understand the impact of errors on the long-term dynamics of a decentralized electricity market. We show we can reduce the mean absolute error by 30% using an online algorithm when compared to the best offline algorithm, whilst reducing the required tendered national grid reserve required. This reduction in national grid reserves leads to savings in costs and emissions. We also show that large errors in prediction accuracy have a disproportionate error on investments made over a 17-year time frame, as well as electricity mix.
翻訳日:2021-03-10 22:19:11 公開日:2021-03-07
# (参考訳) Markov Cricket: 1日の国際クリケットにおけるベッティングパフォーマンスのモデル化、予測、最適化にフォワードと逆強化学習を使う [全文訳有]

Markov Cricket: Using Forward and Inverse Reinforcement Learning to Model, Predict And Optimize Batting Performance in One-Day International Cricket ( http://arxiv.org/abs/2103.04349v1 )

ライセンス: CC BY 4.0
Manohar Vohra and George S. D. Gordon(参考訳) 本稿では,1日の国際クリケット競技をマルコフプロセスとしてモデル化し,フォワードおよびインバース強化学習(rl)を適用し,新たな3つのツールを開発した。 まず,モンテカルロ学習をスコアに基づく報酬モデルを用いて,ゲームの各状態に対する値関数の非線形近似に適用する。 本手法は,残るスコアリング資源のプロキシとして使用する場合,プロの試合で使用されるダックワース・ルイス・ステルン法を3倍から10倍に上回っている。 次に、逆強化学習(特にガイド付きコスト学習の変種)を用いて、エキスパートのパフォーマンスに基づいて報酬の線形モデルを推論し、ここでは勝利チームのプレーシーケンスと仮定する。 このモデルから各状態に対する最適ポリシーを明示的に決定し、ゲームに関する一般的な直観と一致することを見つける。 最後に、推定報酬モデルを用いて、異なるポリシーの下で最終スコアの後方分布をモデル化するゲームシミュレータを構築する。 予測とシミュレーションのテクニックは中断されたゲームの最終スコアを推定するためのより公平な代替手段となり得るが、推定された報酬モデルはプロのゲームがプレイ戦略を最適化するための有用な洞察を提供するかもしれない。 さらに,この競技にRLを適用する方法が,野球や球技など,チームが交互にプレーする個別の状態のスポーツに広く適用される可能性があることを期待する。

In this paper, we model one-day international cricket games as Markov processes, applying forward and inverse Reinforcement Learning (RL) to develop three novel tools for the game. First, we apply Monte-Carlo learning to fit a nonlinear approximation of the value function for each state of the game using a score-based reward model. We show that, when used as a proxy for remaining scoring resources, this approach outperforms the state-of-the-art Duckworth-Lewis-Ster n method used in professional matches by 3 to 10 fold. Next, we use inverse reinforcement learning, specifically a variant of guided-cost learning, to infer a linear model of rewards based on expert performances, assumed here to be play sequences of winning teams. From this model we explicitly determine the optimal policy for each state and find this agrees with common intuitions about the game. Finally, we use the inferred reward models to construct a game simulator that models the posterior distribution of final scores under different policies. We envisage our prediction and simulation techniques may provide a fairer alternative for estimating final scores in interrupted games, while the inferred reward model may provide useful insights for the professional game to optimize playing strategy. Further, we anticipate our method of applying RL to this game may have broader application to other sports with discrete states of play where teams take turns, such as baseball and rounders.
翻訳日:2021-03-10 19:49:39 公開日:2021-03-07
# (参考訳) コード埋め込みを用いた半自動誤解発見に向けて [全文訳有]

Toward Semi-Automatic Misconception Discovery Using Code Embeddings ( http://arxiv.org/abs/2103.04448v1 )

ライセンス: CC BY 4.0
Yang Shi, Krupal Shah, Wengran Wang, Samiha Marwan, Poorvaja Penmetsa and Thomas W. Price(参考訳) 生徒の誤解を理解することは効果的な指導と評価に重要である。 しかし、そのような誤解を手動で発見することは時間と労力を要する。 自動誤解発見(automated misconception discovery)は、学生データのパターンを強調することで、これらの課題に対処することができる。 本研究では,現状のコード分類モデルを用いて,コンピュータコースにおける生徒のプログラムコードから問題固有の誤解を半自動で発見する手法を提案する。 ブロックベースのプログラミングデータセットでモデルをトレーニングし、学習した埋め込みをクラスタの不正な学生の応募に使用しました。 これらのクラスターは問題に関する特定の誤解に対応しており、既存のアプローチでは容易には発見できなかった。 また、私たちのアプローチの潜在的な応用と、これらの誤解が学生の学習プロセスにドメイン固有の洞察をどう伝えるかについて議論します。

Understanding students' misconceptions is important for effective teaching and assessment. However, discovering such misconceptions manually can be time-consuming and laborious. Automated misconception discovery can address these challenges by highlighting patterns in student data, which domain experts can then inspect to identify misconceptions. In this work, we present a novel method for the semi-automated discovery of problem-specific misconceptions from students' program code in computing courses, using a state-of-the-art code classification model. We trained the model on a block-based programming dataset and used the learned embedding to cluster incorrect student submissions. We found these clusters correspond to specific misconceptions about the problem and would not have been easily discovered with existing approaches. We also discuss potential applications of our approach and how these misconceptions inform domain-specific insights into students' learning processes.
翻訳日:2021-03-10 19:35:45 公開日:2021-03-07
# (参考訳) 深層学習層のスペクトルテンソルトレインパラメータ化 [全文訳有]

Spectral Tensor Train Parameterization of Deep Learning Layers ( http://arxiv.org/abs/2103.04217v1 )

ライセンス: CC BY-SA 4.0
Anton Obukhov, Maxim Rakhuba, Alexander Liniger, Zhiwu Huang, Stamatios Georgoulis, Dengxin Dai, Luc Van Gool(参考訳) 重み行列の低ランクパラメータ化をDeep Learningコンテキストに埋め込まれたスペクトル特性を用いて検討する。 低ランク特性はパラメータ効率をもたらし、マッピングを計算する際に計算ショートカットを行うことができる。 スペクトル特性はしばしば最適化問題に制約を受け、より良いモデルと最適化の安定性をもたらす。 まず、重み行列のコンパクトなSVDパラメータ化とパラメータ化における冗長性源の同定から始める。 さらに, テンソルトレイン(TT)分解をコンパクトなSVD成分に適用し, スペクトルテンソルトレインパラメータ化(STTP)と呼ばれる固定されたTTランクテンソル多様体の非冗長微分パラメータ化を提案する。 画像分類設定におけるニューラルネットワーク圧縮の効果と,生成敵対的トレーニング設定における圧縮とトレーニング安定性の改善を実証する。

We study low-rank parameterizations of weight matrices with embedded spectral properties in the Deep Learning context. The low-rank property leads to parameter efficiency and permits taking computational shortcuts when computing mappings. Spectral properties are often subject to constraints in optimization problems, leading to better models and stability of optimization. We start by looking at the compact SVD parameterization of weight matrices and identifying redundancy sources in the parameterization. We further apply the Tensor Train (TT) decomposition to the compact SVD components, and propose a non-redundant differentiable parameterization of fixed TT-rank tensor manifolds, termed the Spectral Tensor Train Parameterization (STTP). We demonstrate the effects of neural network compression in the image classification setting and both compression and improved training stability in the generative adversarial training setting.
翻訳日:2021-03-10 17:48:26 公開日:2021-03-07
# 動的プログラミングを伴わないcnn音声単語検出と局所化

CNN-based Spoken Term Detection and Localization without Dynamic Programming ( http://arxiv.org/abs/2103.05468v1 )

ライセンス: Link先を確認
Tzeviya Sylvia Fuchs, Yael Segal and Joseph Keshet(参考訳) 本稿では,音声セグメント内の語彙内および語彙外用語の同時予測と局所化のための音声項検出アルゴリズムを提案する。 提案アルゴリズムは、音声信号の様々な部分の単語埋め込みを予測し、所望の単語埋め込みと比較することにより、ある単語が所定の音声信号内に発声されたか否かを推定する。 このアルゴリズムはこのタスクに既存の埋め込みスペースを利用し、タスク固有の埋め込みスペースをトレーニングする必要がない。 推定では、アルゴリズムはターゲット項のすべての可能な位置を同時に予測し、最適な検索のために動的プログラミングを必要としません。 読み上げ音声コーポラにおける複数の音声単語検出タスクのシステム評価を行った。

In this paper, we propose a spoken term detection algorithm for simultaneous prediction and localization of in-vocabulary and out-of-vocabulary terms within an audio segment. The proposed algorithm infers whether a term was uttered within a given speech signal or not by predicting the word embeddings of various parts of the speech signal and comparing them to the word embedding of the desired term. The algorithm utilizes an existing embedding space for this task and does not need to train a task-specific embedding space. At inference the algorithm simultaneously predicts all possible locations of the target term and does not need dynamic programming for optimal search. We evaluate our system on several spoken term detection tasks on read speech corpora.
翻訳日:2021-03-10 14:42:32 公開日:2021-03-07
# (参考訳) ARVo:ビデオデブリのための全行ボリューム対応学習 [全文訳有]

ARVo: Learning All-Range Volumetric Correspondence for Video Deblurring ( http://arxiv.org/abs/2103.04260v1 )

ライセンス: CC BY 4.0
Dongxu Li, Chenchen Xu, Kaihao Zhang, Xin Yu, Yiran Zhong, Wenqi Ren, Hanna Suominen, Hongdong Li(参考訳) ビデオデブラリングモデルは連続フレームを利用して、カメラの揺動や物体の動きからぼやけを取り除く。 隣接するシャープパッチを利用するために、典型的な手法は主にホモグラフィや光学フローに依存し、隣接するぼやけたフレームを空間的に整列させる。 しかし、そのような明示的なアプローチは、大きなピクセル変位を持つ高速な動きの存在において効果が低い。 本研究では,特徴空間におけるぼやけたフレーム間の空間対応を学習する新しい暗黙的手法を提案する。 遠方画素対応を構築するために, 隣接フレーム間のすべての画素対間の相関体積ピラミッドを構築する。 参照フレームの特徴を高めるために,ボリュームピラミッドに基づいて,近傍とのピクセルペア相関を最大化する相関アグリゲーションモジュールを設計した。 最後に,集約された特徴を復元モジュールに供給し,復元されたフレームを得る。 我々は,モデルを漸進的に最適化するための生成的逆パラダイムを設計する。 提案手法は,ビデオデブロアリング用高フレームレート(1000fps)データセット(HFR-DVD)とともに,広く採用されているDVDデータセットを用いて評価する。 定量的および定性的な実験は、従来の最先端の手法に対する両方のデータセットで好適に動作し、ビデオデブレーションのための全範囲空間対応のモデリングの利点を確認することを示しています。

Video deblurring models exploit consecutive frames to remove blurs from camera shakes and object motions. In order to utilize neighboring sharp patches, typical methods rely mainly on homography or optical flows to spatially align neighboring blurry frames. However, such explicit approaches are less effective in the presence of fast motions with large pixel displacements. In this work, we propose a novel implicit method to learn spatial correspondence among blurry frames in the feature space. To construct distant pixel correspondences, our model builds a correlation volume pyramid among all the pixel-pairs between neighboring frames. To enhance the features of the reference frame, we design a correlative aggregation module that maximizes the pixel-pair correlations with its neighbors based on the volume pyramid. Finally, we feed the aggregated features into a reconstruction module to obtain the restored frame. We design a generative adversarial paradigm to optimize the model progressively. Our proposed method is evaluated on the widely-adopted DVD dataset, along with a newly collected High-Frame-Rate (1000 fps) Dataset for Video Deblurring (HFR-DVD). Quantitative and qualitative experiments show that our model performs favorably on both datasets against previous state-of-the-art methods, confirming the benefit of modeling all-range spatial correspondence for video deblurring.
翻訳日:2021-03-10 14:33:21 公開日:2021-03-07
# (参考訳) 局所単語統計は超越性によらず読解時間に影響する [全文訳有]

Local word statistics affect reading times independently of surprisal ( http://arxiv.org/abs/2103.04469v1 )

ライセンス: CC BY 4.0
Adam Goodkind and Klinton Bicknell(参考訳) 代用的理論は、文処理における多くの現象を理解するための統一的な枠組み(hale, 2001; levy, 2008a)を提供し、全ての事前文脈で与えられた単語の条件付き確率が処理の困難を完全に決定することを示した。 この主張の問題点として、条件付き確率が一定である場合でも、ある局所統計的単語頻度も処理に影響を与えることが示されている。 ここでは、他のローカル統計が処理に役割を持つか、単語頻度が特別な場合であるかどうかを尋ねます。 我々は,より複雑な局所統計量であるbigram と trigram の確率が,超越性とは独立に処理に影響を与えることを示す最初の明確な証拠を示す。 これらの結果は、処理における局所統計の重要かつ独立した役割を示唆している。 さらに、地域統計情報に大きすぎる効果がある理由を説明できるような仮説の新たな一般化の研究を動機付けている。

Surprisal theory has provided a unifying framework for understanding many phenomena in sentence processing (Hale, 2001; Levy, 2008a), positing that a word's conditional probability given all prior context fully determines processing difficulty. Problematically for this claim, one local statistic, word frequency, has also been shown to affect processing, even when conditional probability given context is held constant. Here, we ask whether other local statistics have a role in processing, or whether word frequency is a special case. We present the first clear evidence that more complex local statistics, word bigram and trigram probability, also affect processing independently of surprisal. These findings suggest a significant and independent role of local statistics in processing. Further, it motivates research into new generalizations of surprisal that can also explain why local statistical information should have an outsized effect.
翻訳日:2021-03-10 14:06:26 公開日:2021-03-07
# (参考訳) 説明可能な人工知能における反事実と原因:理論、アルゴリズム、応用

Counterfactuals and Causability in Explainable Artificial Intelligence: Theory, Algorithms, and Applications ( http://arxiv.org/abs/2103.04244v1 )

ライセンス: CC BY 4.0
Yu-Liang Chou and Catarina Moreira and Peter Bruza and Chun Ouyang and Joaquim Jorge(参考訳) ディープラーニングモデルをより透明で説明しやすいものにする、モデルに依存しない方法への関心が高まっている。 一部の研究者は、機械がある程度の人間レベルの説明可能性を達成するためには、この機械は人間の因果的理解可能な説明を提供する必要があると主張した。 可利用性を提供する可能性のある特定のアルゴリズムのクラスは偽物である。 本稿では,多種多様な文献を体系的に検証し,その事実と説明可能な人工知能の因果性について述べる。 PRISMAフレームワークの下でLDAトピックモデリング解析を行い、最も関連性の高い文献記事を見つけました。 この分析の結果、調査されたアルゴリズムの接地理論と、その基礎となる特性と実世界データへの応用を考える新しい分類法が導かれた。 この研究は、現在のAIのモデル非依存の反ファクトアルゴリズムは因果論的形式主義に基づいておらず、したがって人間の意思決定者への因果性を促進することができないことを示唆している。 本研究では, 文献における主要なアルゴリズムから得られた説明は, 因果関係ではなく, 散発的な相関関係を提供し, 副最適, 誤った, あるいは偏見のある説明につながることを示唆した。 本稿では,人工知能のモデル非依存的アプローチにおける可利用性向上のための新たな方向性と課題について述べる。

There has been a growing interest in model-agnostic methods that can make deep learning models more transparent and explainable to a user. Some researchers recently argued that for a machine to achieve a certain degree of human-level explainability, this machine needs to provide human causally understandable explanations, also known as causability. A specific class of algorithms that have the potential to provide causability are counterfactuals. This paper presents an in-depth systematic review of the diverse existing body of literature on counterfactuals and causability for explainable artificial intelligence. We performed an LDA topic modelling analysis under a PRISMA framework to find the most relevant literature articles. This analysis resulted in a novel taxonomy that considers the grounding theories of the surveyed algorithms, together with their underlying properties and applications in real-world data. This research suggests that current model-agnostic counterfactual algorithms for explainable AI are not grounded on a causal theoretical formalism and, consequently, cannot promote causability to a human decision-maker. Our findings suggest that the explanations derived from major algorithms in the literature provide spurious correlations rather than cause/effects relationships, leading to sub-optimal, erroneous or even biased explanations. This paper also advances the literature with new directions and challenges on promoting causability in model-agnostic approaches for explainable artificial intelligence.
翻訳日:2021-03-10 12:45:26 公開日:2021-03-07
# (参考訳) グラフデータ補完のための畳み込みグラフテンソルネット [全文訳有]

Convolutional Graph-Tensor Net for Graph Data Completion ( http://arxiv.org/abs/2103.04485v1 )

ライセンス: CC BY 4.0
Xiao-Yang Liu, Ming Zhu(参考訳) グラフデータ補完は、一般的には、ソーシャルネットワーク、レコメンデーションシステム、モノのインターネットといったグラフ構造を持つため、基本的に重要な問題である。 我々は,各ノードがデータ行列を持つグラフを,データ行列を3次元に積み重ねることにより,「textit{graph-tensor}」として表現する。 本稿では,ディープニューラルネットワークを用いてグラフテンソルの一般変換を学習するグラフデータ補完問題に対して, \textit{Convolutional Graph-Tensor Net} (\textit{Conv GT-Net})を提案する。 実験の結果、提案された \textit{Conv GT-Net} は、既存のアルゴリズムに対する完成精度 (50\% 高い) と完成速度 (3.6x $\sim$ 8.1x 速い) の両方において有意な改善を達成できることが示された。

Graph data completion is a fundamentally important issue as data generally has a graph structure, e.g., social networks, recommendation systems, and the Internet of Things. We consider a graph where each node has a data matrix, represented as a \textit{graph-tensor} by stacking the data matrices in the third dimension. In this paper, we propose a \textit{Convolutional Graph-Tensor Net} (\textit{Conv GT-Net}) for the graph data completion problem, which uses deep neural networks to learn the general transform of graph-tensors. The experimental results on the ego-Facebook data sets show that the proposed \textit{Conv GT-Net} achieves significant improvements on both completion accuracy (50\% higher) and completion speed (3.6x $\sim$ 8.1x faster) over the existing algorithms.
翻訳日:2021-03-10 12:44:15 公開日:2021-03-07
# (参考訳) 衝突層除去によるディープニューラルネットワークの自動チューニング [全文訳有]

Auto-tuning of Deep Neural Networks by Conflicting Layer Removal ( http://arxiv.org/abs/2103.04331v1 )

ライセンス: CC BY 4.0
David Peer, Sebastian Stabinger, Antonio Rodriguez-Sanchez(参考訳) ニューラルネットワークアーキテクチャを設計することは難しい作業であり、どのモデルの特定の層をパフォーマンスを改善するために適応しなければならないかを知ることは、ほぼ謎である。 本稿では,学習モデルのテスト精度を低下させる層を識別する新しい手法を提案する。 矛盾する層は、トレーニングの開始時に早期に検出される。 最悪のシナリオでは、そのような層がまったく訓練できないネットワークにつながる可能性があることを証明します。 理論的分析は、ネットワーク全体のパフォーマンスが低下するこれらの層の起源について提供され、これは広範な実証的評価によって補完されます。 より正確には、競合するトレーニングバンドルを生成するため、パフォーマンスを悪化させるレイヤを特定しました。 トレーニングされた残存ネットワークのレイヤの約60%が、テストエラーの有意な増加なしに、アーキテクチャから完全に削除できることを示します。 さらに、トレーニングの開始時に相反する層を識別する新しいニューラルアーキテクチャサーチ(NAS)アルゴリズムを紹介します。 自動チューニングアルゴリズムが検出したアーキテクチャは、より複雑な最先端アーキテクチャと比較すると、競合精度が向上する一方で、異なるコンピュータビジョンタスクのメモリ消費と推論時間を劇的に削減する。 ソースコードはhttps://github.com/p eerdavid/conflicting -bundlesで入手できる。

Designing neural network architectures is a challenging task and knowing which specific layers of a model must be adapted to improve the performance is almost a mystery. In this paper, we introduce a novel methodology to identify layers that decrease the test accuracy of trained models. Conflicting layers are detected as early as the beginning of training. In the worst-case scenario, we prove that such a layer could lead to a network that cannot be trained at all. A theoretical analysis is provided on what is the origin of those layers that result in a lower overall network performance, which is complemented by our extensive empirical evaluation. More precisely, we identified those layers that worsen the performance because they would produce what we name conflicting training bundles. We will show that around 60% of the layers of trained residual networks can be completely removed from the architecture with no significant increase in the test-error. We will further present a novel neural-architecture- search (NAS) algorithm that identifies conflicting layers at the beginning of the training. Architectures found by our auto-tuning algorithm achieve competitive accuracy values when compared against more complex state-of-the-art architectures, while drastically reducing memory consumption and inference time for different computer vision tasks. The source code is available on https://github.com/p eerdavid/conflicting -bundles
翻訳日:2021-03-10 09:20:01 公開日:2021-03-07
# (参考訳) 特徴履歴による効率的なモデル性能推定 [全文訳有]

Efficient Model Performance Estimation via Feature Histories ( http://arxiv.org/abs/2103.04450v1 )

ライセンス: CC BY 4.0
Shengcao Cao, Xiaofang Wang, Kris Kitani(参考訳) ハイパーパラメータ最適化(HPO)やニューラルアーキテクチャサーチ(NAS)といったニューラルネットワーク設計の課題の重要なステップは、候補モデルの性能を評価することである。 一定の計算リソースがあれば、各モデルにより多くの時間を費やして最終的なパフォーマンスの正確な見積もりを得るか、設定スペースでより多様なモデルを探索するより多くの時間を費やすことができます。 本研究では、トレーニングプロセスの早期にモデルの最大性能を正確に近似することにより、画像分類のためのHPOとNASの文脈でこの探索-探索トレードオフを最適化することを目指しています。 特定の検索空間向けにカスタマイズされた最近の高速化NAS手法とは対照的に、例えば、検索空間の微分が要求される場合、我々の手法は柔軟であり、検索空間にほとんど制約を課さない。 本手法は,訓練の初期段階におけるネットワークの特徴の進化履歴を用いて,検討中のネットワークのピーク性能に一致するプロキシ分類器を構築する。 本手法は複数の探索アルゴリズムと組み合わせ、HPOやNASの幅広いタスクに対するより良いソリューションを見つけることができることを示す。 サンプリングに基づく検索アルゴリズムと並列計算を用いて,dartよりも優れたアーキテクチャを探索し,壁時間探索時間の80%削減を実現する。

An important step in the task of neural network design, such as hyper-parameter optimization (HPO) or neural architecture search (NAS), is the evaluation of a candidate model's performance. Given fixed computational resources, one can either invest more time training each model to obtain more accurate estimates of final performance, or spend more time exploring a greater variety of models in the configuration space. In this work, we aim to optimize this exploration-exploita tion trade-off in the context of HPO and NAS for image classification by accurately approximating a model's maximal performance early in the training process. In contrast to recent accelerated NAS methods customized for certain search spaces, e.g., requiring the search space to be differentiable, our method is flexible and imposes almost no constraints on the search space. Our method uses the evolution history of features of a network during the early stages of training to build a proxy classifier that matches the peak performance of the network under consideration. We show that our method can be combined with multiple search algorithms to find better solutions to a wide range of tasks in HPO and NAS. Using a sampling-based search algorithm and parallel computing, our method can find an architecture which is better than DARTS and with an 80% reduction in wall-clock search time.
翻訳日:2021-03-10 08:59:08 公開日:2021-03-07
# (参考訳) 対人学習による公正度の推定と改善 [全文訳有]

Estimating and Improving Fairness with Adversarial Learning ( http://arxiv.org/abs/2103.04243v1 )

ライセンス: CC BY 4.0
Xiaoxiao Li, Ziteng Cui, Yifan Wu, Li Gu, Tatsuya Harada(参考訳) 医療における信頼される人工知能(AI)には、公平性と説明責任が不可欠です。 しかし、既存のAIモデルは決定マーキングに偏る可能性があります。 そこで本研究では,深層学習に基づく医用画像解析システムにおいて,バイアスの軽減と検出を同時に行うマルチタスク学習戦略を提案する。 具体的には,バイアスに対する識別モジュールと,ベース分類モデルにおける不公平性を予測するクリティカルモジュールを追加することを提案する。 さらに、トレーニング中に2つのモジュールが独立するように直交正規化を強制します。 したがって、これらの深層学習タスクを互いに区別し、多様体上の特異点に分解することを避けることができる。 この敵対的なトレーニング方法を通じて、性別や肌のトーンなどの属性のためにバイアスに対して脆弱である恵まれないグループからのデータは、これらの属性に対して中立なドメインに転送されます。 さらに、クリティカルモジュールは、未知の敏感な属性を持つデータの公平度スコアを予測できます。 各種フェアネス評価指標に基づいて, 大規模皮膚病変データセット上での枠組みの評価を行った。 本実験は,深層学習に基づく医用画像解析システムにおいて,フェアネスを推定・改善するための提案手法の有効性を示すものである。

Fairness and accountability are two essential pillars for trustworthy Artificial Intelligence (AI) in healthcare. However, the existing AI model may be biased in its decision marking. To tackle this issue, we propose an adversarial multi-task training strategy to simultaneously mitigate and detect bias in the deep learning-based medical image analysis system. Specifically, we propose to add a discrimination module against bias and a critical module that predicts unfairness within the base classification model. We further impose an orthogonality regularization to force the two modules to be independent during training. Hence, we can keep these deep learning tasks distinct from one another, and avoid collapsing them into a singular point on the manifold. Through this adversarial training method, the data from the underprivileged group, which is vulnerable to bias because of attributes such as sex and skin tone, are transferred into a domain that is neutral relative to these attributes. Furthermore, the critical module can predict fairness scores for the data with unknown sensitive attributes. We evaluate our framework on a large-scale public-available skin lesion dataset under various fairness evaluation metrics. The experiments demonstrate the effectiveness of our proposed method for estimating and improving fairness in the deep learning-based medical image analysis system.
翻訳日:2021-03-10 08:05:07 公開日:2021-03-07
# (参考訳) 離散構成エネルギーネットワークを用いたRNA代替スプライシング予測 [全文訳有]

RNA Alternative Splicing Prediction with Discrete Compositional Energy Network ( http://arxiv.org/abs/2103.04246v1 )

ライセンス: CC BY 4.0
Alvin Chan, Anna Korsakova, Yew-Soon Ong, Fernaldo Richtia Winnerdy, Kah Wai Lim, Anh Tuan Phan(参考訳) 単一の遺伝子は、代替スプライシングと呼ばれるプロセスを通じて、異なるタンパク質バージョンをコードすることができる。 タンパク質は細胞機能において主要な役割を果たすため、異常なスプライシングプロファイルはがんを含む様々な疾患を引き起こす可能性がある。 代替スプライシングは、遺伝子の一次配列およびRNA結合タンパク質レベルなどの他の調節因子によって決定される。 これを入力として、RNAスプライシングの予測を回帰タスクとして定式化し、学習モデルをベンチマークするための新しいトレーニングデータセット(CAPD)を構築します。 本研究では,スプライスサイト,接合部,転写部間の階層的関係を利用した離散構成エネルギーネットワーク(DCEN)を提案する。 代替スプライシング予測の場合、DCENはその構成スプライス接合のエネルギー値を通じてmRNA転写確率をモデル化する。 これらの転写確率はその後、キーヌクレオチドの相対的存在量値にマッピングされ、基礎実験によって訓練される。 CAPDの実験を通じて、DCENがベースラインとアブレーションバリアントを上回っていることを示します。

A single gene can encode for different protein versions through a process called alternative splicing. Since proteins play major roles in cellular functions, aberrant splicing profiles can result in a variety of diseases, including cancers. Alternative splicing is determined by the gene's primary sequence and other regulatory factors such as RNA-binding protein levels. With these as input, we formulate the prediction of RNA splicing as a regression task and build a new training dataset (CAPD) to benchmark learned models. We propose discrete compositional energy network (DCEN) which leverages the hierarchical relationships between splice sites, junctions and transcripts to approach this task. In the case of alternative splicing prediction, DCEN models mRNA transcript probabilities through its constituent splice junctions' energy values. These transcript probabilities are subsequently mapped to relative abundance values of key nucleotides and trained with ground-truth experimental measurements. Through our experiments on CAPD, we show that DCEN outperforms baselines and ablation variants.
翻訳日:2021-03-10 07:31:20 公開日:2021-03-07
# (参考訳) 無監視異常検出のための学生教師特徴ピラミッドマッチング [全文訳有]

Student-Teacher Feature Pyramid Matching for Unsupervised Anomaly Detection ( http://arxiv.org/abs/2103.04257v1 )

ライセンス: CC BY 4.0
Guodong Wang, Shumin Han, Errui Ding, Di Huang(参考訳) 異常検出は難しい課題であり、通常、異常の予期せぬ性質に対する教師なし学習問題として定式化される。 本稿では,生徒-教員の枠組みにその利点を生かして実装するが,精度と効率の両面で大幅に拡張する,シンプルかつ強力な手法を提案する。 イメージ分類を教師として事前訓練した強いモデルから,その知識を同一のアーキテクチャで単一学生ネットワークに抽出し,異常な画像の分布を学習し,このワンステップ転送は可能な限り重要な手がかりを保存する。 さらに,マルチスケールな特徴マッチング戦略をフレームワークに統合し,この階層的な特徴アライメントにより,より優れた監視の下で,学生ネットワークが特徴ピラミッドから多段階の知識を混在させることで,様々な大きさの異常を検出することができる。 2つのネットワークによって生成される特徴ピラミッドの違いは、異常が起こる確率を示すスコア関数として機能する。 このような操作により、正確で高速なピクセルレベルの異常検出を実現します。 非常に競争力のある結果は、3つの主要なベンチマークで提供されます。 さらに、非常に高速(256x256のサイズの画像のための100 FPS)で推論を行い、最新のものよりも少なくとも数十倍高速です。

Anomaly detection is a challenging task and usually formulated as an unsupervised learning problem for the unexpectedness of anomalies. This paper proposes a simple yet powerful approach to this issue, which is implemented in the student-teacher framework for its advantages but substantially extends it in terms of both accuracy and efficiency. Given a strong model pre-trained on image classification as the teacher, we distill the knowledge into a single student network with the identical architecture to learn the distribution of anomaly-free images and this one-step transfer preserves the crucial clues as much as possible. Moreover, we integrate the multi-scale feature matching strategy into the framework, and this hierarchical feature alignment enables the student network to receive a mixture of multi-level knowledge from the feature pyramid under better supervision, thus allowing to detect anomalies of various sizes. The difference between feature pyramids generated by the two networks serves as a scoring function indicating the probability of anomaly occurring. Due to such operations, our approach achieves accurate and fast pixel-level anomaly detection. Very competitive results are delivered on three major benchmarks, significantly superior to the state of the art ones. In addition, it makes inferences at a very high speed (with 100 FPS for images of the size at 256x256), at least dozens of times faster than the latest counterparts.
翻訳日:2021-03-10 01:33:32 公開日:2021-03-07
# (参考訳) ランドマーク検出を用いた多項式曲線フィッティングによる歯根ファジィエッジの高分解能分割 [全文訳有]

High-Resolution Segmentation of Tooth Root Fuzzy Edge Based on Polynomial Curve Fitting with Landmark Detection ( http://arxiv.org/abs/2103.04258v1 )

ライセンス: CC BY 4.0
Yunxiang Li, Yifan Zhang, Yaqi Wang, Shuai Wang, Ruizi Peng, Kai Tang, Qianni Zhang, Jun Wang, Qun Jin, Lingling Sun(参考訳) 根管治療の診断における最も経済的かつ定期的な補助的検査として、口腔X線は、皮膚科医によって広く用いられている。 従来の画像分割法では歯根をぼやけた境界で分割することは依然として困難である。 そこで,ランドマーク検出(HS-PCL)を用いた多項式曲線フィッティングに基づく高分解能セグメンテーションモデルを提案する。 歯根の縁に均等に分布する複数のランドマークを検出し、滑らかな多項式曲線を歯根のセグメント化として適合させ、ファジィエッジの問題を解決する。 本モデルでは,不正確に検出された間違ったランドマークの悪影響を自動的に低減し,適合結果に歯根から逸脱する最短距離アルゴリズム(mnsda)の最大数を提案する。 数値実験により,提案手法は最先端の手法と比較して,Hausdorff95 (HD95) を33.9%,Average Surface Distance (ASD) を42.1%削減するだけでなく,データセットの分量にも優れた結果が得られ,医用画像処理による根管自動治療の有効性が向上した。

As the most economical and routine auxiliary examination in the diagnosis of root canal treatment, oral X-ray has been widely used by stomatologists. It is still challenging to segment the tooth root with a blurry boundary for the traditional image segmentation method. To this end, we propose a model for high-resolution segmentation based on polynomial curve fitting with landmark detection (HS-PCL). It is based on detecting multiple landmarks evenly distributed on the edge of the tooth root to fit a smooth polynomial curve as the segmentation of the tooth root, thereby solving the problem of fuzzy edge. In our model, a maximum number of the shortest distances algorithm (MNSDA) is proposed to automatically reduce the negative influence of the wrong landmarks which are detected incorrectly and deviate from the tooth root on the fitting result. Our numerical experiments demonstrate that the proposed approach not only reduces Hausdorff95 (HD95) by 33.9% and Average Surface Distance (ASD) by 42.1% compared with the state-of-the-art method, but it also achieves excellent results on the minute quantity of datasets, which greatly improves the feasibility of automatic root canal therapy evaluation by medical image computing.
翻訳日:2021-03-10 01:20:03 公開日:2021-03-07
# (参考訳) 部分アスペクト角SARターゲット認識のためのPose Disrepancy Spatial Transformer [全文訳有]

Pose Discrepancy Spatial Transformer Based Feature Disentangling for Partial Aspect Angles SAR Target Recognition ( http://arxiv.org/abs/2103.04329v1 )

ライセンス: CC BY 4.0
Zaidao Wen, Jiaxiang Liu, Zhunga Liu, Quan Pan(参考訳) 本文は,合成開口レーダ(SAR)自動目標認識(ATR)タスクのための新しいフレームワークであるDistSTNを提示する。 従来のSAR ATRアルゴリズムとは対照的に、DistSTNは、トレーニングのアスペクト角が不完全で部分的な範囲に制限されている非協力的ターゲットに対して、テストサンプルの角度が無制限であるより困難な実用シナリオを検討している。 この問題に対処するため、ポーズ不変の特徴を学習する代わりに、DistSTNは、SARターゲットの学習したポーズファクタとアイデンティティファクタを分離し、ターゲットイメージの表現プロセスを独立して制御できるように、精巧な機能分離モデルを含む。 説明可能なポーズ因子を分離するために、DistSTNのポーズ不一致空間トランスフォーマーモジュールを開発し、2つの異なるターゲットの因子間の固有の変換を明示的な幾何学的モデルで特徴付ける。 さらに、DistSTNは、エンコーダ・デコーダ機構を用いて効率的な特徴抽出と認識を可能にする、償却推論方式を開発した。 移動目標獲得・認識(MSTAR)ベンチマークによる実験結果から,提案手法の有効性が示された。 他のatrアルゴリズムと比較して、diststnは高い認識精度を達成できる。

This letter presents a novel framework termed DistSTN for the task of synthetic aperture radar (SAR) automatic target recognition (ATR). In contrast to the conventional SAR ATR algorithms, DistSTN considers a more challenging practical scenario for non-cooperative targets whose aspect angles for training are incomplete and limited in a partial range while those of testing samples are unlimited. To address this issue, instead of learning the pose invariant features, DistSTN newly involves an elaborated feature disentangling model to separate the learned pose factors of a SAR target from the identity ones so that they can independently control the representation process of the target image. To disentangle the explainable pose factors, we develop a pose discrepancy spatial transformer module in DistSTN to characterize the intrinsic transformation between the factors of two different targets with an explicit geometric model. Furthermore, DistSTN develops an amortized inference scheme that enables efficient feature extraction and recognition using an encoder-decoder mechanism. Experimental results with the moving and stationary target acquisition and recognition (MSTAR) benchmark demonstrate the effectiveness of our proposed approach. Compared with the other ATR algorithms, DistSTN can achieve higher recognition accuracy.
翻訳日:2021-03-10 01:12:39 公開日:2021-03-07
# (参考訳) IRON:不変ベースの高ロバストポイントクラウド登録 [全文訳有]

IRON: Invariant-based Highly Robust Point Cloud Registration ( http://arxiv.org/abs/2103.04357v1 )

ライセンス: CC0 1.0
Lei Sun(参考訳) 本稿では,非最小かつ高ロバストなポイントクラウド登録法であるiron (invariant-based global robust estimation and optimization)を提案する。 これを実現するために、登録問題をそれぞれスケール、回転、翻訳の推定に分離します。 最初のコントリビューションは、ランダムなサンプル間のインリエリエンスを求めるために不変互換性を採用し、2つの点群間のスケールを堅牢に推定するRANSIC(RANdom Samples with Invariant Compatibility)を提案することです。 スケールを見積もると、第2の貢献は、SOS(Sum-of-Squares)緩和を用いて、非凸なグローバル登録問題をSDP(convex Semi-Definite Program)に緩和し、緩和がきついことを示すことである。 また、ロバストな推定のために、従来のGNCよりもロバスト性および時間効率のよいグローバルな外乱拒絶ヒューリスティックであるRT-GNC(Rough Trimming and Graduated Non-Convexity)を3番目の貢献として提案する。 これらの貢献により、登録アルゴリズム、ironをレンダリングできます。 実データセット上での実験を通じて,鉄は99%の異常値に対して効率的,高精度,堅牢であり,既存の最先端アルゴリズムを上回っていることを示した。

In this paper, we present IRON (Invariant-based global Robust estimation and OptimizatioN), a non-minimal and highly robust solution for point cloud registration with a great number of outliers among the correspondences. To realize this, we decouple the registration problem into the estimation of scale, rotation and translation, respectively. Our first contribution is to propose RANSIC (RANdom Samples with Invariant Compatibility), which employs the invariant compatibility to seek inliers among random samples and robustly estimates the scale between two sets of point clouds in the meantime. Once the scale is estimated, our second contribution is to relax the non-convex global registration problem into a convex Semi-Definite Program (SDP) in a certifiable way using Sum-of-Squares (SOS) Relaxation and show that the relaxation is tight. For robust estimation, we further propose RT-GNC (Rough Trimming and Graduated Non-Convexity), a global outlier rejection heuristic having better robustness and time-efficiency than traditional GNC, as our third contribution. With these contributions, we can render our registration algorithm, IRON. Through experiments over real datasets, we show that IRON is efficient, highly accurate and robust against as many as 99% outliers whether the scale is known or unknown, outperforming the existing state-of-the-art algorithms.
翻訳日:2021-03-10 01:01:08 公開日:2021-03-07
# (参考訳) 写真における自動フレアスポットアーティファクト検出と除去 [全文訳有]

Automatic Flare Spot Artifact Detection and Removal in Photographs ( http://arxiv.org/abs/2103.04384v1 )

ライセンス: CC BY 4.0
Patricia Vitoria and Coloma Ballester(参考訳) フレアスポットは、多くの条件によって引き起こされる1つのタイプのフレアアーティファクトであり、しばしばカメラの視野内または近くで1つ以上の高輝度光源によって誘発される。 高輝度源からの光がカメラの前面要素に到達すると、撮像された画像に非画像情報またはフレアを形成するフィルム面に出現するカメラ素子の内部反射を生成することができる。 予防機構が用いられるが、アーティファクトが現れることもある。 本稿では,フレアスポットアーティファクトを自動的に検出・除去する頑健な計算手法を提案する。 第一に、フレアスポットが満たされる可能性のある本質的な特性に基づく特性評価を提案し、第二に、候補者の中からフレアスポットを選択できる新たな信頼度尺度を定義し、最後に、フレア領域を正確に決定する手法を提供します。 そして、前記検出されたアーティファクトを、模範ベースの塗布を用いて除去する。 アルゴリズムが最高水準の定量的および定性的な性能を達成することを示します。

Flare spot is one type of flare artifact caused by a number of conditions, frequently provoked by one or more high-luminance sources within or close to the camera field of view. When light rays coming from a high-luminance source reach the front element of a camera, it can produce intra-reflections within camera elements that emerge at the film plane forming non-image information or flare on the captured image. Even though preventive mechanisms are used, artifacts can appear. In this paper, we propose a robust computational method to automatically detect and remove flare spot artifacts. Our contribution is threefold: firstly, we propose a characterization which is based on intrinsic properties that a flare spot is likely to satisfy; secondly, we define a new confidence measure able to select flare spots among the candidates; and, finally, a method to accurately determine the flare region is given. Then, the detected artifacts are removed by using exemplar-based inpainting. We show that our algorithm achieve top-tier quantitative and qualitative performance.
翻訳日:2021-03-10 00:28:02 公開日:2021-03-07
# (参考訳) シーンテキスト認識に本当のデータセットしか使わないとしたら? ラベルの少ないシーンテキスト認識に向けて [全文訳有]

What If We Only Use Real Datasets for Scene Text Recognition? Toward Scene Text Recognition With Fewer Labels ( http://arxiv.org/abs/2103.04400v1 )

ライセンス: CC BY-SA 4.0
Jeonghun Baek, Yusuke Matsui, Kiyoharu Aizawa(参考訳) シーンテキスト認識(STR)タスクは、一般的なプラクティスを持っています:すべての最先端のSTRモデルは、大規模な合成データで訓練されます。 この練習とは対照的に、合成データなしでSTRモデルを訓練する必要があるとき、より少ない実ラベル(ラベルの少ないSTR)でのみSTRモデルをトレーニングすることは重要です。 しかし、実際のデータは不十分であるため、実データ上でSTRモデルをトレーニングすることはほぼ不可能であるという暗黙の共通知識がある。 この共通知識がラベルの少ないSTRの研究を妨げていると考えます。 本研究では,共通知識を否定し,少ないラベルでSTRを再活性化する。 我々は最近蓄積した公開実データを統合することで、STRモデルを実際のラベル付きデータでのみ満足に訓練できることを示します。 その後、実データを完全に活用するための単純なデータ拡張が見つかる。 さらに,ラベルなしデータを収集し,半教師付きおよび自己教師付き手法を導入することで,モデルを改善する。 その結果,最先端手法に対する競争モデルが得られた。 我々の知る限りでは、1)実際のラベルのみを用いることで十分な性能を示す最初の研究であり、2)より少ないラベルを持つSTRに半自己監督手法を導入する。 私たちのコードとデータが利用可能です。 https://github.com/k u21fan/STR-Fewer-Lab els

Scene text recognition (STR) task has a common practice: All state-of-the-art STR models are trained on large synthetic data. In contrast to this practice, training STR models only on fewer real labels (STR with fewer labels) is important when we have to train STR models without synthetic data: for handwritten or artistic texts that are difficult to generate synthetically and for languages other than English for which we do not always have synthetic data. However, there has been implicit common knowledge that training STR models on real data is nearly impossible because real data is insufficient. We consider that this common knowledge has obstructed the study of STR with fewer labels. In this work, we would like to reactivate STR with fewer labels by disproving the common knowledge. We consolidate recently accumulated public real data and show that we can train STR models satisfactorily only with real labeled data. Subsequently, we find simple data augmentation to fully exploit real data. Furthermore, we improve the models by collecting unlabeled data and introducing semi- and self-supervised methods. As a result, we obtain a competitive model to state-of-the-art methods. To the best of our knowledge, this is the first study that 1) shows sufficient performance by only using real labels and 2) introduces semi- and self-supervised methods into STR with fewer labels. Our code and data are available: https://github.com/k u21fan/STR-Fewer-Lab els
翻訳日:2021-03-09 23:28:55 公開日:2021-03-07
# (参考訳) スナップショット圧縮イメージング:原理、実装、理論、アルゴリズムおよび応用

Snapshot Compressive Imaging: Principle, Implementation, Theory, Algorithms and Applications ( http://arxiv.org/abs/2103.04421v1 )

ライセンス: CC BY 4.0
Xin Yuan and David J. Brady and Aggelos K. Katsaggelos(参考訳) 高次元(HD)データの取得は、信号処理とその関連分野における長期的な課題である。 スナップショット圧縮イメージング(SCI)は、2次元(2D)検出器を使用して、シュエムスナップショット測定でHD($\ge3$D)データをキャプチャします。 新規な光学設計により、2D検出器は、HDデータを圧縮的にサンプリングし、その後、アルゴリズムを用いて所望のHDデータキューブを再構築する。 SCIは、ハイパースペクトルイメージング、ビデオ、ホログラフィー、トモグラフィー、焦点深度イメージング、偏光イメージング、顕微鏡、画像撮影に使われてきた。 ディープラーニングにインスパイアされた様々なディープニューラルネットワークも、スペクトルSCIとビデオSCIのHDデータキューブを再構築するために開発されている。 本稿では、最適化に基づくアルゴリズムとディープラーニングに基づくアルゴリズムの両方を含む、sciハードウェア、理論、アルゴリズムの最近の進歩を概観する。 様々な応用やSCIの展望についても論じる。

Capturing high-dimensional (HD) data is a long-term challenge in signal processing and related fields. Snapshot compressive imaging (SCI) uses a two-dimensional (2D) detector to capture HD ($\ge3$D) data in a {\em snapshot} measurement. Via novel optical designs, the 2D detector samples the HD data in a {\em compressive} manner; following this, algorithms are employed to reconstruct the desired HD data-cube. SCI has been used in hyperspectral imaging, video, holography, tomography, focal depth imaging, polarization imaging, microscopy, \etc.~Though the hardware has been investigated for more than a decade, the theoretical guarantees have only recently been derived. Inspired by deep learning, various deep neural networks have also been developed to reconstruct the HD data-cube in spectral SCI and video SCI. This article reviews recent advances in SCI hardware, theory and algorithms, including both optimization-based and deep-learning-based algorithms. Diverse applications and the outlook of SCI are also discussed.
翻訳日:2021-03-09 22:59:56 公開日:2021-03-07
# (参考訳) TypeShift: タイピング生産プロセスを視覚化するためのユーザインターフェース [全文訳有]

TypeShift: A User Interface for Visualizing the Typing Production Process ( http://arxiv.org/abs/2103.04222v1 )

ライセンス: CC BY 4.0
Adam Goodkind(参考訳) TypeShiftは、生産をタイプするタイミングで言語パターンを視覚化するためのツールです。 言語生産は、言語、認知、運動能力に基づく複雑なプロセスです。 タイピングプロセスにおける全体的なトレンドを視覚化することで、typeshiftは、単語レベルと文字レベルの両方でタイピングパターンを表現するのに使われるノイズの多い情報信号を明らかにすることを目指している。 これは研究者が特定の言語現象を比較・比較し、個別のタイピングセッションを複数のグループ平均と比較することで達成される。 最後に、TypeShiftはもともとデータタイピング用に設計されていたが、音声データにも容易に適応できる。 Webデモはhttps://angoodkind.s hinyapps.io/TypeShif t/で公開されている。 ソースコードはhttps://github.com/a ngoodkind/typeshiftからアクセスできる。

TypeShift is a tool for visualizing linguistic patterns in the timing of typing production. Language production is a complex process which draws on linguistic, cognitive and motor skills. By visualizing holistic trends in the typing process, TypeShift aims to elucidate the often noisy information signals that are used to represent typing patterns, both at the word-level and character-level. It accomplishes this by enabling a researcher to compare and contrast specific linguistic phenomena, and compare an individual typing session to multiple group averages. Finally, although TypeShift was originally designed for typing data, it can easy be adapted to accommodate speech data, as well. A web demo is available at https://angoodkind.s hinyapps.io/TypeShif t/. The source code can be accessed at https://github.com/a ngoodkind/TypeShift.
翻訳日:2021-03-09 21:33:31 公開日:2021-03-07
# (参考訳) モデルなし強化学習におけるQ-関数の再利用がトータルレグレットに及ぼす影響 [全文訳有]

The Effect of Q-function Reuse on the Total Regret of Tabular, Model-Free, Reinforcement Learning ( http://arxiv.org/abs/2103.04416v1 )

ライセンス: CC BY 4.0
Volodymyr Tkachuk, Sriram Ganapathi Subramanian, Matthew E. Taylor(参考訳) 一部の強化学習方法は、実世界では実用的ではない高いサンプル複雑性に苦しんでいます。 転送学習メソッドである$Q$-functionの再利用は、学習のサンプル複雑さを低減し、既存のアルゴリズムの有用性を向上させる1つの方法です。 これまでの研究は、モデルフリーアルゴリズムに適用した場合、様々な環境における$Q$-functionの再利用の実証的な効果を示してきた。 私たちの知る限りでは、表型でモデルフリーな設定に適用される場合、$q$-関数再利用の後悔を示す理論的研究は存在しません。 UCB-Hoeffdingアルゴリズムを用いた$Q$-learningに適用した場合の$Q$-functionの再利用効果に関する理論的知見を提供することで、$Q$-functionの再利用における理論的作業と経験的作業のギャップを埋めることを目指している。 q$-関数の再利用がucb-hoeffdingアルゴリズムによる$q$-learningに適用された場合、状態やアクション空間とは無関係な後悔があることを示すことが私たちの大きな貢献です。 また,理論的な知見を裏付ける実証的な結果も提供する。

Some reinforcement learning methods suffer from high sample complexity causing them to not be practical in real-world situations. $Q$-function reuse, a transfer learning method, is one way to reduce the sample complexity of learning, potentially improving usefulness of existing algorithms. Prior work has shown the empirical effectiveness of $Q$-function reuse for various environments when applied to model-free algorithms. To the best of our knowledge, there has been no theoretical work showing the regret of $Q$-function reuse when applied to the tabular, model-free setting. We aim to bridge the gap between theoretical and empirical work in $Q$-function reuse by providing some theoretical insights on the effectiveness of $Q$-function reuse when applied to the $Q$-learning with UCB-Hoeffding algorithm. Our main contribution is showing that in a specific case if $Q$-function reuse is applied to the $Q$-learning with UCB-Hoeffding algorithm it has a regret that is independent of the state or action space. We also provide empirical results supporting our theoretical findings.
翻訳日:2021-03-09 19:32:13 公開日:2021-03-07
# (参考訳) 自動運転のV&Vと安全保証のためのカバレッジベーステスト:システム文献レビュー [全文訳有]

Coverage based testing for V&V and Safety Assurance of Self-driving Autonomous Vehicles: A Systematic Literature Review ( http://arxiv.org/abs/2103.04364v1 )

ライセンス: CC BY 4.0
Zaid Tahir, Rob Alexander(参考訳) 自動運転車(SAV)は、業界だけでなく一般の人々によって毎日より多くの関心を集めています。 テクノロジー企業や自動車会社は、将来のSAV市場でのヘッドスタートを確実にするために、SAVの研究開発に膨大な資金を投資しています。 SAVが公道に到達する際の大きなハードルの1つは、SAVの安全面における公衆の信頼の欠如である。 世界中の研究者は、安全を確保し、SAVの安全性に国民に信頼を提供するために、SAVの検証と検証(V&V)と安全保証のためのカバレッジベースのテストを使用しています。 本論文の目的は,過去10年間に研究者が用いたカバレッジ基準とカバレッジ最大化手法を検討し,SAVの安全性を保証することである。 本稿では,本研究のための体系的文献レビュー(SLR)を実施している。 適用範囲の基準に基づいて、既存の研究の分類を提示します。 この領域のさらなる研究を可能にするために、このSLRにはいくつかの研究ギャップと研究方向も設けられている。 本稿では,SAVの安全保証分野における知識の体系を提供する。 このSLRの結果は、V&Vの進展とSAVの安全性確保に有効であると考えています。

Self-driving Autonomous Vehicles (SAVs) are gaining more interest each passing day by the industry as well as the general public. Tech and automobile companies are investing huge amounts of capital in research and development of SAVs to make sure they have a head start in the SAV market in the future. One of the major hurdles in the way of SAVs making it to the public roads is the lack of confidence of public in the safety aspect of SAVs. In order to assure safety and provide confidence to the public in the safety of SAVs, researchers around the world have used coverage-based testing for Verification and Validation (V&V) and safety assurance of SAVs. The objective of this paper is to investigate the coverage criteria proposed and coverage maximizing techniques used by researchers in the last decade up till now, to assure safety of SAVs. We conduct a Systematic Literature Review (SLR) for this investigation in our paper. We present a classification of existing research based on the coverage criteria used. Several research gaps and research directions are also provided in this SLR to enable further research in this domain. This paper provides a body of knowledge in the domain of safety assurance of SAVs. We believe the results of this SLR will be helpful in the progression of V&V and safety assurance of SAVs.
翻訳日:2021-03-09 17:09:51 公開日:2021-03-07
# Unseen の翻訳? Yor\`ub\'a $\rightarrow$ English MT in Low-Resource, Morphologically-unma rked settingss

Translating the Unseen? Yor\`ub\'a $\rightarrow$ English MT in Low-Resource, Morphologically-Unma rked Settings ( http://arxiv.org/abs/2103.04225v1 )

ライセンス: Link先を確認
Ife Adebara Miikka Silfverberg Muhammad Abdul-Mageed(参考訳) 特定の特徴が一方で形態素的にマークされているが、他方で欠落または文脈的にマークされている言語間の翻訳は、機械翻訳の重要なテストケースである。 定型性(in)を形態的にマークする英語に翻訳する場合、Yor\`ub\'a は素名詞を用いるが、これらの特徴を文脈的にマークする。 本研究では、Yor\`ub\'a の素名詞を英語に翻訳する際に、SMT システムが 2 つの NMT システム (BiLSTM と Transformer) とどのように比較するかを細かく分析する。 システムがどのようにBNを識別し、正しく翻訳し、人間の翻訳パターンと比較するかを検討する。 また,各モデルが犯す誤りの種類を分析し,それらの誤りを言語的に記述する。 低リソース設定でモデルパフォーマンスを評価するための洞察を得る。 素名詞の翻訳では, トランスフォーマーモデルは4つのカテゴリでSMT, BiLSTMモデルより優れ, BiLSTMは3つのカテゴリでSMTモデルより優れ, SMTは1つのカテゴリでNMTモデルより優れていた。

Translating between languages where certain features are marked morphologically in one but absent or marked contextually in the other is an important test case for machine translation. When translating into English which marks (in)definiteness morphologically, from Yor\`ub\'a which uses bare nouns but marks these features contextually, ambiguities arise. In this work, we perform fine-grained analysis on how an SMT system compares with two NMT systems (BiLSTM and Transformer) when translating bare nouns in Yor\`ub\'a into English. We investigate how the systems what extent they identify BNs, correctly translate them, and compare with human translation patterns. We also analyze the type of errors each model makes and provide a linguistic description of these errors. We glean insights for evaluating model performance in low-resource settings. In translating bare nouns, our results show the transformer model outperforms the SMT and BiLSTM models for 4 categories, the BiLSTM outperforms the SMT model for 3 categories while the SMT outperforms the NMT models for 1 category.
翻訳日:2021-03-09 16:06:50 公開日:2021-03-07
# 乱雑な動的環境における状態表現とナビゲーションの学習

Learning a State Representation and Navigation in Cluttered and Dynamic Environments ( http://arxiv.org/abs/2103.04351v1 )

ライセンス: Link先を確認
David Hoeller, Lorenz Wellhausen, Farbod Farshidian, Marco Hutter(参考訳) 本研究では,静的および動的障害のあるクラッタ環境において,四足ロボットを用いた局所ナビゲーションを実現するための学習ベースのパイプラインを提案する。 高レベルのナビゲーションコマンドにより、ロボットは環境の明示的なマッピングをすることなく、深度カメラからフレームに基づいてターゲットの場所に安全に移動することができます。 まず、画像のシーケンスとカメラの現在の軌道を融合して、状態表現学習を用いて世界のモデルを形成する。 この軽量モジュールの出力は、強化学習で訓練された目標到達および障害物回避ポリシーに直接供給される。 パイプラインをこれらのコンポーネントに分離すると、わずか数十分でシミュレーションで完全にトレーニングできるサンプル効率的なポリシー学習ステージになることを示します。 重要な部分は状態表現であり、監視されていない方法で世界の隠れた状態を推定するだけでなく、現実のギャップを橋渡しし、シミュレーションから現実への転送を成功させるのに役立ちます。 シミュレーションと実演で4足歩行ロボットanymalを用いた実験では,ノイズの多い奥行き画像の処理や,トレーニング中の動的障害物の回避,局所的な空間意識の付与などが可能であった。

In this work, we present a learning-based pipeline to realise local navigation with a quadrupedal robot in cluttered environments with static and dynamic obstacles. Given high-level navigation commands, the robot is able to safely locomote to a target location based on frames from a depth camera without any explicit mapping of the environment. First, the sequence of images and the current trajectory of the camera are fused to form a model of the world using state representation learning. The output of this lightweight module is then directly fed into a target-reaching and obstacle-avoiding policy trained with reinforcement learning. We show that decoupling the pipeline into these components results in a sample efficient policy learning stage that can be fully trained in simulation in just a dozen minutes. The key part is the state representation, which is trained to not only estimate the hidden state of the world in an unsupervised fashion, but also helps bridging the reality gap, enabling successful sim-to-real transfer. In our experiments with the quadrupedal robot ANYmal in simulation and in reality, we show that our system can handle noisy depth images, avoid dynamic obstacles unseen during training, and is endowed with local spatial awareness.
翻訳日:2021-03-09 16:04:50 公開日:2021-03-07
# Watching You: ビデオベースの人物再識別のためのグローバルガイドによる相互学習

Watching You: Global-guided Reciprocal Learning for Video-based Person Re-identification ( http://arxiv.org/abs/2103.04337v1 )

ライセンス: Link先を確認
Xuehu Liu and Pingping Zhang and Chenyang Yu and Huchuan Lu and Xiaoyun Yang(参考訳) ビデオベースの人物再識別(Re-ID)は、重複しないカメラで同一人物のビデオシーケンスを自動的に取得することを目的としている。 この目的を達成するために、ビデオに豊富な空間的および時間的手がかりを十分に活用することが鍵となる。 既存の手法は通常、最も顕著な画像領域に焦点を合わせており、画像シーケンスの人物の多様性によって、きめ細かな手がかりを見逃しがちである。 そこで本論文では,映像に基づくRe-IDのためのGLL(Global-Guided Reciprocal Learning)フレームワークを提案する。 具体的には,GCE(Global-Guided Correlation Estimation)を提案し,局所的特徴とグローバル特徴の特徴相関マップを生成し,同一人物を識別するための高相関領域と低相関領域をローカライズする。 その後、グローバル表現の指導の下で、識別的特徴を高相関特徴と低相関特徴に分解する。 さらに, テンポラル・相互学習(TRL)機構は, 高相関意味情報を逐次強化し, 低相関のサブクリティカルな手がかりを蓄積するように設計されている。 3つの公開ベンチマークに関する広範な実験は、私たちのアプローチが他の最先端のアプローチよりも優れたパフォーマンスを達成できることを示しています。

Video-based person re-identification (Re-ID) aims to automatically retrieve video sequences of the same person under non-overlapping cameras. To achieve this goal, it is the key to fully utilize abundant spatial and temporal cues in videos. Existing methods usually focus on the most conspicuous image regions, thus they may easily miss out fine-grained clues due to the person varieties in image sequences. To address above issues, in this paper, we propose a novel Global-guided Reciprocal Learning (GRL) framework for video-based person Re-ID. Specifically, we first propose a Global-guided Correlation Estimation (GCE) to generate feature correlation maps of local features and global features, which help to localize the high-and low-correlation regions for identifying the same person. After that, the discriminative features are disentangled into high-correlation features and low-correlation features under the guidance of the global representations. Moreover, a novel Temporal Reciprocal Learning (TRL) mechanism is designed to sequentially enhance the high-correlation semantic information and accumulate the low-correlation sub-critical clues. Extensive experiments on three public benchmarks indicate that our approach can achieve better performance than other state-of-the-art approaches.
翻訳日:2021-03-09 16:02:56 公開日:2021-03-07
# TransBTS: Transformer を用いたマルチモーダル脳腫瘍切除

TransBTS: Multimodal Brain Tumor Segmentation Using Transformer ( http://arxiv.org/abs/2103.04430v1 )

ライセンス: Link先を確認
Wenxuan Wang, Chen Chen, Meng Ding, Jiangyun Li, Hong Yu, Sen Zha(参考訳) 自己着脱機構を用いたグローバル(長距離)情報モデリングの恩恵を受けるトランスフォーマは,近年,自然言語処理と2次元画像分類に成功している。 しかし,特に3次元医用画像セグメンテーションでは,局所的特徴とグローバル特徴の両方が重要となる。 本稿では、MRI脳腫瘍セグメンテーションのための3D CNNにおけるTransformerを初めて利用し、エンコーダデコーダ構造に基づくTransBTSという新しいネットワークを提案する。 ローカルな3dコンテキスト情報をキャプチャするために、エンコーダはまず3d cnnを使用して体積空間特徴マップを抽出する。 一方、機能マップは、グローバル機能モデリングのためにTransformerに供給されるトークンのために精巧に再構成されます。 デコーダはtransformerに埋め込まれた機能を活用し、詳細なセグメンテーションマップを予測するためにプログレッシブアップサンプリングを行う。 BraTS 2019データセットの実験結果は、TransBTSが3D MRIスキャンで脳腫瘍のセグメント化の最先端の手法より優れていることを示している。 コードはhttps://github.com/W enxuan-1119/TransBTS で入手できる。

Transformer, which can benefit from global (long-range) information modeling using self-attention mechanisms, has been successful in natural language processing and 2D image classification recently. However, both local and global features are crucial for dense prediction tasks, especially for 3D medical image segmentation. In this paper, we for the first time exploit Transformer in 3D CNN for MRI Brain Tumor Segmentation and propose a novel network named TransBTS based on the encoder-decoder structure. To capture the local 3D context information, the encoder first utilizes 3D CNN to extract the volumetric spatial feature maps. Meanwhile, the feature maps are reformed elaborately for tokens that are fed into Transformer for global feature modeling. The decoder leverages the features embedded by Transformer and performs progressive upsampling to predict the detailed segmentation map. Experimental results on the BraTS 2019 dataset show that TransBTS outperforms state-of-the-art methods for brain tumor segmentation on 3D MRI scans. Code is available at https://github.com/W enxuan-1119/TransBTS
翻訳日:2021-03-09 16:02:34 公開日:2021-03-07
# 直交注意:クローズスタイルアプローチによる否定スコープの解決

Orthogonal Attention: A Cloze-Style Approach to Negation Scope Resolution ( http://arxiv.org/abs/2103.04294v1 )

ライセンス: Link先を確認
Aditya Khandelwal and Vahida Attar(参考訳) Negation Scope Resolutionは広く研究されている問題であり、ネゲーションキューの影響を受ける単語を文に見つけるために使用されます。 最近の研究では、トランスフォーマーベースのアーキテクチャの微調整が、このタスクに最先端の結果をもたらすことが示されている。 本研究では,文を文脈として,手がかり語をクエリとして,否定スコープの解決をクローズ的なタスクとして捉えた。 また, 自己注意に触発された直交注意と呼ばれる新しいクロゼスタイルの注意機構も導入する。 まず, オーソゴナル・アテンション・バリアントを開発するためのフレームワークを提案し, OA-C, OA-CA, OA-EM, OA-EMBの4種類のオーソゴナル・アテンテンション・バリアントを提案する。 XLNetのバックボーンの上にこれらの直交アテンションレイヤーを使用して、我々は、私たちが実験するすべてのデータセットで今まで最高の結果を達成し、微調整XLNet最先端のネゲーションスコープ解像度を上回ります:BioScope Abstracts、BioScope Full Papers、SFU Review Corpus、および*sem 2012 Dataset(Sherlock)。

Negation Scope Resolution is an extensively researched problem, which is used to locate the words affected by a negation cue in a sentence. Recent works have shown that simply finetuning transformer-based architectures yield state-of-the-art results on this task. In this work, we look at Negation Scope Resolution as a Cloze-Style task, with the sentence as the Context and the cue words as the Query. We also introduce a novel Cloze-Style Attention mechanism called Orthogonal Attention, which is inspired by Self Attention. First, we propose a framework for developing Orthogonal Attention variants, and then propose 4 Orthogonal Attention variants: OA-C, OA-CA, OA-EM, and OA-EMB. Using these Orthogonal Attention layers on top of an XLNet backbone, we outperform the finetuned XLNet state-of-the-art for Negation Scope Resolution, achieving the best results to date on all 4 datasets we experiment with: BioScope Abstracts, BioScope Full Papers, SFU Review Corpus and the *sem 2012 Dataset (Sherlock).
翻訳日:2021-03-09 16:01:32 公開日:2021-03-07
# エキスパートシステム グラジエント ディサント スタイル トレーニング: 防衛可能な人工知能技術の開発。

Expert System Gradient Descent Style Training: Development of a Defensible Artificial Intelligence Technique ( http://arxiv.org/abs/2103.04314v1 )

ライセンス: Link先を確認
Jeremy Straub(参考訳) 提示されたデータから学習する能力を備えた人工知能システムは、社会全体で使用されています。 これらのシステムは、ローン申請者のスクリーニング、刑事被告に対する判決の推薦、禁止コンテンツに対するソーシャルメディア投稿のスキャンなどに使われる。 これらのシステムは、複雑な学習された相関ネットワークに意味を割り当てないため、因果関係に等しくない関連を学習することができ、最適で防御不能な決定が下される。 準最適な意思決定に加えて、これらのシステムは、差別防止法に違反している相関関係を学習することで、設計者やオペレーターに法的責任を負う可能性がある。 本稿では,意味割り当てノード (facts) と相関関係 (rules) を用いて開発した機械学習エキスパートシステムについて述べる。 複数の潜在的な実装は、異なるネットワークエラーと拡張レベルと異なるトレーニングレベルを含む、異なる条件下で検討および評価されます。 これらのシステムの性能は、ランダムで完全に接続されたネットワークと比較される。

Artificial intelligence systems, which are designed with a capability to learn from the data presented to them, are used throughout society. These systems are used to screen loan applicants, make sentencing recommendations for criminal defendants, scan social media posts for disallowed content and more. Because these systems don't assign meaning to their complex learned correlation network, they can learn associations that don't equate to causality, resulting in non-optimal and indefensible decisions being made. In addition to making decisions that are sub-optimal, these systems may create legal liability for their designers and operators by learning correlations that violate anti-discrimination and other laws regarding what factors can be used in different types of decision making. This paper presents the use of a machine learning expert system, which is developed with meaning-assigned nodes (facts) and correlations (rules). Multiple potential implementations are considered and evaluated under different conditions, including different network error and augmentation levels and different training levels. The performance of these systems is compared to random and fully connected networks.
翻訳日:2021-03-09 16:00:46 公開日:2021-03-07
# TensorFlow-Kerasによるグラフニューラルネットワークの実装

Implementing graph neural networks with TensorFlow-Keras ( http://arxiv.org/abs/2103.04318v1 )

ライセンス: Link先を確認
Patrick Reiser, Andre Eberhard and Pascal Friederich(参考訳) グラフニューラルネットワークは、最近多くの注目を集めた汎用的な機械学習アーキテクチャです。 本稿では、TensorFlow-Kerasモデルの畳み込み層とプール層の実装について述べる。これにより、標準的なKeras層にシームレスかつ柔軟な統合により、グラフモデルを機能的に設定できる。 これは、グラフに適したtensorflowの新しいraggedtensorクラスを通じて実現可能な、最初のテンソル次元としてのミニバッチの使用を意味する。 tensorflow-kerasをベースとしたkeras graph convolutional neural network pythonパッケージを開発した。tensorflow-kerasは、層間で渡される透明なテンソル構造と、使いやすいマインドセットに焦点を当てた、グラフネットワーク用のkerasレイヤセットを提供する。

Graph neural networks are a versatile machine learning architecture that received a lot of attention recently. In this technical report, we present an implementation of convolution and pooling layers for TensorFlow-Keras models, which allows a seamless and flexible integration into standard Keras layers to set up graph models in a functional way. This implies the usage of mini-batches as the first tensor dimension, which can be realized via the new RaggedTensor class of TensorFlow best suited for graphs. We developed the Keras Graph Convolutional Neural Network Python package kgcnn based on TensorFlow-Keras that provides a set of Keras layers for graph networks which focus on a transparent tensor structure passed between layers and an ease-of-use mindset.
翻訳日:2021-03-09 16:00:26 公開日:2021-03-07
# Hierarchical Causal Bandit

Hierarchical Causal Bandit ( http://arxiv.org/abs/2103.04215v1 )

ライセンス: Link先を確認
Ruiyang Song, Stefano Rini, Kuang Xu(参考訳) 因果バンディット(英: Causal Bandit)は、エージェントが変数の因果ネットワークで連続的に実験し、報酬の最大化介入を特定する、創発的な学習モデルである。 モデルの適用性は広いが、既存の分析結果は、全ての変数が互いに独立な並列バンディットバージョンに大きく制限されている。 本研究では,階層型因果バンディットモデルを,従属変数による一般因果バンディット理解への有効な経路として紹介する。 コアのアイデアは、直接的な効果を持つすべての変数間の相互作用をキャプチャするコンテキスト変数を組み込むことです。 この階層的枠組みを用いることで、因果的包帯と従属腕のアルゴリズム設計の鋭い洞察を導き、二項文脈の場合、ほぼ一致する後悔境界を得る。

Causal bandit is a nascent learning model where an agent sequentially experiments in a causal network of variables, in order to identify the reward-maximizing intervention. Despite the model's wide applicability, existing analytical results are largely restricted to a parallel bandit version where all variables are mutually independent. We introduce in this work the hierarchical causal bandit model as a viable path towards understanding general causal bandits with dependent variables. The core idea is to incorporate a contextual variable that captures the interaction among all variables with direct effects. Using this hierarchical framework, we derive sharp insights on algorithmic design in causal bandits with dependent arms and obtain nearly matching regret bounds in the case of a binary context.
翻訳日:2021-03-09 15:57:51 公開日:2021-03-07
# アクティブシーケンシャル仮説テストのための近似アルゴリズム

Approximation Algorithms for Active Sequential Hypothesis Testing ( http://arxiv.org/abs/2103.04250v1 )

ライセンス: Link先を確認
Kyra Gan, Su Jia, Andrew Li(参考訳) アクティブ・シーケンシャル仮説テスト(英語版)(asht)の問題において、学習者は、一連の仮説のうち、真の仮説である$h^*$を同定しようとする。 学習者は一連の行動を与えられ、任意の真の仮説の下での行動の結果分布を知る。 アクションの集合全体を繰り返し再生すると、$h^*$を識別するのに十分だが、アクションごとにコストがかかる。 したがって、ターゲットエラー $\delta>0$ が与えられた場合、少なくとも1 - \delta$ の確率で $h^*$ を識別するアクションを逐次選択するための最小コストポリシーを見つけることが目的である。 本稿では2種類の適応性の下でASHTの最初の近似アルゴリズムを提供する。 まず、ポリシーが事前に一連のアクションを修正し、いつ終了し、どの仮説を返すかを適応的に決定すれば、部分的に適応する。 部分的適応性の下では、$o\big(s^{-1}(1+\log_{1/\delta}|h|)\log (s^{-1}|h| \log |h|)\big)$近似アルゴリズムを提供する。 第二に、アクションの選択が以前の結果に依存している場合、ポリシーは完全に適応的です。 完全な適応性の下で、$O(s^{-1}\log (|H|/\delta)\log |H|)$-近似アルゴリズムを提供する。 合成データと実世界のデータの両方を用いて,アルゴリズムの性能を数値的に検討し,提案したヒューリスティック・ポリシーよりも優れていることを示す。

In the problem of active sequential hypotheses testing (ASHT), a learner seeks to identify the true hypothesis $h^*$ from among a set of hypotheses $H$. The learner is given a set of actions and knows the outcome distribution of any action under any true hypothesis. While repeatedly playing the entire set of actions suffices to identify $h^*$, a cost is incurred with each action. Thus, given a target error $\delta>0$, the goal is to find the minimal cost policy for sequentially selecting actions that identify $h^*$ with probability at least $1 - \delta$. This paper provides the first approximation algorithms for ASHT, under two types of adaptivity. First, a policy is partially adaptive if it fixes a sequence of actions in advance and adaptively decides when to terminate and what hypothesis to return. Under partial adaptivity, we provide an $O\big(s^{-1}(1+\log_{1/\delta}|H|)\log (s^{-1}|H| \log |H|)\big)$-approximatio n algorithm, where $s$ is a natural separation parameter between the hypotheses. Second, a policy is fully adaptive if action selection is allowed to depend on previous outcomes. Under full adaptivity, we provide an $O(s^{-1}\log (|H|/\delta)\log |H|)$-approximation algorithm. We numerically investigate the performance of our algorithms using both synthetic and real-world data, showing that our algorithms outperform a previously proposed heuristic policy.
翻訳日:2021-03-09 15:57:39 公開日:2021-03-07
# CORe:バンディット探索における報酬の活用

CORe: Capitalizing On Rewards in Bandit Exploration ( http://arxiv.org/abs/2103.04387v1 )

ライセンス: Link先を確認
Nan Wang, Branislav Kveton, Maryam Karimzadehgan(参考訳) 過去の観測をランダム化して純粋に探索するバンディットアルゴリズムを提案する。 特に、平均報酬推定における十分な楽観性は、過去の観測された報酬の分散を利用して達成される。 我々は報酬(コア)に乗じたアルゴリズムを命名する。 アルゴリズムは一般的であり、様々なバンディット設定に容易に適用できる。 COReの主な利点は、その探索が完全にデータに依存していることです。 外部ノイズに依存しず、パラメータチューニングなしでさまざまな問題に適応します。 我々は、$d$が特徴の数であり、$K$が腕の数である確率的な線形バンドイットにおいて、$n$-roundのCOReの後悔に、$\tilde O(d\sqrt{n\log K})$のギャップフリー境界を導出する。 複数の合成および実世界の問題に関する広範な経験的評価は、COReの有効性を示す。

We propose a bandit algorithm that explores purely by randomizing its past observations. In particular, the sufficient optimism in the mean reward estimates is achieved by exploiting the variance in the past observed rewards. We name the algorithm Capitalizing On Rewards (CORe). The algorithm is general and can be easily applied to different bandit settings. The main benefit of CORe is that its exploration is fully data-dependent. It does not rely on any external noise and adapts to different problems without parameter tuning. We derive a $\tilde O(d\sqrt{n\log K})$ gap-free bound on the $n$-round regret of CORe in a stochastic linear bandit, where $d$ is the number of features and $K$ is the number of arms. Extensive empirical evaluation on multiple synthetic and real-world problems demonstrates the effectiveness of CORe.
翻訳日:2021-03-09 15:57:10 公開日:2021-03-07
# 逆強化学習のサンプル複雑性のための下界

A Lower Bound for the Sample Complexity of Inverse Reinforcement Learning ( http://arxiv.org/abs/2103.04446v1 )

ライセンス: Link先を確認
Abi Komanduru, Jean Honorio(参考訳) 逆強化学習(IRL)は、与えられたマルコフ決定プロセス(MDP)に対して望ましい最適ポリシーを生成する報酬関数を求めるタスクである。 本稿では, 有限状態, 有限作用IRL問題のサンプル複雑性に対する情報理論の下界について述べる。 球面符号を用いた $\beta$-strict separable IRL 問題の幾何学的構成を考える。 生成した軌跡間のkullback-leibler発散と同様にアンサンブルサイズの性質を導出する。 結果として得られるアンサンブルはファノの不等式とともに、mdp 内の状態数である $n$ で$o(n \log n)$ 以下のサンプル複雑性を導出するために用いられる。

Inverse reinforcement learning (IRL) is the task of finding a reward function that generates a desired optimal policy for a given Markov Decision Process (MDP). This paper develops an information-theoreti c lower bound for the sample complexity of the finite state, finite action IRL problem. A geometric construction of $\beta$-strict separable IRL problems using spherical codes is considered. Properties of the ensemble size as well as the Kullback-Leibler divergence between the generated trajectories are derived. The resulting ensemble is then used along with Fano's inequality to derive a sample complexity lower bound of $O(n \log n)$, where $n$ is the number of states in the MDP.
翻訳日:2021-03-09 15:56:56 公開日:2021-03-07
# クラスカプセルの識別力に向けたルーティング

Routing Towards Discriminative Power of Class Capsules ( http://arxiv.org/abs/2103.04278v1 )

ライセンス: Link先を確認
Haoyu Yang, Shuhe Li, Bei Yu(参考訳) カプセルネットワークは最近、現代のニューラルネットワークアーキテクチャの代替として提案されている。 ニューロンは、正常化されたベクトルまたは行列を持つ特定の特徴または実体を表すカプセルユニットに置き換えられる。 下層カプセルの活性化は、特定のルーティングアルゴリズムによって訓練中に構築されるルーティングリンクを介して、以下のカプセルの挙動に影響する。 本稿では,ネットワークを最適性から遠ざける動的ルーティングアルゴリズムにおけるルーティング・バイ・アグリーメントスキームについて考察する。 より良く,より高速な収束を得るため,規則化された二次プログラミング問題を効率的に解くことができるルーティングアルゴリズムを提案する。 特に,提案したルーティングアルゴリズムは,入力インスタンスの正しい判定を行うクラスカプセルの識別力を直接ターゲットとする。 mnist,mnist-fashion, cifar-10の実験を行い,既存のカプセルネットワークと比較して競合分類結果を示す。

Capsule networks are recently proposed as an alternative to modern neural network architectures. Neurons are replaced with capsule units that represent specific features or entities with normalized vectors or matrices. The activation of lower layer capsules affects the behavior of the following capsules via routing links that are constructed during training via certain routing algorithms. We discuss the routing-by-agreement scheme in dynamic routing algorithm which, in certain cases, leads the networks away from optimality. To obtain better and faster convergence, we propose a routing algorithm that incorporates a regularized quadratic programming problem which can be solved efficiently. Particularly, the proposed routing algorithm targets directly on the discriminative power of class capsules making the correct decision on input instances. We conduct experiments on MNIST, MNIST-Fashion, and CIFAR-10 and show competitive classification results compared to existing capsule networks.
翻訳日:2021-03-09 15:55:23 公開日:2021-03-07
# 階層的自己注意に基づく人的活動認識のためのオートエンコーダ

Hierarchical Self Attention Based Autoencoder for Open-Set Human Activity Recognition ( http://arxiv.org/abs/2103.04279v1 )

ライセンス: Link先を確認
M Tanjid Hasan Tonmoy, Saif Mahmud, A K M Mahbubur Rahman, M Ashraful Amin, and Amin Ahsan Ali(参考訳) ウェアラブルセンサーベースの人間の活動認識は、センサー信号の空間的および時間的依存性のモデリングが困難であるため、困難な問題です。 閉集合仮定における認識モデルは、既知のアクティビティクラスのメンバを予測として生成しなければならない。 しかし, 運動認識モデルでは, 身体感覚の異常や, 動作中の被験者の障害により, 目に見えない活動に遭遇する可能性がある。 この問題は、オープンセット認識の仮定に従ってモデリングソリューションを通じて対処することができる。 したがって、提案した自己注意ベースのアプローチは、さまざまなセンサー配置からのデータを階層的に組み合わせてクローズドセットアクティビティを分類し、5つの公開データセット上での最先端モデルに対する顕著なパフォーマンス改善を得る。 このオートエンコーダアーキテクチャのデコーダには、エンコーダからの自己認識に基づく特徴表現が組み込まれ、オープンセット認識設定で未確認のアクティビティクラスを検出する。 さらに、階層モデルによって生成された注目マップは、アクティビティ認識における特徴の説明可能な選択を示す。 本研究は,騒音に対する頑健性および体温センサ信号の特異的変動性を著しく改善した検証実験を広範囲に実施する。 ソースコードはgithub.com/saif-mahm ud/hierarchical-atte ntion-HARで入手できる。

Wearable sensor based human activity recognition is a challenging problem due to difficulty in modeling spatial and temporal dependencies of sensor signals. Recognition models in closed-set assumption are forced to yield members of known activity classes as prediction. However, activity recognition models can encounter an unseen activity due to body-worn sensor malfunction or disability of the subject performing the activities. This problem can be addressed through modeling solution according to the assumption of open-set recognition. Hence, the proposed self attention based approach combines data hierarchically from different sensor placements across time to classify closed-set activities and it obtains notable performance improvement over state-of-the-art models on five publicly available datasets. The decoder in this autoencoder architecture incorporates self-attention based feature representations from encoder to detect unseen activity classes in open-set recognition setting. Furthermore, attention maps generated by the hierarchical model demonstrate explainable selection of features in activity recognition. We conduct extensive leave one subject out validation experiments that indicate significantly improved robustness to noise and subject specific variability in body-worn sensor signals. The source code is available at: github.com/saif-mahm ud/hierarchical-atte ntion-HAR
翻訳日:2021-03-09 15:55:10 公開日:2021-03-07
# 単発セマンティック部品セグメンテーションのためのGANの再利用

Repurposing GANs for One-shot Semantic Part Segmentation ( http://arxiv.org/abs/2103.04379v1 )

ライセンス: Link先を確認
Nontawat Tritrong, Pitchaporn Rewatbowornwong, Supasorn Suwajanakorn(参考訳) GANは現実的な画像生成に成功したが、合成とは無関係な他のタスクにGANを使用することのアイデアは明らかにされていない。 GANは、それらのオブジェクトを再生する過程で、オブジェクトの有意義な構造的部分を学ぶか? そこで本研究では,この仮説を検証し,ラベルなしデータセットとともにラベルを1つも必要としない,意味部分セグメンテーションのためのgansに基づく単純かつ効果的なアプローチを提案する。 我々のキーとなるアイデアは、訓練されたGANを利用して、入力画像からピクセルワイズ表現を抽出し、セグメンテーションネットワークのための特徴ベクトルとして利用することです。 我々の実験は、GANの表現が「可読的に差別的」であり、かなり多くのラベルで訓練された教師付きベースラインと同等の驚くほど良い結果をもたらすことを示した。 我々は、gansのこの新しい再提案は、他の多くのタスクに適用可能な教師なし表現学習の新たなクラスであると信じている。 詳細は https://repurposegan s.github.io/ をご覧ください。

While GANs have shown success in realistic image generation, the idea of using GANs for other tasks unrelated to synthesis is underexplored. Do GANs learn meaningful structural parts of objects during their attempt to reproduce those objects? In this work, we test this hypothesis and propose a simple and effective approach based on GANs for semantic part segmentation that requires as few as one label example along with an unlabeled dataset. Our key idea is to leverage a trained GAN to extract pixel-wise representation from the input image and use it as feature vectors for a segmentation network. Our experiments demonstrate that GANs representation is "readily discriminative" and produces surprisingly good results that are comparable to those from supervised baselines trained with significantly more labels. We believe this novel repurposing of GANs underlies a new class of unsupervised representation learning that is applicable to many other tasks. More results are available at https://repurposegan s.github.io/.
翻訳日:2021-03-09 15:54:51 公開日:2021-03-07
# 空間変換領域の感度不一致からの逆例の検出

Detecting Adversarial Examples from Sensitivity Inconsistency of Spatial-Transform Domain ( http://arxiv.org/abs/2103.04302v1 )

ライセンス: Link先を確認
Jinyu Tian, Jiantao Zhou, Yuanman Li, Jia Duan(参考訳) ディープニューラルネットワーク(DNN)は、劇的なモデル出力エラーを引き起こすように悪質に設計された敵の例(AE)に対して脆弱であることが示されている。 本研究では、通常の例(NE)は、決定境界の高度に湾曲した領域で発生する変動に敏感であるのに対し、AEは1つの領域(主に空間領域)上に設計され、そのような変動に対して極端に敏感であることを示す。 この現象は、感度の不整合により、元の分類器(原始分類器)と協調してAEを検出することができる変換決定境界を持つ別の分類器(二重分類器)を設計する動機となる。 LID(Local Intrinsic Dimensionality)、MD(Mahalanobis Distance)、FS(Feature Squeezing)に基づく最先端のアルゴリズムと比較して、提案された感度インシネンスディテクタ(SID)は、特に敵対的な摂動レベルが小さい場合において、AE検出性能と優れた一般化能力の向上を実現します。 ResNet と VGG の総合的な実験結果から,提案した SID の優位性を検証した。

Deep neural networks (DNNs) have been shown to be vulnerable against adversarial examples (AEs), which are maliciously designed to cause dramatic model output errors. In this work, we reveal that normal examples (NEs) are insensitive to the fluctuations occurring at the highly-curved region of the decision boundary, while AEs typically designed over one single domain (mostly spatial domain) exhibit exorbitant sensitivity on such fluctuations. This phenomenon motivates us to design another classifier (called dual classifier) with transformed decision boundary, which can be collaboratively used with the original classifier (called primal classifier) to detect AEs, by virtue of the sensitivity inconsistency. When comparing with the state-of-the-art algorithms based on Local Intrinsic Dimensionality (LID), Mahalanobis Distance (MD), and Feature Squeezing (FS), our proposed Sensitivity Inconsistency Detector (SID) achieves improved AE detection performance and superior generalization capabilities, especially in the challenging cases where the adversarial perturbation levels are small. Intensive experimental results on ResNet and VGG validate the superiority of the proposed SID.
翻訳日:2021-03-09 15:47:27 公開日:2021-03-07
# MTLHealth: 学生の摂動コンテンツ検出のための深層学習システム

MTLHealth: A Deep Learning System for Detecting Disturbing Contentin Student Essays ( http://arxiv.org/abs/2103.04290v1 )

ライセンス: Link先を確認
Joseph Valencia, Erin Yao(参考訳) ACTのような標準化されたテストへのエッセイの提出には、いじめ、自己害、暴力、および邪魔となるコンテンツの他の形態への言及が含まれる。 生徒はこのような事件を識別し、危険にさらされている可能性のある学生のために当局に警告するかどうかを判断しなければならない。 コンテンツが乱れる可能性を自動で警告することで、人間の意思決定を支援する堅牢なコンピュータシステムの必要性が高まっている。 本稿では,計算言語学,特に事前学習型言語モデルトランスフォーマーネットワークの最近の進歩を中心に構築された,乱れたコンテンツ検出パイプラインであるMTLHealthについて述べる。

Essay submissions to standardized tests like the ACT occasionally include references to bullying, self-harm, violence, and other forms of disturbing content. Graders must take great care to identify cases like these and decide whether to alert authorities on behalf of students who may be in danger. There is a growing need for robust computer systems to support human decision-makers by automatically flagging potential instances of disturbing content. This paper describes MTLHealth, a disturbing content detection pipeline built around recent advances from computational linguistics, particularly pre-trained language model Transformer networks.
翻訳日:2021-03-09 15:45:44 公開日:2021-03-07
# Syntax-BERT: シンタックスツリーによるプリトレーニングトランスの改善

Syntax-BERT: Improving Pre-trained Transformers with Syntax Trees ( http://arxiv.org/abs/2103.04350v1 )

ライセンス: Link先を確認
Jiangang Bai, Yujing Wang, Yiren Chen, Yaming Yang, Jing Bai, Jing Yu, Yunhai Tong(参考訳) BERTのような事前訓練された言語モデルは、構文情報を明確に考慮することなく、様々なNLPタスクで優れたパフォーマンスを実現します。 一方、シンタクティック情報はNLPアプリケーションの成功に不可欠であることが証明されています。 しかし、構文木を効率的に効率的にトレーニング済みのTransformerに組み込む方法はまだ未定である。 本稿では,syntax-bertという新しいフレームワークを提案することで,この問題に解決する。 このフレームワークはプラグアンドプレイモードで動作し、Transformerアーキテクチャに基づく任意の事前トレーニングされたチェックポイントに適用できる。 自然言語理解のさまざまなデータセットの実験は、構文木の有効性を検証し、BERT、RoBERTa、T5を含む複数の事前学習モデルに対して一貫した改善を実現する。

Pre-trained language models like BERT achieve superior performances in various NLP tasks without explicit consideration of syntactic information. Meanwhile, syntactic information has been proved to be crucial for the success of NLP applications. However, how to incorporate the syntax trees effectively and efficiently into pre-trained Transformers is still unsettled. In this paper, we address this problem by proposing a novel framework named Syntax-BERT. This framework works in a plug-and-play mode and is applicable to an arbitrary pre-trained checkpoint based on Transformer architecture. Experiments on various datasets of natural language understanding verify the effectiveness of syntax trees and achieve consistent improvement over multiple pre-trained models, including BERT, RoBERTa, and T5.
翻訳日:2021-03-09 15:45:33 公開日:2021-03-07
# 共感的BERT2BERT会話モデル:少ないデータでアラビア語生成を学習する

Empathetic BERT2BERT Conversational Model: Learning Arabic Language Generation with Little Data ( http://arxiv.org/abs/2103.04353v1 )

ライセンス: Link先を確認
Tarek Naous, Wissam Antoun, Reem A. Mahmoud, and Hazem Hajj(参考訳) アラビア語対話エージェントにおける共感行動の実現は、人間のような会話モデルを構築する上で重要な側面である。 アラビア自然言語処理はAraBERTのような言語モデルで自然言語理解(NLU)に大きな進歩を遂げているが、自然言語生成(NLG)は依然として課題である。 NLGエンコーダデコーダモデルの欠点は、主に会話エージェントなどのNLGモデルのトレーニングに適したアラビア語データセットがないためです。 そこで本論文では,AraBERTパラメータを初期化したトランスベースのエンコーダデコーダを提案する。 エンコーダとデコーダの重みをAraBERT事前学習重みで初期化することにより,本モデルでは知識伝達の活用と応答生成の性能向上を実現した。 会話モデルにおける共感を可能にするために, arabicempatheticdial oguesデータセットを用いて学習し, 共感応答生成における高いパフォーマンスを達成する。 具体的には,従来の最先端モデルと比較して,低パープレキシティ値 17.0 と 5 BLEU 点の増加を達成した。 また,提案モデルは85人の評価者によって高く評価され,オープンドメイン設定において,共感を呈示する上で高い能力が検証された。

Enabling empathetic behavior in Arabic dialogue agents is an important aspect of building human-like conversational models. While Arabic Natural Language Processing has seen significant advances in Natural Language Understanding (NLU) with language models such as AraBERT, Natural Language Generation (NLG) remains a challenge. The shortcomings of NLG encoder-decoder models are primarily due to the lack of Arabic datasets suitable to train NLG models such as conversational agents. To overcome this issue, we propose a transformer-based encoder-decoder initialized with AraBERT parameters. By initializing the weights of the encoder and decoder with AraBERT pre-trained weights, our model was able to leverage knowledge transfer and boost performance in response generation. To enable empathy in our conversational model, we train it using the ArabicEmpatheticDial ogues dataset and achieve high performance in empathetic response generation. Specifically, our model achieved a low perplexity value of 17.0 and an increase in 5 BLEU points compared to the previous state-of-the-art model. Also, our proposed model was rated highly by 85 human evaluators, validating its high capability in exhibiting empathy while generating relevant and fluent responses in open-domain settings.
翻訳日:2021-03-09 15:45:22 公開日:2021-03-07
# アラビア語文の自動難易度分類

Automatic Difficulty Classification of Arabic Sentences ( http://arxiv.org/abs/2103.04386v1 )

ライセンス: Link先を確認
Nouran Khallaf, Serge Sharoff(参考訳) 本論文では,CEFRの習熟度レベルと2進分分類を単純あるいは複雑として用いた言語学習者の文の難易度を予測する,現代標準アラビア語(MSA)文難易度分類器を提案する。 異なる種類の文埋め込み(fastText, mBERT, XLM-R, Arabic-BERT)とPOSタグ, 依存性木, 可読性スコア, 言語学習者の頻度リストなど, 従来の言語機能との比較を行った。 きめ細やかなアラビア-BERTで最高の結果が得られました。 3方向cefr分類の精度はアラビア語-bert分類では0.80, xlm-r分類では0.75, 回帰では0.71スピアマン相関である。 我々の二項難易度分類器は文対意味類似度分類器の F-1 0.94 と F-1 0.98 に達する。

In this paper, we present a Modern Standard Arabic (MSA) Sentence difficulty classifier, which predicts the difficulty of sentences for language learners using either the CEFR proficiency levels or the binary classification as simple or complex. We compare the use of sentence embeddings of different kinds (fastText, mBERT , XLM-R and Arabic-BERT), as well as traditional language features such as POS tags, dependency trees, readability scores and frequency lists for language learners. Our best results have been achieved using fined-tuned Arabic-BERT. The accuracy of our 3-way CEFR classification is F-1 of 0.80 and 0.75 for Arabic-Bert and XLM-R classification respectively and 0.71 Spearman correlation for regression. Our binary difficulty classifier reaches F-1 0.94 and F-1 0.98 for sentence-pair semantic similarity classifier.
翻訳日:2021-03-09 15:45:01 公開日:2021-03-07
# スキーマ依存学習によるテキストからSQLへの改善

Improving Text-to-SQL with Schema Dependency Learning ( http://arxiv.org/abs/2103.04399v1 )

ライセンス: Link先を確認
Binyuan Hui, Xiang Shi, Ruiying Geng, Binhua Li, Yongbin Li, Jian Sun, Xiaodan Zhu(参考訳) Text-to-SQLは自然言語の質問をSQLクエリにマップすることを目的としている。 スケッチベースの手法と実行誘導(EG)デコーディング戦略を組み合わせることで、WikiSQLベンチマークでは高いパフォーマンスを示している。 しかし、実行誘導型デコーディングはデータベースの実行に依存しており、推論プロセスが大幅に遅くなるため、多くの現実世界のアプリケーションには不満足である。 本稿では、質問とスキーマ間の相互作用を効果的に捉えるためのネットワークをガイドするために、スキーマ依存性ガイド付きマルチタスクテキスト・ツー・SQLモデル(SDSQL)を紹介します。 提案モデルは,eg の有無に関わらず,既存のメソッドをすべて上回っている。 スキーマ依存性の学習は、EGのメリットを部分的にカバーし、その必要性を軽減します。 EGなしのSDSQLは、推論時の時間消費を大幅に削減し、少数のパフォーマンスを犠牲にし、ダウンストリームアプリケーションに柔軟性を提供します。

Text-to-SQL aims to map natural language questions to SQL queries. The sketch-based method combined with execution-guided (EG) decoding strategy has shown a strong performance on the WikiSQL benchmark. However, execution-guided decoding relies on database execution, which significantly slows down the inference process and is hence unsatisfactory for many real-world applications. In this paper, we present the Schema Dependency guided multi-task Text-to-SQL model (SDSQL) to guide the network to effectively capture the interactions between questions and schemas. The proposed model outperforms all existing methods in both the settings with or without EG. We show the schema dependency learning partially cover the benefit from EG and alleviates the need for it. SDSQL without EG significantly reduces time consumption during inference, sacrificing only a small amount of performance and provides more flexibility for downstream applications.
翻訳日:2021-03-09 15:44:44 公開日:2021-03-07
# 仮想常態:精度とロバスト深さ予測のための幾何学的制約を強制する

Virtual Normal: Enforcing Geometric Constraintsfor Accurate and Robust Depth Prediction ( http://arxiv.org/abs/2103.04216v1 )

ライセンス: Link先を確認
Wei Yin and Yifan Liu and Chunhua Shen(参考訳) 単眼深度予測は3次元シーン形状の理解において重要な役割を担っている。 近年の手法は画素単位の相対誤差などの評価指標で顕著な進歩を遂げているが、ほとんどの手法は3次元空間における幾何的制約を無視している。 本研究では,深度予測のための高次3次元幾何学的制約の重要性を示す。 再構成された3次元空間でランダムにサンプリングされた3点によって決定される仮想正規方向という単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に向上させる。 重要なことは、仮想正規損失は、学習メートル法深度の性能を向上するだけでなく、スケール情報を解き、より優れた形状情報でモデルを豊かにする。 したがって、絶対距離深度トレーニングデータにアクセスできない場合、仮想正規法を用いて多様なシーンで生成される強固なアフィン不変深さを学ぶことができる。 実験では,NYU Depth-V2 と KITTI の学習深度について,最先端の学習結果を示す。 高品質の予測深度から、ポイント雲や表面の正常といったシーンの優れた3次元構造を復元することが可能となり、これまでやってきたような追加モデルに頼る必要がなくなる。 仮想正規損失による多様なデータに対するアフィン不変深度学習の汎用性を示すために、アフィン不変深度トレーニングのための大規模かつ多様なデータセット、いわゆるDiverse Scene Depthデータセット(DiverseDepth)を構築し、ゼロショットテスト設定で5つのデータセットをテストする。

Monocular depth prediction plays a crucial role in understanding 3D scene geometry. Although recent methods have achieved impressive progress in terms of evaluation metrics such as the pixel-wise relative error, most methods neglect the geometric constraints in the 3D space. In this work, we show the importance of the high-order 3D geometric constraints for depth prediction. By designing a loss term that enforces a simple geometric constraint, namely, virtual normal directions determined by randomly sampled three points in the reconstructed 3D space, we significantly improve the accuracy and robustness of monocular depth estimation. Significantly, the virtual normal loss can not only improve the performance of learning metric depth, but also disentangle the scale information and enrich the model with better shape information. Therefore, when not having access to absolute metric depth training data, we can use virtual normal to learn a robust affine-invariant depth generated on diverse scenes. In experiments, We show state-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI. From the high-quality predicted depth, we are now able to recover good 3D structures of the scene such as the point cloud and surface normal directly, eliminating the necessity of relying on additional models as was previously done. To demonstrate the excellent generalizability of learning affine-invariant depth on diverse data with the virtual normal loss, we construct a large-scale and diverse dataset for training affine-invariant depth, termed Diverse Scene Depth dataset (DiverseDepth), and test on five datasets with the zero-shot test setting.
翻訳日:2021-03-09 15:40:32 公開日:2021-03-07
# MeGA-CDA: カテゴリ別非監視ドメイン適応オブジェクト検出のためのメモリガイド注意

MeGA-CDA: Memory Guided Attention for Category-Aware Unsupervised Domain Adaptive Object Detection ( http://arxiv.org/abs/2103.04224v1 )

ライセンス: Link先を確認
Vibashan VS, Poojan Oza, Vishwanath A. Sindagi, Vikram Gupta, Vishal M. Patel(参考訳) 教師なしドメイン適応オブジェクト検出のための既存のアプローチは、逆訓練によって機能アライメントを実行する。 これらの手法は性能を合理的に改善するが、典型的にはカテゴリーに依存しない領域アライメントを行い、結果として特徴の負の移動をもたらす。 そこで本研究では,カテゴリ・アウェア・ドメイン適応(MeGA-CDA)のためのメモリガイドアテンションを提案することで,カテゴリ情報をドメイン適応プロセスに組み込もうとする。 提案手法は,カテゴリー別識別器を用いて,カテゴリ別識別特徴を学習するためのカテゴリ別特徴アライメントを保証する。 しかし,対象のサンプルではカテゴリ情報が利用できないため,その特徴を対応するカテゴリ判別器に適切にルーティングするために,メモリガイド付きカテゴリ特異的注意マップを作成することを提案する。 提案手法はいくつかのベンチマークデータセットで評価され,既存のアプローチを上回っていることが示された。

Existing approaches for unsupervised domain adaptive object detection perform feature alignment via adversarial training. While these methods achieve reasonable improvements in performance, they typically perform category-agnostic domain alignment, thereby resulting in negative transfer of features. To overcome this issue, in this work, we attempt to incorporate category information into the domain adaptation process by proposing Memory Guided Attention for Category-Aware Domain Adaptation (MeGA-CDA). The proposed method consists of employing category-wise discriminators to ensure category-aware feature alignment for learning domain-invariant discriminative features. However, since the category information is not available for the target samples, we propose to generate memory-guided category-specific attention maps which are then used to route the features appropriately to the corresponding category discriminator. The proposed method is evaluated on several benchmark datasets and is shown to outperform existing approaches.
翻訳日:2021-03-09 15:40:04 公開日:2021-03-07
# ディープグラフマッチングに基づくロバストポイントクラウド登録フレームワーク

Robust Point Cloud Registration Framework Based on Deep Graph Matching ( http://arxiv.org/abs/2103.04256v1 )

ライセンス: Link先を確認
Kexue Fu and Shaolei Liu and Xiaoyuan Luo and Manning Wang(参考訳) 3Dポイントクラウド登録は、コンピュータビジョンとロボティクスにおける基本的な問題です。 この分野では広範な研究が行われてきたが、既存の手法は、多くの異常値と時間的制約がある状況において大きな課題を満たしている。 近年,学習に基づくアルゴリズムが多数導入され,高速化のメリットが示された。 それらの多くは2つの点雲間の対応に基づいているため、変換初期化に依存しない。 しかし、これらの学習に基づく手法は外れ値に敏感であり、より誤った対応をもたらす。 本稿では,ポイントクラウド登録のための新しいディープグラフマッチングベースのフレームワークを提案する。 具体的には、まず点雲をグラフに変換し、各点の深い特徴を抽出する。 そこで我々は, 深部グラフマッチングに基づくモジュールを開発し, ソフト対応行列を計算した。 グラフマッチングを用いることで、各点の局所幾何学だけでなく、より広い範囲におけるその構造やトポロジーも対応付けを確立することで、より正確な対応が見出される。 通信上で直接定義された損失でネットワークを訓練し、テスト段階ではソフト対応をハードな1対1対応に変換し、単価分解により登録が行えるようにします。 さらに,グラフ構築のためのエッジを生成するトランスベース手法を導入し,対応文の品質をさらに向上させる。 クリーン,ノイズ,部分的・部分的・不可視のカテゴリー点雲の登録実験により,提案手法が最先端の性能を達成することを示す。 コードはhttps://github.com/f ukexue/RGMで公開される。

3D point cloud registration is a fundamental problem in computer vision and robotics. There has been extensive research in this area, but existing methods meet great challenges in situations with a large proportion of outliers and time constraints, but without good transformation initialization. Recently, a series of learning-based algorithms have been introduced and show advantages in speed. Many of them are based on correspondences between the two point clouds, so they do not rely on transformation initialization. However, these learning-based methods are sensitive to outliers, which lead to more incorrect correspondences. In this paper, we propose a novel deep graph matchingbased framework for point cloud registration. Specifically, we first transform point clouds into graphs and extract deep features for each point. Then, we develop a module based on deep graph matching to calculate a soft correspondence matrix. By using graph matching, not only the local geometry of each point but also its structure and topology in a larger range are considered in establishing correspondences, so that more correct correspondences are found. We train the network with a loss directly defined on the correspondences, and in the test stage the soft correspondences are transformed into hard one-to-one correspondences so that registration can be performed by singular value decomposition. Furthermore, we introduce a transformer-based method to generate edges for graph construction, which further improves the quality of the correspondences. Extensive experiments on registering clean, noisy, partial-to-partial and unseen category point clouds show that the proposed method achieves state-of-the-art performance. The code will be made publicly available at https://github.com/f ukexue/RGM.
翻訳日:2021-03-09 15:39:47 公開日:2021-03-07
# リフレクションフリーフラッシュのみによるロバスト反射除去

Robust Reflection Removal with Reflection-free Flash-only Cues ( http://arxiv.org/abs/2103.04273v1 )

ライセンス: Link先を確認
Chenyang Lei and Qifeng Chen(参考訳) フラッシュとアンビエント(非フラッシュ)の2つの画像から、堅牢な反射除去のためのシンプルで効果的な反射レスキューを提案します。 反射フリーキューは、対応するフラッシュ画像から周囲画像を原データ空間に減じて得られるフラッシュ専用画像を利用する。 フラッシュのみの画像は、フラッシュオンのみの暗い環境で撮影された画像と同等である。 このフラッシュのみの画像は視覚的に反射しないため、周囲画像の反射を推測するロバストな手がかりが得られる。 フラッシュのみの画像には通常アーティファクトがあるため、反射のないキューを利用するだけでなく、反射と透過を正確に推定するアーティファクトの導入を避ける専用モデルも提案する。 私たちのモデルはPSNRの5.23dB、SSIMの0.04、LPIPSの0.068以上の最先端の反射除去アプローチを上回っています。 ソースコードとデータセットは \href{https://github.com/C henyangLEI/flash-ref lection-removal}{このウェブサイト} で公開されます。

We propose a simple yet effective reflection-free cue for robust reflection removal from a pair of flash and ambient (no-flash) images. The reflection-free cue exploits a flash-only image obtained by subtracting the ambient image from the corresponding flash image in raw data space. The flash-only image is equivalent to an image taken in a dark environment with only a flash on. We observe that this flash-only image is visually reflection-free, and thus it can provide robust cues to infer the reflection in the ambient image. Since the flash-only image usually has artifacts, we further propose a dedicated model that not only utilizes the reflection-free cue but also avoids introducing artifacts, which helps accurately estimate reflection and transmission. Our experiments on real-world images with various types of reflection demonstrate the effectiveness of our model with reflection-free flash-only cues: our model outperforms state-of-the-art reflection removal approaches by more than 5.23dB in PSNR, 0.04 in SSIM, and 0.068 in LPIPS. Our source code and dataset will be publicly available at \href{https://github.com/C henyangLEI/flash-ref lection-removal}{this website}.
翻訳日:2021-03-09 15:39:23 公開日:2021-03-07
# 教師なしクロスドメイン翻訳のための交代MCMC指導による学習サイクル一貫性協調ネットワーク

Learning Cycle-Consistent Cooperative Networks via Alternating MCMC Teaching for Unsupervised Cross-Domain Translation ( http://arxiv.org/abs/2103.04285v1 )

ライセンス: Link先を確認
Jianwen Xie, Zilong Zheng, Xiaolin Fang, Song-Chun Zhu, Ying Nian Wu(参考訳) 本稿では,各領域の確率分布をエネルギーベースモデルと潜在変数モデルからなる生成協調ネットワークで表現する生成フレームワークを提案することにより,教師なしのクロスドメイン翻訳問題について検討する。 生成協調ネットワークを利用することで、MCMC教育によるドメインモデルの最大限の学習が可能となり、エネルギーベースモデルでは、ドメインのデータ分布に適合し、MCMCを介して潜在変数モデルにその知識を蒸留する。 具体的には、MCMCの指導過程において、エンコーダデコーダによりパラメータ化された潜在変数モデルは、ソースドメインから対象ドメインにマッピングする一方、エネルギーベースモデルは、学習エネルギー関数によって定義される統計特性の観点から、修正結果が対象ドメインの例と一致するように、ランゲヴィンリビジョンによってマッピングされた結果をさらに洗練する。 2つのドメイン間の対応を構築するために,MCMC教育の交互化により,2つのドメイン間の双方向翻訳を考慮し,サイクル整合性のある協調ネットワークのペアを同時に学習する。 提案手法は,教師なし画像から画像への変換とペアなし画像のシーケンス変換に有用であることを示す。

This paper studies the unsupervised cross-domain translation problem by proposing a generative framework, in which the probability distribution of each domain is represented by a generative cooperative network that consists of an energy-based model and a latent variable model. The use of generative cooperative network enables maximum likelihood learning of the domain model by MCMC teaching, where the energy-based model seeks to fit the data distribution of domain and distills its knowledge to the latent variable model via MCMC. Specifically, in the MCMC teaching process, the latent variable model parameterized by an encoder-decoder maps examples from the source domain to the target domain, while the energy-based model further refines the mapped results by Langevin revision such that the revised results match to the examples in the target domain in terms of the statistical properties, which are defined by the learned energy function. For the purpose of building up a correspondence between two unpaired domains, the proposed framework simultaneously learns a pair of cooperative networks with cycle consistency, accounting for a two-way translation between two domains, by alternating MCMC teaching. Experiments show that the proposed framework is useful for unsupervised image-to-image translation and unpaired image sequence translation.
翻訳日:2021-03-09 15:39:03 公開日:2021-03-07
# RFN-Nest:赤外・可視画像のためのエンドツーエンド残差核融合ネットワーク

RFN-Nest: An end-to-end residual fusion network for infrared and visible images ( http://arxiv.org/abs/2103.04286v1 )

ライセンス: Link先を確認
Hui Li, Xiao-Jun Wu, Josef Kittler(参考訳) 画像融合分野では、深層学習に基づく融合法の設計は日常的ではない。 それは常に融合タスク特異的であり、慎重な考慮が必要です。 設計の最も難しい部分は、特定のタスクの融合画像を生成するための適切な戦略を選択することです。 したがって、学習可能な融合戦略の考案は、画像融合のコミュニティで非常に困難な問題です。 この問題を解決するために、赤外線および可視画像融合のための新しいエンドツーエンド融合ネットワークアーキテクチャ(RFN-Nest)を開発した。 本稿では,従来の核融合方式を代替する残差構造に基づく残差核融合ネットワーク(RFN)を提案する。 RFNを訓練するために、新しい詳細保存損失関数と機能強化損失関数が提案される。 融合モデル学習は、新しい二段階学習戦略によって達成される。 最初の段階では、革新的なネスト接続(Nest)の概念に基づいて自動エンコーダをトレーニングします。 次に、提案された損失関数を用いてrfnを訓練する。 パブリックドメインデータセットにおける実験結果は,既存の手法と比較して,主観的および客観的評価において,エンドツーエンドのフュージョンネットワークが最先端の手法よりも優れた性能を提供することを示した。 私たちの融合メソッドのコードはhttps://github.com/h li1221/imagefusion-r fn-nestで入手できます。

In the image fusion field, the design of deep learning-based fusion methods is far from routine. It is invariably fusion-task specific and requires a careful consideration. The most difficult part of the design is to choose an appropriate strategy to generate the fused image for a specific task in hand. Thus, devising learnable fusion strategy is a very challenging problem in the community of image fusion. To address this problem, a novel end-to-end fusion network architecture (RFN-Nest) is developed for infrared and visible image fusion. We propose a residual fusion network (RFN) which is based on a residual architecture to replace the traditional fusion approach. A novel detail-preserving loss function, and a feature enhancing loss function are proposed to train RFN. The fusion model learning is accomplished by a novel two-stage training strategy. In the first stage, we train an auto-encoder based on an innovative nest connection (Nest) concept. Next, the RFN is trained using the proposed loss functions. The experimental results on public domain data sets show that, compared with the existing methods, our end-to-end fusion network delivers a better performance than the state-of-the-art methods in both subjective and objective evaluation. The code of our fusion method is available at https://github.com/h li1221/imagefusion-r fn-nest
翻訳日:2021-03-09 15:38:39 公開日:2021-03-07
# ハイパースペクトル画像の超解像のための空間スペクトルフィードバックネットワーク

Spatial-Spectral Feedback Network for Super-Resolution of Hyperspectral Imagery ( http://arxiv.org/abs/2103.04354v1 )

ライセンス: Link先を確認
Enhai Liu, Zhenjie Tang, Bin Pan, Zhenwei Shi(参考訳) 近年、深層学習に基づく単一グレー/RGB画像スーパーレゾリューション(SR)法が大きな成功を収めています。 しかし、単一ハイパースペクトル画像超解像の技術的発展を制限するには2つの障害がある。 1つは高スペクトル像の高次元および複雑なスペクトルパターンであり、バンド間の空間情報とスペクトル情報の同時探索が困難である。 もうひとつは、利用可能なハイパースペクトルトレーニングサンプルの数は極めて少なく、ディープニューラルネットワークのトレーニング時にオーバーフィットする可能性があることだ。 そこで本論文では,局所スペクトル帯域間の低レベル表現をグローバルスペクトル帯域から高レベル情報を用いて改善するSSFN(Spatial-Spectra l Feedback Network)を提案する。 ハイパースペクトルデータの高い次元による特徴抽出の難しさを軽減するだけでなく、トレーニングプロセスをより安定させます。 具体的には、そのようなフィードバックの仕方を達成するために、有限展開を持つRNNの隠れ状態を用いる。 SSFB(Spatial-Spectra l Feedback Block)は、空間とスペクトルの事前利用のために、フィードバック接続を処理し、強力な高レベルの表現を生成するように設計されている。 提案したSSFNは早期予測を伴い、最終高分解能ハイパースペクトル像を段階的に再構成することができる。 3つのベンチマークデータセットの大規模な実験結果から,提案したSSFNは最先端手法と比較して優れた性能を示した。 ソースコードはhttps://github.com/t angzhenjie/ssfnで入手できる。

Recently, single gray/RGB image super-resolution (SR) methods based on deep learning have achieved great success. However, there are two obstacles to limit technical development in the single hyperspectral image super-resolution. One is the high-dimensional and complex spectral patterns in hyperspectral image, which make it difficult to explore spatial information and spectral information among bands simultaneously. The other is that the number of available hyperspectral training samples is extremely small, which can easily lead to overfitting when training a deep neural network. To address these issues, in this paper, we propose a novel Spatial-Spectral Feedback Network (SSFN) to refine low-level representations among local spectral bands with high-level information from global spectral bands. It will not only alleviate the difficulty in feature extraction due to high dimensional of hyperspectral data, but also make the training process more stable. Specifically, we use hidden states in an RNN with finite unfoldings to achieve such feedback manner. To exploit the spatial and spectral prior, a Spatial-Spectral Feedback Block (SSFB) is designed to handle the feedback connections and generate powerful high-level representations. The proposed SSFN comes with a early predictions and can reconstruct the final high-resolution hyperspectral image step by step. Extensive experimental results on three benchmark datasets demonstrate that the proposed SSFN achieves superior performance in comparison with the state-of-the-art methods. The source code is available at https://github.com/t angzhenjie/SSFN.
翻訳日:2021-03-09 15:38:18 公開日:2021-03-07
# Insta-RS: ロバスト性と精度を向上するためのインスタンスワイズランダム化スムージング

Insta-RS: Instance-wise Randomized Smoothing for Improved Robustness and Accuracy ( http://arxiv.org/abs/2103.04436v1 )

ライセンス: Link先を確認
Chen Chen, Kezhi Kong, Peihong Yu, Juan Luque, Furong Huang(参考訳) ランダム化平滑化(英: randomized smoothing、rs)は、ニューラルネットワークの分類器を構築するための効果的でスケーラブルな手法である。 ほとんどのrsは、滑らかなモデルの認定された堅牢性を高める優れたベースモデルのトレーニングにフォーカスしています。 しかし、既存のRS技術は全てのデータポイントを同じ扱い、すなわち、滑らかなモデルを形成するために使用されるガウスノイズの分散は、すべてのトレーニングデータとテストデータに対してプリセットされ普遍的である。 このプリセットおよび普遍ガウスノイズ分散は、異なるデータポイントが異なるマージンを持ち、ベースモデルの局所特性が入力例によって異なるため、最適である。 本稿では、サンプルのカスタマイズ処理の影響について検討し、サンプルにカスタマイズされたガウス分散を割り当てるマルチスタート探索アルゴリズムであるインスタンスワイズランダム化平滑化(Insta-RS)を提案する。 また、インスタンスワイズガウス平滑化モデルの認証された堅牢性を高めるベースモデルをトレーニングするために、各トレーニング例のノイズレベルを適応的に調整およびカスタマイズする新しい2段階トレーニングアルゴリズムであるInsta-RS Trainも設計しています。 CIFAR-10 と ImageNet の広範な実験により,本手法は既存の最先端の堅牢な分類器と比較して,平均認証半径 (ACR) とクリーンデータの精度を著しく向上させることを示した。

Randomized smoothing (RS) is an effective and scalable technique for constructing neural network classifiers that are certifiably robust to adversarial perturbations. Most RS works focus on training a good base model that boosts the certified robustness of the smoothed model. However, existing RS techniques treat every data point the same, i.e., the variance of the Gaussian noise used to form the smoothed model is preset and universal for all training and test data. This preset and universal Gaussian noise variance is suboptimal since different data points have different margins and the local properties of the base model vary across the input examples. In this paper, we examine the impact of customized handling of examples and propose Instance-wise Randomized Smoothing (Insta-RS) -- a multiple-start search algorithm that assigns customized Gaussian variances to test examples. We also design Insta-RS Train -- a novel two-stage training algorithm that adaptively adjusts and customizes the noise level of each training example for training a base model that boosts the certified robustness of the instance-wise Gaussian smoothed model. Through extensive experiments on CIFAR-10 and ImageNet, we show that our method significantly enhances the average certified radius (ACR) as well as the clean data accuracy compared to existing state-of-the-art provably robust classifiers.
翻訳日:2021-03-09 15:28:59 公開日:2021-03-07
# マルチエージェントゲームにおける潜在知能レベル推定による人間報酬の学習 : 運転データへの適用による極小アプローチ

Learning Human Rewards by Inferring Their Latent Intelligence Levels in Multi-Agent Games: A Theory-of-Mind Approach with Application to Driving Data ( http://arxiv.org/abs/2103.04289v1 )

ライセンス: Link先を確認
Ran Tian, Masayoshi Tomizuka, and Liting Sun(参考訳) リワード機能は、人間のエージェントを認識し、人間の行動を合理化するインセンティブとして、特に人間とロボットの相互作用における人間の行動のモデル化に魅力がある。 逆強化学習は、デモから報酬関数を取得する効果的な方法です。 しかし,エージェント間の相互影響を適切にモデル化する必要があるため,マルチエージェント設定に適用することは常に困難である。 この課題に取り組むために、以前の研究では、人間を無限の知性を持つ完全合理的なオプティマイザと仮定することによって平衡解の概念を利用するか、人間の相互作用戦略を優先順位付けする。 本研究では、他者の意思決定過程を推論するとき、人間は理性に縛られ、異なる知能レベルを持つことを提唱し、このような固有的および潜在的特性は報酬学習アルゴリズムにおいて考慮されるべきである。 そこで我々は,このような知見を心の理論から活用し,学習中の人間の潜在知性レベルを理由とする,新しい多エージェント逆強化学習フレームワークを提案する。 ゼロサムとジェネラルサムの両方のゲームにおけるアプローチを合成エージェントで検証し、実際の運転データから人間のドライバーの報酬機能を学ぶための実用的なアプリケーションを示しています。 アプローチを2つのベースラインアルゴリズムと比較する。 その結果、人間の潜伏した知能レベルを推察することで、提案手法は人間の運転行動をよりよく説明できる報酬関数をより柔軟かつ高めることができることがわかった。

Reward function, as an incentive representation that recognizes humans' agency and rationalizes humans' actions, is particularly appealing for modeling human behavior in human-robot interaction. Inverse Reinforcement Learning is an effective way to retrieve reward functions from demonstrations. However, it has always been challenging when applying it to multi-agent settings since the mutual influence between agents has to be appropriately modeled. To tackle this challenge, previous work either exploits equilibrium solution concepts by assuming humans as perfectly rational optimizers with unbounded intelligence or pre-assigns humans' interaction strategies a priori. In this work, we advocate that humans are bounded rational and have different intelligence levels when reasoning about others' decision-making process, and such an inherent and latent characteristic should be accounted for in reward learning algorithms. Hence, we exploit such insights from Theory-of-Mind and propose a new multi-agent Inverse Reinforcement Learning framework that reasons about humans' latent intelligence levels during learning. We validate our approach in both zero-sum and general-sum games with synthetic agents and illustrate a practical application to learning human drivers' reward functions from real driving data. We compare our approach with two baseline algorithms. The results show that by reasoning about humans' latent intelligence levels, the proposed approach has more flexibility and capability to retrieve reward functions that explain humans' driving behaviors better.
翻訳日:2021-03-09 15:25:56 公開日:2021-03-07
# 無線エッジネットワークを用いた分散学習のための共同符号化とスケジューリング最適化

Joint Coding and Scheduling Optimization for Distributed Learning over Wireless Edge Networks ( http://arxiv.org/abs/2103.04303v1 )

ライセンス: Link先を確認
Nguyen Van Huynh, Dinh Thai Hoang, Diep N. Nguyen, and Eryk Dutkiewicz(参考訳) 理論的分散学習(DL)とは異なり、無線エッジネットワーク上のDLは、無線接続とエッジノードの固有のダイナミクス/不確実性に直面しており、非常にダイナミックな無線エッジネットワーク(例えばmmWインターフェースを使用して)下でDLを効率性や適用性が低下させる。 本稿では,近年のコーデックコンピューティングとディープデューリングニューラルネットワークアーキテクチャを活用し,これらの問題に対処する。 コード化された構造/冗長性を導入することで、ノードをつまずくのを待つことなく、分散学習タスクを完了することができる。 コード構造のみを最適化する従来のコードドコンピューティングとは異なり、ワイヤレスエッジ上のコードド分散学習では、異種接続によるワイヤレスエッジノードの選択/スケジュール、計算能力、ストラグリング効果も最適化する必要がある。 しかし、前述のダイナミクス/未知性を無視しても、分散学習時間を最小化するためのコーディングとスケジューリングの協調最適化はnpハードであることが判明した。 そこで我々は,無線接続とエッジノードのダイナミクスと不確実性を考慮し,問題をマルコフ決定プロセスとして再構成し,ディープ・デュリングニューラルネットワークアーキテクチャを用いた新しい深層強化学習アルゴリズムを設計し,無線環境とエッジノードのストラグリングパラメータに関する情報を明示することなく,異なる学習タスクのための最適な符号化方式と最良エッジノードを探索する。 シミュレーションでは、提案されたフレームワークは、他のDLアプローチと比較して、無線エッジコンピューティングの平均学習遅延を最大66%削減する。 本記事での共同最適フレームワークは、異種および不確実な計算ノードを持つ任意の分散学習スキームにも適用可能である。

Unlike theoretical distributed learning (DL), DL over wireless edge networks faces the inherent dynamics/uncertainty of wireless connections and edge nodes, making DL less efficient or even inapplicable under the highly dynamic wireless edge networks (e.g., using mmW interfaces). This article addresses these problems by leveraging recent advances in coded computing and the deep dueling neural network architecture. By introducing coded structures/redundanc y, a distributed learning task can be completed without waiting for straggling nodes. Unlike conventional coded computing that only optimizes the code structure, coded distributed learning over the wireless edge also requires to optimize the selection/scheduling of wireless edge nodes with heterogeneous connections, computing capability, and straggling effects. However, even neglecting the aforementioned dynamics/uncertainty , the resulting joint optimization of coding and scheduling to minimize the distributed learning time turns out to be NP-hard. To tackle this and to account for the dynamics and uncertainty of wireless connections and edge nodes, we reformulate the problem as a Markov Decision Process and then design a novel deep reinforcement learning algorithm that employs the deep dueling neural network architecture to find the jointly optimal coding scheme and the best set of edge nodes for different learning tasks without explicit information about the wireless environment and edge nodes' straggling parameters. Simulations show that the proposed framework reduces the average learning delay in wireless edge computing up to 66% compared with other DL approaches. The jointly optimal framework in this article is also applicable to any distributed learning scheme with heterogeneous and uncertain computing nodes.
翻訳日:2021-03-09 15:25:30 公開日:2021-03-07
# マルチモーダルVAEアクティブ推論コントローラ

Multimodal VAE Active Inference Controller ( http://arxiv.org/abs/2103.04412v1 )

ライセンス: Link先を確認
Cristian Meo and Pablo Lanillos(参考訳) 脳処理に触発された理論的構造であるアクティブ推論は、人工薬剤を制御するための有望な代替手段である。 しかし、現在の方法は、連続制御の高次元入力にはまだスケールしない。 本稿では,従来の受容的アプローチの適応特性を維持しつつ,大規模なマルチモーダル統合(生画像など)を可能にする産業用アーム用アクティブ・推論トルクコントローラを提案する。 線形結合型マルチモーダル変分オートエンコーダを用いたマルチモーダル状態表現学習を含む以前の数学的定式化を拡張した。 シミュレーションされた7DOF Franka Emika Pandaロボットアーム上でモデルを評価し、その動作を以前のアクティブ推論ベースラインとPanda組み込み最適化コントローラと比較した。 その結果, 生成モデルやパラメータの調整を必要とせず, 表現力の増大, 騒音に対するロバスト性, 環境条件やロボットパラメータの変化への適応性等により, 目標方向到達時の追従性, 制御性が向上した。

Active inference, a theoretical construct inspired by brain processing, is a promising alternative to control artificial agents. However, current methods do not yet scale to high-dimensional inputs in continuous control. Here we present a novel active inference torque controller for industrial arms that maintains the adaptive characteristics of previous proprioceptive approaches but also enables large-scale multimodal integration (e.g., raw images). We extended our previous mathematical formulation by including multimodal state representation learning using a linearly coupled multimodal variational autoencoder. We evaluated our model on a simulated 7DOF Franka Emika Panda robot arm and compared its behavior with a previous active inference baseline and the Panda built-in optimized controller. Results showed improved tracking and control in goal-directed reaching due to the increased representation power, high robustness to noise and adaptability in changes on the environmental conditions and robot parameters without the need to relearn the generative models nor parameters retuning.
翻訳日:2021-03-09 15:25:02 公開日:2021-03-07
# 確率制御確率勾配法によるサドル点のエスケープ

Escaping Saddle Points with Stochastically Controlled Stochastic Gradient Methods ( http://arxiv.org/abs/2103.04413v1 )

ライセンス: Link先を確認
Guannan Liang, Qianqian Tong, Chunjiang Zhu, Jinbo bi(参考訳) 確率的に制御された確率勾配(SCSG)法は1次定常点に効率よく収束することが証明されているが、非凸最適化ではサドル点となる。 確率勾配降下 (SGD) ステップは, 深層学習と非凸空間学習問題に対するサドル点周辺の異方性雑音を生じさせ, これらの問題に対してSGDが相関負曲率 (CNC) 条件を満たすことを示す。 そこで我々は,SCSG法が厳密なサドル点から脱出するのを助けるためにSGDステップを別々に使用し,CNC-SCSG法を提案する。 SGDステップはノイズ注入と同じような役割を果たすが、より安定している。 結果のアルゴリズムは、$\tilde{O}( \epsilon^{-2} log( 1/\epsilon)$の収束率を持つ2次定常点に収束することを証明している。 この収束率は問題次元とは独立であり、cnc-sgdよりも高速である。 より一般的なフレームワークは、提案する cnc-scsg を任意の一階法に組み込むように設計されている。 シミュレーション研究により、提案アルゴリズムはノイズ注入またはSGDステップによって摂動される勾配降下法よりもはるかに少ないエポックでサドル点を回避できることを示した。

Stochastically controlled stochastic gradient (SCSG) methods have been proved to converge efficiently to first-order stationary points which, however, can be saddle points in nonconvex optimization. It has been observed that a stochastic gradient descent (SGD) step introduces anistropic noise around saddle points for deep learning and non-convex half space learning problems, which indicates that SGD satisfies the correlated negative curvature (CNC) condition for these problems. Therefore, we propose to use a separate SGD step to help the SCSG method escape from strict saddle points, resulting in the CNC-SCSG method. The SGD step plays a role similar to noise injection but is more stable. We prove that the resultant algorithm converges to a second-order stationary point with a convergence rate of $\tilde{O}( \epsilon^{-2} log( 1/\epsilon))$ where $\epsilon$ is the pre-specified error tolerance. This convergence rate is independent of the problem dimension, and is faster than that of CNC-SGD. A more general framework is further designed to incorporate the proposed CNC-SCSG into any first-order method for the method to escape saddle points. Simulation studies illustrate that the proposed algorithm can escape saddle points in much fewer epochs than the gradient descent methods perturbed by either noise injection or a SGD step.
翻訳日:2021-03-09 15:24:46 公開日:2021-03-07
# GANav:非構造屋外環境におけるナビゲーション可能な地域分類のためのグループワイドアテンションネットワーク

GANav: Group-wise Attention Network for Classifying Navigable Regions in Unstructured Outdoor Environments ( http://arxiv.org/abs/2103.04233v1 )

ライセンス: Link先を確認
Tianrui Guan, Divya Kothandaraman, Rohan Chandra and Dinesh Manocha(参考訳) 本稿では,RGB画像から,オフロード地形および非構造環境における安全かつ航行可能な領域を識別する新しい学習手法を提案する。 本手法は,粒度の粗いセマンティックセグメンテーションを用いて,そのナビビリティレベルに基づいて地形分類群を分類する。 本稿では,新しいグループアテンション機構を用いて異なる地形の航行性レベルを識別する,ボトルネックトランスに基づくディープニューラルネットワークアーキテクチャを提案する。グループアテンションヘッドにより,ネットワークが異なるグループに明示的に焦点を合わせ,精度を向上させることができる。 さらに,データセットの長い尾の性質を扱うために,動的重み付きクロスエントロピー損失関数を提案する。 RUGD と RELLIS-3D のデータセットを広範囲に評価することにより,我々の学習アルゴリズムがナビゲーションのためのオフロード地形における視覚知覚の精度を向上させることを示す。 これらのデータセットに対する先行研究と比較し,rugdでは6.74-39.1%,rellis-3d では3.82-10.64%改善した。

We present a new learning-based method for identifying safe and navigable regions in off-road terrains and unstructured environments from RGB images. Our approach consists of classifying groups of terrain classes based on their navigability levels using coarse-grained semantic segmentation. We propose a bottleneck transformer-based deep neural network architecture that uses a novel group-wise attention mechanism to distinguish between navigability levels of different terrains.Our group-wise attention heads enable the network to explicitly focus on the different groups and improve the accuracy. In addition, we propose a dynamic weighted cross entropy loss function to handle the long-tailed nature of the dataset. We show through extensive evaluations on the RUGD and RELLIS-3D datasets that our learning algorithm improves the accuracy of visual perception in off-road terrains for navigation. We compare our approach with prior work on these datasets and achieve an improvement over the state-of-the-art mIoU by 6.74-39.1% on RUGD and 3.82-10.64% on RELLIS-3D.
翻訳日:2021-03-09 15:21:17 公開日:2021-03-07
# 野生のディープフェイクビデオ:分析と検出

Deepfake Videos in the Wild: Analysis and Detection ( http://arxiv.org/abs/2103.04263v1 )

ライセンス: Link先を確認
Jiameng Pu, Neal Mangaokar, Lauren Kelly, Parantapa Bhattacharya, Kavya Sundaram, Mobin Javed, Bolun Wang, Bimal Viswanath(参考訳) aiが操作するビデオ、通称deepfakesは、新しい問題だ。 近年、学界や産業界の研究者が、いくつかの(自己作成)ベンチマークdeepfakeデータセットとdeepfake検出アルゴリズムに貢献している。 しかし、ディープフェイク動画の理解に向けた努力はほとんど行っていないため、この分野における研究貢献の現実的な適用性についての理解は限られている。 既存のデータセットで検出スキームがうまく機能していることが示されたとしても、実際のディープフェイクに対するメソッドの一般性は明らかでない。 まず、YouTubeとBilibiliからの1,869のビデオを含む、野生のディープフェイクビデオの最大のデータセットを収集し、提示し、コンテンツの4.8Mフレーム以上を抽出します。 第2に,実世界におけるディープフェイクコンテンツの成長パターン,人気,クリエーター,操作戦略,生産方法の包括的分析を行った。 第三に、我々は新しいデータセットを使って既存の防衛を体系的に評価し、実際の世界に配備する準備が整っていないことを観察する。 第四に、我々は防御を改善するための転送学習スキームと競争に勝った技術の可能性を模索します。

AI-manipulated videos, commonly known as deepfakes, are an emerging problem. Recently, researchers in academia and industry have contributed several (self-created) benchmark deepfake datasets, and deepfake detection algorithms. However, little effort has gone towards understanding deepfake videos in the wild, leading to a limited understanding of the real-world applicability of research contributions in this space. Even if detection schemes are shown to perform well on existing datasets, it is unclear how well the methods generalize to real-world deepfakes. To bridge this gap in knowledge, we make the following contributions: First, we collect and present the largest dataset of deepfake videos in the wild, containing 1,869 videos from YouTube and Bilibili, and extract over 4.8M frames of content. Second, we present a comprehensive analysis of the growth patterns, popularity, creators, manipulation strategies, and production methods of deepfake content in the real-world. Third, we systematically evaluate existing defenses using our new dataset, and observe that they are not ready for deployment in the real-world. Fourth, we explore the potential for transfer learning schemes and competition-winning techniques to improve defenses.
翻訳日:2021-03-09 15:20:49 公開日:2021-03-07
# ERASOR:静的3次元クラウドマップ構築のための擬似占有率に基づく動的物体除去

ERASOR: Egocentric Ratio of Pseudo Occupancy-based Dynamic Object Removal for Static 3D Point Cloud Map Building ( http://arxiv.org/abs/2103.04316v1 )

ライセンス: Link先を確認
Hyungtae Lim, Sungwon Hwang, and Hyun Myung(参考訳) 都市環境のスキャンデータには、車両や歩行者などの動的物体の表現が含まれることが多い。 しかし、スキャンデータの連続的な蓄積を持つ3Dポイントクラウドマップの構築に関しては、動的オブジェクトはしばしば地図に不要なトレースを残します。 これらの動的オブジェクトのトレースは障害として機能し、モバイル車両が良好なローカリゼーションおよびナビゲーション性能を達成するのを妨げます。 そこで本研究では,pSeudo Occupancyをベースとした動的物体除去手法であるERASOR(Egocentric RAtio of pSeudo Occupancy-based dynamic object removal)を提案する。 私たちのアプローチは、必然的に地面と接触している都市環境における最もダイナミックなオブジェクトの性質にその注意を向けます。 そこで我々は,単位空間の占有を表現し,異なる占有の空間を識別する,擬似占有という新しい概念を提案する。 最後に、R-GPF(Regional-wise Ground Plane Fitting)が採用され、動的点を含む可能性のある候補ビン内の動的点から静的点を区別する。 SemanticKITTIで実験的に検証されたこの手法は、既存のレイトレースベースおよび可視性ベースのメソッドの限界を克服する最先端の手法に対して有望なパフォーマンスをもたらす。

Scan data of urban environments often include representations of dynamic objects, such as vehicles, pedestrians, and so forth. However, when it comes to constructing a 3D point cloud map with sequential accumulations of the scan data, the dynamic objects often leave unwanted traces in the map. These traces of dynamic objects act as obstacles and thus impede mobile vehicles from achieving good localization and navigation performances. To tackle the problem, this paper presents a novel static map building method called ERASOR, Egocentric RAtio of pSeudo Occupancy-based dynamic object Removal, which is fast and robust to motion ambiguity. Our approach directs its attention to the nature of most dynamic objects in urban environments being inevitably in contact with the ground. Accordingly, we propose the novel concept called pseudo occupancy to express the occupancy of unit space and then discriminate spaces of varying occupancy. Finally, Region-wise Ground Plane Fitting (R-GPF) is adopted to distinguish static points from dynamic points within the candidate bins that potentially contain dynamic points. As experimentally verified on SemanticKITTI, our proposed method yields promising performance against state-of-the-art methods overcoming the limitations of existing ray tracing-based and visibility-based methods.
翻訳日:2021-03-09 15:20:29 公開日:2021-03-07
# リアルタイム人間エージェントチームのための適応エージェントアーキテクチャ

Adaptive Agent Architecture for Real-time Human-Agent Teaming ( http://arxiv.org/abs/2103.04439v1 )

ライセンス: Link先を確認
Tianwei Ni, Huao Li, Siddharth Agrawal, Suhas Raja, Fan Jia, Yikang Gui, Dana Hughes, Michael Lewis, Katia Sycara(参考訳) チームワークは、共通の目的を促進するチームメンバの相互関係的な推論、行動、行動のセットです。 チームワーク理論と実験は、人間とエージェントエージェントの両方のチームの有効性のための一連の状態とプロセスをもたらしました。 しかし、人間とエージェントのチーム化は、非常に新しいものであり、人間のチームには存在しない方針や意図の非対称性が伴うため、あまり研究されていない。 人間エージェントチームにおけるチームパフォーマンスを最適化するには、エージェントが人間の意図を推測し、警察を円滑な調整に適応させることが重要です。 ほとんどの文献は、学習された人間のモデルを参照するエージェントを構築している。 これらのエージェントは学習されたモデルでうまく機能することが保証されているが、最適性や一貫性といった人間のポリシーに重きを置いている。 本稿では,TSF(Team Space Fortress)と呼ばれる2人プレイヤ協調ゲームにおいて,人間モデルフリー設定における新しい適応エージェントアーキテクチャを提案する。 これまでの人間と人間のチームの研究では、tsfゲームにおける相補的なポリシーと、プレイヤーのスキルの多様性が示されている。 したがって、私たちは人間のデータから人間モデルの学習を破棄し、RLアルゴリズムまたはルールベースの方法で構成された事前訓練された例ポリシーライブラリの適応戦略を使用して、人間の行動を最小に仮定します。 適応戦略は、人間のポリシーを推論するための新しい類似度メトリクスに依存し、チームのパフォーマンスを最大化するために、我々のライブラリで最も補完的なポリシーを選択します。 アダプティブエージェントアーキテクチャはリアルタイムでデプロイでき、任意のオフセットの静的エージェントに一般化できる。 提案する適応エージェントフレームワークを評価するために,人間エージェント実験を実施し,人間エージェントチームにおけるヒューマンポリシーの最適性,多様性,適応性について検証した。

Teamwork is a set of interrelated reasoning, actions and behaviors of team members that facilitate common objectives. Teamwork theory and experiments have resulted in a set of states and processes for team effectiveness in both human-human and agent-agent teams. However, human-agent teaming is less well studied because it is so new and involves asymmetry in policy and intent not present in human teams. To optimize team performance in human-agent teaming, it is critical that agents infer human intent and adapt their polices for smooth coordination. Most literature in human-agent teaming builds agents referencing a learned human model. Though these agents are guaranteed to perform well with the learned model, they lay heavy assumptions on human policy such as optimality and consistency, which is unlikely in many real-world scenarios. In this paper, we propose a novel adaptive agent architecture in human-model-free setting on a two-player cooperative game, namely Team Space Fortress (TSF). Previous human-human team research have shown complementary policies in TSF game and diversity in human players' skill, which encourages us to relax the assumptions on human policy. Therefore, we discard learning human models from human data, and instead use an adaptation strategy on a pre-trained library of exemplar policies composed of RL algorithms or rule-based methods with minimal assumptions of human behavior. The adaptation strategy relies on a novel similarity metric to infer human policy and then selects the most complementary policy in our library to maximize the team performance. The adaptive agent architecture can be deployed in real-time and generalize to any off-the-shelf static agents. We conducted human-agent experiments to evaluate the proposed adaptive agent framework, and demonstrated the suboptimality, diversity, and adaptability of human policies in human-agent teams.
翻訳日:2021-03-09 15:16:42 公開日:2021-03-07
# T-Miner: DNNテキスト分類におけるトロイの木馬攻撃対策のためのジェネレーティブアプローチ

T-Miner: A Generative Approach to Defend Against Trojan Attacks on DNN-based Text Classification ( http://arxiv.org/abs/2103.04264v1 )

ライセンス: Link先を確認
Ahmadreza Azizi, Ibrahim Asadullah Tahmid, Asim Waheed, Neal Mangaokar, Jiameng Pu, Mobin Javed, Chandan K. Reddy, Bimal Viswanath(参考訳) ディープニューラルネットワーク(dnn)分類器はトロイの木馬やバックドア攻撃に対して脆弱であることが知られており、分類器は攻撃者によって決定されたトロイの木馬トリガーを含む入力を誤分類するように操作される。 バックドアはモデルの整合性を損なうため、DNNベースの分類の状況に深刻な脅威をもたらす。 このような攻撃に対する複数の防御は画像ドメインの分類器に対して存在するが、テキストドメインの分類器を保護する努力は限られている。 我々は、DNNベースのテキスト分類器に対するトロイの木馬攻撃のための防御フレームワークであるTrojan-Miner(T-Miner )を紹介する。 T-Minerはシークエンス・ツー・シークエンス(seq-2-seq)生成モデルを用いて、疑わしい分類器を探索し、トロイの木馬トリガーを含む可能性が高いテキストシーケンスを生成する。 T-Minerは、生成モデルによって生成されたテキストを分析し、トリガーフレーズを含むかどうかを決定し、テストされた分類器にバックドアがあるかどうかを判断します。 T-Minerは、不審な分類器のトレーニングデータセットやクリーンな入力へのアクセスを必要とせず、代わりに合成された「非意味」テキスト入力を使用して生成モデルをトレーニングする。 3つのユビキタスDNNモデルアーキテクチャ、5つの分類タスク、さまざまなトリガーフレーズからなる1100モデルインスタンスのT-Minerを幅広く評価します。 T-Minerがトロイの木馬とクリーンモデルを98.75%の全体的な精度で検出し、クリーンモデルの偽陽性を低く抑えることを示した。 また、T-Minerはアダプティブアタッカーからの様々な標的の高度な攻撃に対して堅牢であることも示しています。

Deep Neural Network (DNN) classifiers are known to be vulnerable to Trojan or backdoor attacks, where the classifier is manipulated such that it misclassifies any input containing an attacker-determined Trojan trigger. Backdoors compromise a model's integrity, thereby posing a severe threat to the landscape of DNN-based classification. While multiple defenses against such attacks exist for classifiers in the image domain, there have been limited efforts to protect classifiers in the text domain. We present Trojan-Miner (T-Miner) -- a defense framework for Trojan attacks on DNN-based text classifiers. T-Miner employs a sequence-to-sequence (seq-2-seq) generative model that probes the suspicious classifier and learns to produce text sequences that are likely to contain the Trojan trigger. T-Miner then analyzes the text produced by the generative model to determine if they contain trigger phrases, and correspondingly, whether the tested classifier has a backdoor. T-Miner requires no access to the training dataset or clean inputs of the suspicious classifier, and instead uses synthetically crafted "nonsensical" text inputs to train the generative model. We extensively evaluate T-Miner on 1100 model instances spanning 3 ubiquitous DNN model architectures, 5 different classification tasks, and a variety of trigger phrases. We show that T-Miner detects Trojan and clean models with a 98.75% overall accuracy, while achieving low false positives on clean models. We also show that T-Miner is robust against a variety of targeted, advanced attacks from an adaptive attacker.
翻訳日:2021-03-09 15:14:53 公開日:2021-03-07
# 複数のディープラーニングモデルの比較テストを促進するための識別測定

Measuring Discrimination to Boost Comparative Testing for Multiple Deep Learning Models ( http://arxiv.org/abs/2103.04333v1 )

ライセンス: Link先を確認
Linghan Meng, Yanhui Li, Lin Chen, Zhi Wang, Di Wu, Yuming Zhou, Baowen Xu(参考訳) DL技術のブームは巨大なDLモデルの構築と共有をもたらし、DLモデルの取得と再利用を促進する。 与えられたタスクに対して、同じ機能で利用可能な複数のDLモデルに遭遇する。 テスターは複数のDLモデルを比較し、より適したものを選択することが期待される。 テストのコンテキスト全体。 分類の努力の限界のために、テスターはこれらのモデルのためにできるだけ正確なランクの推定をするサンプルの有効なサブセットを選ぶことを目標にします。 この問題に対処するために,複数のモデルを識別可能な効率的なサンプルを選択するために,サンプル識別に基づく選択(SDS)を提案する。 SDSを評価するために,広範に利用されている3つの画像データセットと80個の実世界DLモデルを用いて広範な実験研究を行った。 実験の結果,SDSは最先端のベースライン法と比較して,複数のDLモデルのランク付けに有効で効率的なサンプル選択法であることがわかった。

The boom of DL technology leads to massive DL models built and shared, which facilitates the acquisition and reuse of DL models. For a given task, we encounter multiple DL models available with the same functionality, which are considered as candidates to achieve this task. Testers are expected to compare multiple DL models and select the more suitable ones w.r.t. the whole testing context. Due to the limitation of labeling effort, testers aim to select an efficient subset of samples to make an as precise rank estimation as possible for these models. To tackle this problem, we propose Sample Discrimination based Selection (SDS) to select efficient samples that could discriminate multiple models, i.e., the prediction behaviors (right/wrong) of these samples would be helpful to indicate the trend of model performance. To evaluate SDS, we conduct an extensive empirical study with three widely-used image datasets and 80 real world DL models. The experimental results show that, compared with state-of-the-art baseline methods, SDS is an effective and efficient sample selection method to rank multiple DL models.
翻訳日:2021-03-09 15:14:19 公開日:2021-03-07
# ネットワーク表現学習:伝統的な特徴学習から深層学習へ

Network Representation Learning: From Traditional Feature Learning to Deep Learning ( http://arxiv.org/abs/2103.04339v1 )

ライセンス: Link先を確認
Ke Sun, Lei Wang, Bo Xu, Wenhong Zhao, Shyh Wei Teng, Feng Xia(参考訳) ネットワーク表現学習(NRL)は,グラフデータの隠れた特徴を深く理解するための効果的なグラフ解析手法である。 ソーシャルネットワークデータ処理、生物学的情報処理、レコメンダシステムなど、ネットワーク科学に関連する多くの実世界のタスクにうまく応用されている。 ディープラーニングはデータ機能を学ぶための強力なツールです。 しかし、空間情報を持つ画像や時間情報を持つ音といった正規データとは異なるため、グラフ構造データへのディープラーニングの一般化は非自明である。 近年, NRL領域で多くの深層学習手法が提案されている。 本研究では,従来の特徴学習手法から深層学習モデルまでの古典的なNRLを調査し,それらの関係を分析し,最新の進歩をまとめる。 最後に、NRLを考慮したオープンな問題について議論し、この分野の今後の方向性を指摘する。

Network representation learning (NRL) is an effective graph analytics technique and promotes users to deeply understand the hidden characteristics of graph data. It has been successfully applied in many real-world tasks related to network science, such as social network data processing, biological information processing, and recommender systems. Deep Learning is a powerful tool to learn data features. However, it is non-trivial to generalize deep learning to graph-structured data since it is different from the regular data such as pictures having spatial information and sounds having temporal information. Recently, researchers proposed many deep learning-based methods in the area of NRL. In this survey, we investigate classical NRL from traditional feature learning method to the deep learning-based model, analyze relationships between them, and summarize the latest progress. Finally, we discuss open issues considering NRL and point out the future directions in this field.
翻訳日:2021-03-09 15:14:01 公開日:2021-03-07
# グラフ力学習

Graph Force Learning ( http://arxiv.org/abs/2103.04344v1 )

ライセンス: Link先を確認
Ke Sun, Jiaying Liu, Shuo Yu, Bo Xu, Feng Xia(参考訳) 機能表現は、ネットワーク分析タスクの大きな力を活用します。 しかし、ほとんどの機能は離散的であり、効果的に利用するための大きな課題をもたらす。 近年,離散的な特徴を連続空間にマップできるネットワーク機能学習に注目が集まっている。 残念なことに、現在の研究では、トレーニング中にランダムな負のサンプリング戦略によって特徴空間の構造情報が完全に保存されない。 この問題に対処するために,機能学習の課題と新規性について検討し,春電モデルに着想を得た力に基づくグラフ学習モデルGForceを提案する。 GForceは、ノードが魅力的な力と反発力を持っていると仮定し、特徴学習における元の構造情報と同じ表現をもたらす。 ベンチマークデータセットに関する総合的な実験は、提案フレームワークの有効性を実証する。 さらにgforceは、グラフ学習のためのノードインタラクションのモデル化に物理モデルを使用する機会を開放する。

Features representation leverages the great power in network analysis tasks. However, most features are discrete which poses tremendous challenges to effective use. Recently, increasing attention has been paid on network feature learning, which could map discrete features to continued space. Unfortunately, current studies fail to fully preserve the structural information in the feature space due to random negative sampling strategy during training. To tackle this problem, we study the problem of feature learning and novelty propose a force-based graph learning model named GForce inspired by the spring-electrical model. GForce assumes that nodes are in attractive forces and repulsive forces, thus leading to the same representation with the original structural information in feature learning. Comprehensive experiments on benchmark datasets demonstrate the effectiveness of the proposed framework. Furthermore, GForce opens up opportunities to use physics models to model node interaction for graph learning.
翻訳日:2021-03-09 15:13:49 公開日:2021-03-07
# Bio-JOIE:生物知識基盤の共同表現学習

Bio-JOIE: Joint Representation Learning of Biological Knowledge Bases ( http://arxiv.org/abs/2103.04283v1 )

ライセンス: Link先を確認
Junheng Hao, Chelsea Ju, Muhao Chen, Yizhou Sun, Carlo Zaniolo, Wei Wang(参考訳) コロナウイルスの流行は世界的なパンデミックを引き起こし、死亡率は高い。 現在、このウイルスに関するさまざまな研究から得られた知識は非常に限られている。 他の近縁種の遺伝子オントロジーやタンパク質-タンパク質相互作用(PPI)ネットワークなどの幅広い生物学的知識を活用して、新しい種の分子影響を推定する重要なアプローチを提示します。 本稿では,遺伝子オントロジーとppiネットワークの知識を捉え,sars-cov-2-ヒトタンパク質相互作用のモデル化における超能力を示す,トランスファーマルチリレーショナル組込みモデルbio-joieを提案する。 Bio-JOIEは2つのモデルコンポーネントを共同でトレーニングする。 知識モデルは、GO用語に用いられる階層認識符号化技術を用いて、タンパク質とGOドメインの関連事実を分離埋め込み空間にエンコードする。 さらに、トランスファーモデルは、PPIの知識と遺伝子オントロジーアノテーションを埋め込み空間全体に転送するための非線形変換を学習する。 構造化知識のみを活用することにより、Bio-JOIEはPPI型予測において、既存の最先端の手法よりも著しく優れている。 さらに,酵素活性を有するタンパク質群における学習表現を酵素系に活用する可能性を実証した。 最後に,Bio-JOIEはSARS-CoV-2タンパク質とヒトタンパク質のPPIを正確に同定し,本疾患の研究を進める上で貴重な知見を提供する。

The widespread of Coronavirus has led to a worldwide pandemic with a high mortality rate. Currently, the knowledge accumulated from different studies about this virus is very limited. Leveraging a wide-range of biological knowledge, such as gene ontology and protein-protein interaction (PPI) networks from other closely related species presents a vital approach to infer the molecular impact of a new species. In this paper, we propose the transferred multi-relational embedding model Bio-JOIE to capture the knowledge of gene ontology and PPI networks, which demonstrates superb capability in modeling the SARS-CoV-2-human protein interactions. Bio-JOIE jointly trains two model components. The knowledge model encodes the relational facts from the protein and GO domains into separated embedding spaces, using a hierarchy-aware encoding technique employed for the GO terms. On top of that, the transfer model learns a non-linear transformation to transfer the knowledge of PPIs and gene ontology annotations across their embedding spaces. By leveraging only structured knowledge, Bio-JOIE significantly outperforms existing state-of-the-art methods in PPI type prediction on multiple species. Furthermore, we also demonstrate the potential of leveraging the learned representations on clustering proteins with enzymatic function into enzyme commission families. Finally, we show that Bio-JOIE can accurately identify PPIs between the SARS-CoV-2 proteins and human proteins, providing valuable insights for advancing research on this new disease.
翻訳日:2021-03-09 15:07:51 公開日:2021-03-07
# 非線形システムの適応制御指向メタ学習

Adaptive-Control-Ori ented Meta-Learning for Nonlinear Systems ( http://arxiv.org/abs/2103.04490v1 )

ライセンス: Link先を確認
Spencer M. Richards, Navid Azizan, Jean-Jacques E. Slotine, and Marco Pavone(参考訳) リアルタイム適応は、複雑な動的環境で動作するロボットの制御に不可欠である。 適応制御則は、不確定なダイナミクス項が既知の非線形特徴で線形にパラメータ化可能であれば、軌道追従性能の良好な非線形システムでさえも付与することができる。 しかし、ロータークラフトの空力障害やマニピュレータアームと様々な物体との相互作用力など、先駆的な特徴を特定することはしばしば困難である。 本稿では、ニューラルネットワークを用いたデータ駆動モデルを用いて、過去のデータからオフラインで学習し、これらの非線形特徴を内部パラメトリックモデルで適応制御する。 私たちの重要な洞察は、入出力データに適合する機能の回帰指向メタ学習よりも、クローズドループシミュレーションにおける機能の制御指向メタラーニングによるデプロイメントのためのコントローラを準備できるということです。 具体的には,アダプティブコントローラをメタ学習し,クローズドループ追跡シミュレーションをベースラーナーとし,平均トラッキング誤差をメタ対象とする。 風を受ける非線形平面ロータークラフトを用いて,軌道追従制御のためにクローズドループに配置した場合,適応型コントローラが回帰指向メタラーニングにより訓練された他のコントローラよりも優れることを示す。

Real-time adaptation is imperative to the control of robots operating in complex, dynamic environments. Adaptive control laws can endow even nonlinear systems with good trajectory tracking performance, provided that any uncertain dynamics terms are linearly parameterizable with known nonlinear features. However, it is often difficult to specify such features a priori, such as for aerodynamic disturbances on rotorcraft or interaction forces between a manipulator arm and various objects. In this paper, we turn to data-driven modeling with neural networks to learn, offline from past data, an adaptive controller with an internal parametric model of these nonlinear features. Our key insight is that we can better prepare the controller for deployment with control-oriented meta-learning of features in closed-loop simulation, rather than regression-oriented meta-learning of features to fit input-output data. Specifically, we meta-learn the adaptive controller with closed-loop tracking simulation as the base-learner and the average tracking error as the meta-objective. With a nonlinear planar rotorcraft subject to wind, we demonstrate that our adaptive controller outperforms other controllers trained with regression-oriented meta-learning when deployed in closed-loop for trajectory tracking control.
翻訳日:2021-03-09 15:07:27 公開日:2021-03-07