このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200208となっている論文です。

PDF登録状況(公開日: 20200208)

TitleAuthorsAbstract論文公表日・翻訳日
# Floquet-Blochバンドにおける非指数減衰

Non-exponential decay in Floquet-Bloch bands ( http://arxiv.org/abs/2002.03051v1 )

ライセンス: Link先を確認
Alec Cao, Cora J. Fujiwara, Roshan Sajjad, Ethan Q. Simmons, Eva Lindroth, David M. Weld(参考訳) 指数減衰法則は、不安定な核から蛍光分子まで、任意の時間間隔で低エネルギー状態にジャンプする確率が静的で歴史に依存しないシステムを記述する。 これらの崩壊は準安定状態と量子真空のゆらぎのみを含み、最も基本的な非平衡過程であり、不可逆性の起源の微視的モデルを提供する。 一見普遍的な指数崩壊法則が様々な物理系で正確に検証されているという事実にもかかわらず、量子力学は自発的崩壊過程が非常に短い時間と非常に長い時間の両方において非指数的時間依存性を持つことを要求する驚くべき事実である。 本稿では, フロケ・ブロッホ帯におけるボース凝縮体を, 単一孤立エミッタの長時間非励起崩壊プローブとして用いることを提案する。 長時間の偏差の観測を可能にするパラメータの範囲を同定し、そのスキームの重要な要素を実験的に示す:駆動光格子における準エネルギーバンド間の波長減衰。

Exponential decay laws describe systems ranging from unstable nuclei to fluorescent molecules, in which the probability of jumping to a lower-energy state in any given time interval is static and history-independent. These decays, involving only a metastable state and fluctuations of the quantum vacuum, are the most fundamental nonequilibrium process, and provide a microscopic model for the origins of irreversibility. Despite the fact that the apparently universal exponential decay law has been precisely tested in a variety of physical systems, it is a surprising truth that quantum mechanics requires that spontaneous decay processes have non-exponential time dependence at both very short and very long times. Cold-atom experiments both classic and recent have proven to be powerful probes of fundamental decay processes; in this paper, we propose the use of Bose condensates in Floquet-Bloch bands as a probe of long-time non-exponential decay in single isolated emitters. We identify a range of parameters that should enable observation of long-time deviations, and experimentally demonstrate a key element of the scheme: tunable decay between quasienergy bands in a driven optical lattice.
翻訳日:2023-06-04 05:35:06 公開日:2020-02-08
# リフテッドハイブリッド変分推論

Lifted Hybrid Variational Inference ( http://arxiv.org/abs/2001.02773v2 )

ライセンス: Link先を確認
Yuqiao Chen, Yibo Yang, Sriraam Natarajan, Nicholas Ruozzi(参考訳) 計算コストを削減するためにモデル対称性を利用する様々なリフト推論アルゴリズムが、確率的リレーショナルモデルで抽出可能な推論を記述するために提案されている。 ほとんどの既存の持ち上げ推論アルゴリズムは、ガウス関数のような制限されたポテンシャル関数を持つ離散領域または連続領域上でのみ動作する。 本稿では,ハイブリッドドメインに適用可能な2つの近似昇降変分法と,マルチモーダルを捉えるのに十分な表現性について検討する。 本研究では,提案手法がともにスケーラブルであり,連続的な証拠が大量に存在する場合でも近似モデル対称性を活用できることを実証する。 提案手法は,既存のメッセージパス方式のアプローチと,さまざまな設定で良好に比較できることを示す。 最後に、ベテ近似が辺のポリトープに非自明な推定を与えるのに十分な条件を示す。

A variety of lifted inference algorithms, which exploit model symmetry to reduce computational cost, have been proposed to render inference tractable in probabilistic relational models. Most existing lifted inference algorithms operate only over discrete domains or continuous domains with restricted potential functions, e.g., Gaussian. We investigate two approximate lifted variational approaches that are applicable to hybrid domains and expressive enough to capture multi-modality. We demonstrate that the proposed variational methods are both scalable and can take advantage of approximate model symmetries, even in the presence of a large amount of continuous evidence. We demonstrate that our approach compares favorably against existing message-passing based approaches in a variety of settings. Finally, we present a sufficient condition for the Bethe approximation to yield a non-trivial estimate over the marginal polytope.
翻訳日:2023-01-13 09:52:14 公開日:2020-02-08
# サイバー調査のための限定ネットワークトレースを用いたIoTネットワーク行動指紋推論:メタラーニングアプローチ

IoT Network Behavioral Fingerprint Inference with Limited Network Trace for Cyber Investigation: A Meta Learning Approach ( http://arxiv.org/abs/2001.04705v2 )

ライセンス: Link先を確認
Jonathan Pan(参考訳) IoT(Internet of Things)デバイスの開発と採用は今後数年で大幅に増加し、Industrial 4.0が実現する。 多くのIoTデバイスが、業界全体で開発され、使用される予定だ。 しかし、この技術導入の遠因は、その成長の軌跡をたどるサイバー脅威の厳密な存在に影を落としている。 サイバー脅威は、悪意のあるコードをIoTに埋め込んだり、サイバーや物理的な領域で重大な結果をもたらす可能性のある脆弱性を攻撃したりする。 このような破壊的な影響を管理するために、インシデント対応者とサイバー調査員は、これらの不正なIoTを見つけて、それらを素早く封じ込めなければならない。 このようなオンラインデバイスは、ネットワークアクティビティのトレースを残すだけである。 関連するトレースのコレクションを使用して、IoTのネットワーク行動指紋を推測することで、これらのIoTの探索的発見を促進することができる。 しかし、ネットワークのアクティビティトレースが限られている場合に、これらの指紋を推測する方法が課題である。 本研究では,DeepNetPrintと呼ばれるOne-Card Time Series Meta-Learnerを用いて,限られたネットワークアクティビティトレースに基づいて,特定のIoTのネットワーク行動指紋を推定する手法を提案する。 また,DeepNetPrintを用いて,指導型学習モデルに対して比較的良好に動作するIoTデバイスを同定する。 当社のソリューションは、IoTのネットワークトレースに制限があるという制約を克服しつつ、サイバー調査者が特定のIoTを特定できるようにするものです。

The development and adoption of Internet of Things (IoT) devices will grow significantly in the coming years to enable Industry 4.0. Many forms of IoT devices will be developed and used across industry verticals. However, the euphoria of this technology adoption is shadowed by the solemn presence of cyber threats that will follow its growth trajectory. Cyber threats would either embed their malicious code or attack vulnerabilities in IoT that could induce significant consequences in cyber and physical realms. In order to manage such destructive effects, incident responders and cyber investigators require the capabilities to find these rogue IoT and contain them quickly. Such online devices may only leave network activity traces. A collection of relevant traces could be used to infer the IoT's network behaviorial fingerprints and in turn could facilitate investigative find of these IoT. However, the challenge is how to infer these fingerprints when there is limited network activity traces. This research proposes the novel model construct that learns to infer the network behaviorial fingerprint of specific IoT based on limited network activity traces using a One-Card Time Series Meta-Learner called DeepNetPrint. Our research also demonstrates the application of DeepNetPrint to identify IoT devices that performs comparatively well against leading supervised learning models. Our solution would enable cyber investigator to identify specific IoT of interest while overcoming the constraints of having only limited network traces of the IoT.
翻訳日:2023-01-11 13:27:19 公開日:2020-02-08
# 顔行動単位検出におけるマルチラベル関係モデリング

Multi-label Relation Modeling in Facial Action Units Detection ( http://arxiv.org/abs/2002.01105v2 )

ライセンス: Link先を確認
Xianpeng Ji, Yu Ding, Lincheng Li, Yu Chen, Changjie Fan(参考訳) 本稿では,顔行動単位検出へのアプローチについて述べる。 アクションユニット(AU)には、AU1(Inner Brow raiser)、AU2(Outer Brow raiser)、AU4(Brow Lowerer)、AU6(Cheek raise)、AU12(Lip Corner Puller)、AU15(Lip Corner Depressor)、AU20(Lip Stretcher)、AU25(Lip Part)が含まれる。 我々の研究は、FG-2020 Competition: Affective Behavior Analysis In-the-Wild (ABAW) がリリースしたデータセットに依存しています。 提案手法は,データ前処理,特徴抽出,AU分類からなる。 データ前処理は、顔テクスチャとランドマークの検出を含む。 テクスチャ静的およびランドマーク動的特徴はニューラルネットワークを通じて抽出され、特徴潜在表現として融合される。 最後に、融合した特徴を、トレーニング可能なルックアップAUテーブルを備えたリカレントニューラルネットワークの初期隠れ状態とする。 RNNの出力はAU分類の結果である。 検出精度は0.5$\times$accuracy + 0.5$\times$f1で評価される。 本手法は,組織委員会が指定する検証データを用いて 0.56 を達成する。

This paper describes an approach to the facial action units detections. The involved action units (AU) include AU1 (Inner Brow Raiser), AU2 (Outer Brow Raiser), AU4 (Brow Lowerer), AU6 (Cheek Raise), AU12 (Lip Corner Puller), AU15 (Lip Corner Depressor), AU20 (Lip Stretcher), and AU25 (Lip Part). Our work relies on the dataset released by the FG-2020 Competition: Affective Behavior Analysis In-the-Wild (ABAW). The proposed method consists of the data preprocessing, the feature extraction and the AU classification. The data preprocessing includes the detection of face texture and landmarks. The texture static and landmark dynamic features are extracted through neural networks and then fused as the feature latent representation. Finally, the fused feature is taken as the initial hidden state of a recurrent neural network with a trainable lookup AU table. The output of the RNN is the results of AU classification. The detected accuracy is evaluated with 0.5$\times$accuracy + 0.5$\times$F1. Our method achieve 0.56 with the validation data that is specified by the organization committee.
翻訳日:2023-01-04 03:25:37 公開日:2020-02-08
# キーポイントを用いた単一画像からの色収差補正

Correction of Chromatic Aberration from a Single Image Using Keypoints ( http://arxiv.org/abs/2002.03196v1 )

ライセンス: Link先を確認
Benjamin T. Cecchetto(参考訳) 本稿では,1枚の写真に色収差を補正する手法を提案する。 本手法は, この欠陥を考慮に入れた写真編集プログラムにおいてユーザが行うことを再現する。 各カラーチャネルで一致したキーポイントを見つけ、ユーザとして調整します。

In this paper, we propose a method to correct for chromatic aberration in a single photograph. Our method replicates what a user would do in a photo editing program to account for this defect. We find matching keypoints in each colour channel then align them as a user would.
翻訳日:2023-01-02 23:09:08 公開日:2020-02-08
# RL-Duet:Deep Reinforcement Learningを用いたオンライン音楽伴奏生成

RL-Duet: Online Music Accompaniment Generation Using Deep Reinforcement Learning ( http://arxiv.org/abs/2002.03082v1 )

ライセンス: Link先を確認
Nan Jiang, Sheng Jin, Zhiyao Duan, Changshui Zhang(参考訳) 本稿では,オンライン伴奏生成のための深層強化学習アルゴリズムを提案する。 オフライン音楽の生成と調和とは異なり、オンライン音楽の伴奏は、アルゴリズムが人間の入力に応答し、順番にマシンを生成する必要がある。 我々はこれを強化学習問題とみなし、生成エージェントは以前に生成された文脈(状態)に基づいて音符(アクション)を生成するポリシーを学習する。 このアルゴリズムの鍵は、よく機能する報酬モデルである。 音楽合成規則を用いて定義する代わりに、モノフォニックとポリフォニックのトレーニングデータからこのモデルを学習する。 このモデルは、機械生成された文脈と人間生成された文脈の両方との互換性を考慮する。 実験により、このアルゴリズムは人間の部分に反応し、旋律的、調和的、多様な機械部品を生成できることが示されている。 選好の主観評価は,提案アルゴリズムがベースライン法よりも高品質な楽曲を生成することを示す。

This paper presents a deep reinforcement learning algorithm for online accompaniment generation, with potential for real-time interactive human-machine duet improvisation. Different from offline music generation and harmonization, online music accompaniment requires the algorithm to respond to human input and generate the machine counterpart in a sequential order. We cast this as a reinforcement learning problem, where the generation agent learns a policy to generate a musical note (action) based on previously generated context (state). The key of this algorithm is the well-functioning reward model. Instead of defining it using music composition rules, we learn this model from monophonic and polyphonic training data. This model considers the compatibility of the machine-generated note with both the machine-generated context and the human-generated context. Experiments show that this algorithm is able to respond to the human part and generate a melodic, harmonic and diverse machine part. Subjective evaluations on preferences show that the proposed algorithm generates music pieces of higher quality than the baseline method.
翻訳日:2023-01-02 23:09:04 公開日:2020-02-08
# 近距離制約部分空間分類器による固有次元推定

Intrinsic Dimension Estimation via Nearest Constrained Subspace Classifier ( http://arxiv.org/abs/2002.03228v1 )

ライセンス: Link先を確認
Liang Liao and Stephen John Maybank(参考訳) 画像データにおける分類と固有次元推定の問題点を考察する。 教師付き分類や固有次元推定のための新しい部分空間に基づく分類器を提案する。 各クラス内のデータの分布は、特徴空間の有限個の親和部分空間の和によってモデル化される。 アフィン部分空間は共通の次元を持ち、これは特徴空間の次元よりもはるかに小さいと仮定される。 部分空間は L0-ノルムに基づく回帰を用いて見つかる。 提案手法は,古典的NN(Nearest Neighbor),NFL(Nearest Feature Line)分類器の一般化であり,NS(Nearest Subspace)分類器と密接に関連している。 推定次元パラメータが正確に推定された分類器は、一般に分類精度の点で競合より優れている。 また,その計算複雑性を低減するために,近傍表現を用いた分類器の高速バージョンを提案する。 公開データセットに関する実験は、これらの主張を裏付ける。

We consider the problems of classification and intrinsic dimension estimation on image data. A new subspace based classifier is proposed for supervised classification or intrinsic dimension estimation. The distribution of the data in each class is modeled by a union of of a finite number ofaffine subspaces of the feature space. The affine subspaces have a common dimension, which is assumed to be much less than the dimension of the feature space. The subspaces are found using regression based on the L0-norm. The proposed method is a generalisation of classical NN (Nearest Neighbor), NFL (Nearest Feature Line) classifiers and has a close relationship to NS (Nearest Subspace) classifier. The proposed classifier with an accurately estimated dimension parameter generally outperforms its competitors in terms of classification accuracy. We also propose a fast version of the classifier using a neighborhood representation to reduce its computational complexity. Experiments on publicly available datasets corroborate these claims.
翻訳日:2023-01-02 23:06:24 公開日:2020-02-08
# メタラーニングのための回転によるタスク拡張

Task Augmentation by Rotating for Meta-Learning ( http://arxiv.org/abs/2003.00804v1 )

ライセンス: Link先を確認
Jialin Liu, Fei Chao, Chih-Min Lin(参考訳) データ拡張は、現代の機械学習モデルの精度を改善するための最も効果的なアプローチの1つであり、メタ学習のための深層モデルのトレーニングも不可欠である。 本稿では,従来の増補法とは異なり,90,180,270度回転することでクラス数を増加させるような回転によるタスク増補法を提案する。 クラスが多ければ、トレーニング中にもっと多様なタスクインスタンスをサンプリングできます。 そのため、回転によるタスク強化により、過度に適合しないメタラーニング手法により、ディープネットワークを訓練することができる。 実験結果から,本手法は画像数を増やすための回転よりも優れており,MiniImageNet,CIFAR-FS,FC100数ショット学習ベンチマーク上での最先端性能を実現していることがわかった。 コードは \url{www.github.com/acechuse/tasklevelaug} で入手できる。

Data augmentation is one of the most effective approaches for improving the accuracy of modern machine learning models, and it is also indispensable to train a deep model for meta-learning. In this paper, we introduce a task augmentation method by rotating, which increases the number of classes by rotating the original images 90, 180 and 270 degrees, different from traditional augmentation methods which increase the number of images. With a larger amount of classes, we can sample more diverse task instances during training. Therefore, task augmentation by rotating allows us to train a deep network by meta-learning methods with little over-fitting. Experimental results show that our approach is better than the rotation for increasing the number of images and achieves state-of-the-art performance on miniImageNet, CIFAR-FS, and FC100 few-shot learning benchmarks. The code is available on \url{www.github.com/AceChuse/TaskLevelAug}.
翻訳日:2023-01-02 23:06:09 公開日:2020-02-08
# SPA:命題計画を用いた共有仮想環境におけるエージェントとアバターの言語的相互作用

SPA: Verbal Interactions between Agents and Avatars in Shared Virtual Environments using Propositional Planning ( http://arxiv.org/abs/2002.03246v1 )

ライセンス: Link先を確認
Andrew Best, Sahil Narang, Dinesh Manocha(参考訳) 本稿では,仮想環境における仮想的人間的エージェントとユーザアバター間の言語的対話を多元的に生成する手法を提案する。 sense-plan-ask(spa)は命題計画と自然言語処理における先行作業を拡張し、エージェントが不確かな情報を計画し、質問や回答の対話を他のエージェントやアバターと活用して必要な情報を取得し、目標を達成する。 エージェントはまた、自然言語でリアルタイムのマルチエージェント通信環境を利用して、アバターや他のエージェントからの質問に答えることができる。 このアルゴリズムは対話,移動,コミュニケーション,計画,再計画といった対話的速度で,数万の仮想エージェントをシミュレートすることができる。 提案アルゴリズムは実行時コストを小さくし,自然言語通信を利用せずにエージェントよりも効率的に目標を達成できることが判明した。 シミュレーションベンチマークの結果を定量的に示し,spaが生成する仮想インタラクションの可能性を評価するための予備的ユーザスタディの結果について詳述した。 全体として、参加者は、自然言語相互作用の妥当性およびそれらの相互作用の肯定的な影響の観点から、84 %の回答で、従来の手法よりもSPAを好む。

We present a novel approach for generating plausible verbal interactions between virtual human-like agents and user avatars in shared virtual environments. Sense-Plan-Ask, or SPA, extends prior work in propositional planning and natural language processing to enable agents to plan with uncertain information, and leverage question and answer dialogue with other agents and avatars to obtain the needed information and complete their goals. The agents are additionally able to respond to questions from the avatars and other agents using natural-language enabling real-time multi-agent multi-avatar communication environments. Our algorithm can simulate tens of virtual agents at interactive rates interacting, moving, communicating, planning, and replanning. We find that our algorithm creates a small runtime cost and enables agents to complete their goals more effectively than agents without the ability to leverage natural-language communication. We demonstrate quantitative results on a set of simulated benchmarks and detail the results of a preliminary user-study conducted to evaluate the plausibility of the virtual interactions generated by SPA. Overall, we find that participants prefer SPA to prior techniques in 84\% of responses including significant benefits in terms of the plausibility of natural-language interactions and the positive impact of those interactions.
翻訳日:2023-01-02 23:05:53 公開日:2020-02-08
# blcs: サイバー物理システムにおける脳型分散制御セキュリティ

BLCS: Brain-Like based Distributed Control Security in Cyber Physical Systems ( http://arxiv.org/abs/2002.06259v1 )

ライセンス: Link先を確認
Hui Yang, Kaixuan Zhan, Michel Kadoch, Yongshen Liang, Mohamed Cheriet(参考訳) サイバーフィジカルシステム(cps)は、産業4.0に適用されるコンピューティングと通信コアによって統合された物理システムを運用、制御、調整してきた。 CPSサービスに対応するために、フォグラジオと光ネットワーク(F-RON)は、無線技術の本質的なユビキタス性と光ネットワークの容量の両方を生かして、物理サイバーインフラを支えている。 しかし、サイバーセキュリティは、セキュリティコントロールとF-RONのプライバシ露出との間にトレードオフがあるため、CPSシナリオで最大の問題である。 この問題に対処するため、我々は、脳様セキュリティ(BLS)方式を導入して、CPSにおけるF-RONのための脳様分散制御セキュリティ(BLCS)アーキテクチャを提案する。 BLCSは、分散コンピューティングと通信のための分散F-RONのシナリオにおいて、サイバー攻撃に対して各ドメインのプライベート情報を開示する必要がない三部制御の検証において、セキュアなクロスドメイン制御を実現することができる。 BLSは情報の一部を利用して関係ネットワークや行動ライブラリの深層学習を通じて制御識別を行う。 BLCSアーキテクチャの機能モジュールは、様々なコントローラや脳に似た知識ベースを含む。 分散制御セキュリティモードにおけるBLSに基づく作業手順について述べる。 アーキテクチャの全体的な実現可能性と効率は, 平均不信率, パスプロビジョニング遅延, パケット損失確率, ブロッキング確率の観点から, ソフトウェア定義ネットワークテストベッド上で実験的に検証される。 テストベッドに基づいてエミュレーション結果を取得し、分解する。

Cyber-physical system (CPS) has operated, controlled and coordinated the physical systems integrated by a computing and communication core applied in industry 4.0. To accommodate CPS services, fog radio and optical networks (F-RON) has become an important supporting physical cyber infrastructure taking advantage of both the inherent ubiquity of wireless technology and the large capacity of optical networks. However, cyber security is the biggest issue in CPS scenario as there is a tradeoff between security control and privacy exposure in F-RON. To deal with this issue, we propose a brain-like based distributed control security (BLCS) architecture for F-RON in CPS, by introducing a brain-like security (BLS) scheme. BLCS can accomplish the secure cross-domain control among tripartite controllers verification in the scenario of decentralized F-RON for distributed computing and communications, which has no need to disclose the private information of each domain against cyber-attacks. BLS utilizes parts of information to perform control identification through relation network and deep learning of behavior library. The functional modules of BLCS architecture are illustrated including various controllers and brain-like knowledge base. The interworking procedures in distributed control security modes based on BLS are described. The overall feasibility and efficiency of architecture are experimentally verified on the software defined network testbed in terms of average mistrust rate, path provisioning latency, packet loss probability and blocking probability. The emulation results are obtained and dissected based on the testbed.
翻訳日:2023-01-02 23:05:30 公開日:2020-02-08
# OoDAnalyzer: 配布外サンプルのインタラクティブ分析

OoDAnalyzer: Interactive Analysis of Out-of-Distribution Samples ( http://arxiv.org/abs/2002.03103v1 )

ライセンス: Link先を確認
Changjian Chen, Jun Yuan, Yafeng Lu, Yang Liu, Hang Su, Songtao Yuan, Shixia Liu(参考訳) 予測モデルの性能劣化の大きな原因の1つは、テストサンプルがトレーニングデータによって十分にカバーされていないことである。 このようなよく表現されたサンプルを ood sample と呼ぶ。 本稿では,oodサンプルをインタラクティブに同定し,文脈で説明するためのビジュアル解析手法であるoodanalyzerを提案する。 提案手法は,アンサンブルOoD検出法とグリッドベース可視化を統合した。 この検出方法は、同じファミリーのアルゴリズムとより多くの特徴を組み合わせることにより、深いアンサンブルから改善される。 我々は,OoDサンプルを文脈でよりよく分析し理解するために,ホールの定理に基づく新しいkNNベースのグリッドレイアウトアルゴリズムを開発した。 このアルゴリズムは最適レイアウトを近似し、$O(kN^2)$時間複雑さを持つが、全体の最高の性能を持つグリッドレイアウトアルゴリズムよりも速いが、$O(N^3)$時間複雑さを持つ。 OoDAnalyzerの有効性と有用性を示すために,いくつかのデータセットを用いて定量的評価とケーススタディを行った。

One major cause of performance degradation in predictive models is that the test samples are not well covered by the training data. Such not well-represented samples are called OoD samples. In this paper, we propose OoDAnalyzer, a visual analysis approach for interactively identifying OoD samples and explaining them in context. Our approach integrates an ensemble OoD detection method and a grid-based visualization. The detection method is improved from deep ensembles by combining more features with algorithms in the same family. To better analyze and understand the OoD samples in context, we have developed a novel kNN-based grid layout algorithm motivated by Hall's theorem. The algorithm approximates the optimal layout and has $O(kN^2)$ time complexity, faster than the grid layout algorithm with overall best performance but $O(N^3)$ time complexity. Quantitative evaluation and case studies were performed on several datasets to demonstrate the effectiveness and usefulness of OoDAnalyzer.
翻訳日:2023-01-02 23:05:03 公開日:2020-02-08
# 強化学習を用いたfwiのためのデータ駆動型ミスフィット関数の選択

A data-driven choice of misfit function for FWI using reinforcement learning ( http://arxiv.org/abs/2002.03154v1 )

ライセンス: Link先を確認
Bingbing Sun and Tariq Alkhalifah(参考訳) フルウェーブフォームインバージョン(fwi)のワークフローでは、サイクルスキップを避けるためにインバージョンのパラメータをチューニングし、高解像度モデルを得るのに役立ちます。 例えば、一般的には、トモグラフィや画像ベース、あるいは低周波のみを使用するような、サイクルスキップを避ける客観的関数の使用から始まり、その後、解像度の高い情報を受け入れるために最小2乗のミスフィットを利用する。 また、まず速度モデルを更新するために等方性(音響)反転を行い、次に複雑な物理学を完全に回復するためにマルチパラメータの異方性(弾性)反転に切り替えることもできる。 このような階層的アプローチはfwiでは一般的であり、多くの要因に基づいて手作業による介入に依存することが多い。 しかし、大きなデータサイズが逆転やプロセスの複雑さにしばしば関与しているため、経験豊富な実践者でさえ最適な選択をすることは困難である。 このように、強化学習の枠組みとして、我々は、DQN(Deep-Q Network)を用いて最適なポリシーを学び、異なる不適合関数を切り替える適切なタイミングを決定する。 具体的には、従来のL2-ノルム不適合関数やOTMF(Optimal-transport matching-filter)をいつ使うべきかを予測するために状態作用値関数(Q)を訓練し、サイクルスキッピングを緩和し、高分解能を得るとともに収束性を向上させる。 提案手法の基本原理を実証するために, 簡易かつ実証的なシフト信号反転例を用いる。

In the workflow of Full-Waveform Inversion (FWI), we often tune the parameters of the inversion to help us avoid cycle skipping and obtain high resolution models. For example, typically start by using objective functions that avoid cycle skipping, like tomographic and image based or using only low frequency, and then later, we utilize the least squares misfit to admit high resolution information. We also may perform an isotropic (acoustic) inversion to first update the velocity model and then switch to multi-parameter anisotropic (elastic) inversions to fully recover the complex physics. Such hierarchical approaches are common in FWI, and they often depend on our manual intervention based on many factors, and of course, results depend on experience. However, with the large data size often involved in the inversion and the complexity of the process, making optimal choices is difficult even for an experienced practitioner. Thus, as an example, and within the framework of reinforcement learning, we utilize a deep-Q network (DQN) to learn an optimal policy to determine the proper timing to switch between different misfit functions. Specifically, we train the state-action value function (Q) to predict when to use the conventional L2-norm misfit function or the more advanced optimal-transport matching-filter (OTMF) misfit to mitigate the cycle-skipping and obtain high resolution, as well as improve convergence. We use a simple while demonstrative shifted-signal inversion examples to demonstrate the basic principles of the proposed method.
翻訳日:2023-01-02 23:04:46 公開日:2020-02-08
# 非帰属グラフのための階層的推移型グラフカーネル

A Hierarchical Transitive-Aligned Graph Kernel for Un-attributed Graphs ( http://arxiv.org/abs/2002.04425v1 )

ライセンス: Link先を確認
Lu Bai, Lixin Cui, Edwin R. Hancock(参考訳) 本稿では,グラフ間の頂点を階層的プロトタイプグラフ群を通して推移的に整列させることにより,新しいグラフカーネル,すなわち階層的推移的整列カーネルを開発した。 既存の最先端グラフカーネルと比較して、提案されたカーネルには3つの理論的利点がある。 まず、グラフ間の位置対応情報をカーネル計算に組み込むことにより、ほとんどのr畳み込みカーネルで発生する構造対応を無視する欠点を克服する。 第2に、既存のほとんどのマッチングカーネルでは利用できない対応情報間の推移を保証する。 第3に、比較対象のグラフの情報をカーネル計算プロセスに組み込んで、よりリッチな特性をカプセル化する。 c-svm分類器をトランスダクティブに訓練することにより、新しいトランジッティブアライメントカーネルの有効性を実験的に評価する。 提案したカーネルは、分類精度の観点から、標準グラフベースのデータセット上で最先端のグラフカーネルより優れている。

In this paper, we develop a new graph kernel, namely the Hierarchical Transitive-Aligned kernel, by transitively aligning the vertices between graphs through a family of hierarchical prototype graphs. Comparing to most existing state-of-the-art graph kernels, the proposed kernel has three theoretical advantages. First, it incorporates the locational correspondence information between graphs into the kernel computation, and thus overcomes the shortcoming of ignoring structural correspondences arising in most R-convolution kernels. Second, it guarantees the transitivity between the correspondence information that is not available for most existing matching kernels. Third, it incorporates the information of all graphs under comparisons into the kernel computation process, and thus encapsulates richer characteristics. By transductively training the C-SVM classifier, experimental evaluations demonstrate the effectiveness of the new transitive-aligned kernel. The proposed kernel can outperform state-of-the-art graph kernels on standard graph-based datasets in terms of the classification accuracy.
翻訳日:2023-01-02 23:04:13 公開日:2020-02-08
# 虹彩認識システムにおける画像ノイズの低減と低減

Ramifications and Diminution of Image Noise in Iris Recognition System ( http://arxiv.org/abs/2002.03125v1 )

ライセンス: Link先を確認
Prajoy Podder, A.H.M Shahariar Parvez, Md. Mizanur Rahman, Tanvir Zaman Khan(参考訳) 人間の身元認証は、デジタルベースのセキュリティシステムにおいて常に目を引く目標だった。 顔、指紋、手形状、虹彩、音声などの人間の特徴を用いた認証・識別システムは生体認証システムとして記述される。 様々な特徴の中で、アイリス認識は人間のアイリスパターンを信頼し、人物の同一性を発見・相関させる。 画像は通常、情報の集まりとして考察される。 入力または処理された画像効果の劣化におけるノイズの存在 劣化した画像から最大の情報を得るために、ノイズから元のイメージを復元することが最重要である。 生体認証システムにおけるノイズ画像は正確な識別を与えることができない。 したがって、画像関連データや情報は損失や損害を伴います。 画像は様々なノイズの影響を受けます。 本稿では,主に塩とペッパーノイズ,ガウスノイズ,均一ノイズ,スペックルノイズについて述べる。 異なるフィルタリング技術は、画像の視覚的品質と理解性を向上させるためにノイズの縮小に適応することができる。 本稿では,いくつかの画像に対して4種類のノイズを適用した。 これらのノイズのフィルタリングには,Mean, Median, Weiner, Gaussianフィルタなど,さまざまなタイプのフィルタを使用する。 平均二乗誤差(mse)、ピーク信号対雑音比(psnr)、平均差値(ad)、最大差値(md)等の品質決定パラメータの値を求める4つの異なるフィルタのカテゴリを用いて相対解釈を行う。

Human Identity verification has always been an eye-catching goal in digital based security system. Authentication or identification systems developed using human characteristics such as face, finger print, hand geometry, iris, and voice are denoted as biometric systems. Among the various characteristics, Iris recognition trusts on the idiosyncratic human iris patterns to find out and corroborate the identity of a person. The image is normally contemplated as a gathering of information. Existence of noises in the input or processed image effects degradation in the image superiority. It should be paramount to restore original image from noises for attaining maximum amount of information from corrupted images. Noisy images in biometric identification system cannot give accurate identity. So Image related data or information tends to loss or damage. Images are affected by various sorts of noises. This paper mainly focuses on Salt and Pepper noise, Gaussian noise, Uniform noise, Speckle noise. Different filtering techniques can be adapted for noise diminution to develop the visual quality as well as understandability of images. In this paper, four types of noises have been undertaken and applied on some images. The filtering of these noises uses different types of filters like Mean, Median, Weiner, Gaussian filter etc. A relative interpretation is performed using four different categories of filter with finding the value of quality determined parameters like mean square error (MSE), peak signal to noise ratio (PSNR), average difference value (AD) and maximum difference value (MD).
翻訳日:2023-01-02 23:03:49 公開日:2020-02-08
# LAVA NAT:Look-Around DecodingとVocabulary Attentionを備えた非自己回帰翻訳モデル

LAVA NAT: A Non-Autoregressive Translation Model with Look-Around Decoding and Vocabulary Attention ( http://arxiv.org/abs/2002.03084v1 )

ライセンス: Link先を確認
Xiaoya Li, Yuxian Meng, Arianna Yuan, Fei Wu, Jiwei Li(参考訳) non-autoregressive translation (nat)モデルは1回のフォワードパスで複数のトークンを生成し、autoregressive translation (at) メソッドと比較して推論段階で非常に効率的である。 しかしながら、NATモデルは多重性の問題、すなわち重複トークンや欠落トークンの発生に悩まされることが多い。 本稿では,この問題に対処するための2つの新しい手法,ルックアラウンド (la) 戦略と語彙注意 (va) 機構を提案する。 Look-Around戦略は、現在のトークンを予測するために隣のトークンを予測し、Vocabulary Attentionはデコーダ内の長期トークン依存性を、どのトークンが生成しようとしているかを知るために、各位置の語彙全体に参加することによってモデル化する。 また,出力の高品質を維持しつつ,LAVAモデルの推論プロセスを高速化する動的双方向デコーディング手法を提案する。 提案モデルでは, 自己回帰モデルや他のNATモデルと比較して, 推論時間を大幅に短縮する。 提案する4つのベンチマーク(WMT14 En$\rightarrow$De, WMT14 De$\rightarrow$En, WMT16 Ro$\rightarrow$En, IWSLT14 De$\rightarrow$En)では,提案モデルが非自己回帰モデルや自己回帰モデルと比較して競争性能を向上し,推論フェーズの時間コストを大幅に削減することを示した。

Non-autoregressive translation (NAT) models generate multiple tokens in one forward pass and is highly efficient at inference stage compared with autoregressive translation (AT) methods. However, NAT models often suffer from the multimodality problem, i.e., generating duplicated tokens or missing tokens. In this paper, we propose two novel methods to address this issue, the Look-Around (LA) strategy and the Vocabulary Attention (VA) mechanism. The Look-Around strategy predicts the neighbor tokens in order to predict the current token, and the Vocabulary Attention models long-term token dependencies inside the decoder by attending the whole vocabulary for each position to acquire knowledge of which token is about to generate. %We also propose a dynamic bidirectional decoding approach to accelerate the inference process of the LAVA model while preserving the high-quality of the generated output. Our proposed model uses significantly less time during inference compared with autoregressive models and most other NAT models. Our experiments on four benchmarks (WMT14 En$\rightarrow$De, WMT14 De$\rightarrow$En, WMT16 Ro$\rightarrow$En and IWSLT14 De$\rightarrow$En) show that the proposed model achieves competitive performance compared with the state-of-the-art non-autoregressive and autoregressive models while significantly reducing the time cost in inference phase.
翻訳日:2023-01-02 22:58:04 公開日:2020-02-08
# HHH:知識グラフと階層的双方向注意に基づくオンライン医療チャットボットシステム

HHH: An Online Medical Chatbot System based on Knowledge Graph and Hierarchical Bi-Directional Attention ( http://arxiv.org/abs/2002.03140v1 )

ライセンス: Link先を確認
Qiming Bao, Lin Ni and Jiamou Liu(参考訳) 本稿では,知識グラフとテキスト類似性モデルを組み合わせたハイブリッドモデルを採用するチャットボットフレームワークを提案する。 このチャットボットフレームワークに基づいて、複雑な医療質問に答えるためのオンラインQA(Healthcare Helper)システムであるHHHを構築する。 hhhはインターネットから収集した医療データから構築した知識グラフを維持している。 HHHはまた、大きなQAデータセットから最もよく似た質問を見つけるために、新しいテキスト表現と類似性深層学習モデル、階層的BiLSTM注意モデル(HBAM)を実装している。 我々はHBAMと、変換器(BERT)からの双方向エンコーダ表現や、マンハッタンLSTMモデル(MALSTM)などの最先端言語モデルを比較した。 医療領域におけるQuora重複質問データセットのサブセットを使用してモデルをトレーニングし、テストする。 実験結果から,本モデルでは既存の手法よりも優れた性能が得られることが示された。

This paper proposes a chatbot framework that adopts a hybrid model which consists of a knowledge graph and a text similarity model. Based on this chatbot framework, we build HHH, an online question-and-answer (QA) Healthcare Helper system for answering complex medical questions. HHH maintains a knowledge graph constructed from medical data collected from the Internet. HHH also implements a novel text representation and similarity deep learning model, Hierarchical BiLSTM Attention Model (HBAM), to find the most similar question from a large QA dataset. We compare HBAM with other state-of-the-art language models such as bidirectional encoder representation from transformers (BERT) and Manhattan LSTM Model (MaLSTM). We train and test the models with a subset of the Quora duplicate questions dataset in the medical area. The experimental results show that our model is able to achieve a superior performance than these existing methods.
翻訳日:2023-01-02 22:57:25 公開日:2020-02-08
# CPDPの移動学習における自動パラメータ最適化の理解:実証的研究

Understanding the Automated Parameter Optimization on Transfer Learning for CPDP: An Empirical Study ( http://arxiv.org/abs/2002.03148v1 )

ライセンス: Link先を確認
Ke Li, Zilin Xiang, Tao Chen, Shuo Wang, Kay Chen Tan(参考訳) データ駆動型欠陥予測はソフトウエアエンジニアリングプロセスにおいてますます重要になっている。 ソフトウェアプロジェクトのデータが信頼性のある欠陥予測モデルのトレーニングに不十分であることは珍しくないため、他のプロジェクトからデータ/知識を借りて現在のプロジェクトにおけるモデル構築、すなわちクロスプロジェクト欠陥予測(CPDP)を促進するトランスファー学習は、自然に妥当である。 ほとんどのCPDP技術は、転送学習と分類の2つの主要なステップを含み、それぞれが最適な性能を達成するために調整すべきパラメータが少なくとも1つある。 このプラクティスは、自動パラメータ最適化の目的に適しています。 しかし, 自動パラメータ最適化が様々なCPDP手法に与える影響について, 十分に理解されていない。 本稿では,既存のcpdp文献から13種が選択され,他の49種はこれまでに検討されていない62種のcpdp技術への影響を考察した最初の実証研究を行う。 私たちは、スケールと特性の異なる20の現実世界のソフトウェアプロジェクトに対して、欠陥予測モデルを構築します。 その結果, 1) 自動パラメータ最適化は, 管理可能な計算コストで, 77%のCPDP手法の欠陥予測性能を大幅に向上することがわかった。 したがって、今後のCPDP研究にはさらなる努力が必要である。 2)転帰学習はCPDPにおいて極めて重要である。 タイトな計算予算を考えると、転送学習アルゴリズムのパラメータ構成の最適化に重点を置く方が費用対効果が高い(3)cpdpの研究は、既存の転送学習と分類技術を組み合わせることでより良い選択肢を見つけることが「難しくない」ほど成熟していない。 この発見は,CPDP技術の将来設計に関する重要な知見を提供する。

Data-driven defect prediction has become increasingly important in software engineering process. Since it is not uncommon that data from a software project is insufficient for training a reliable defect prediction model, transfer learning that borrows data/knowledge from other projects to facilitate the model building at the current project, namely cross-project defect prediction (CPDP), is naturally plausible. Most CPDP techniques involve two major steps, i.e., transfer learning and classification, each of which has at least one parameter to be tuned to achieve their optimal performance. This practice fits well with the purpose of automated parameter optimization. However, there is a lack of thorough understanding about what are the impacts of automated parameter optimization on various CPDP techniques. In this paper, we present the first empirical study that looks into such impacts on 62 CPDP techniques, 13 of which are chosen from the existing CPDP literature while the other 49 ones have not been explored before. We build defect prediction models over 20 real-world software projects that are of different scales and characteristics. Our findings demonstrate that: (1) Automated parameter optimization substantially improves the defect prediction performance of 77\% CPDP techniques with a manageable computational cost. Thus more efforts on this aspect are required in future CPDP studies. (2) Transfer learning is of ultimate importance in CPDP. Given a tight computational budget, it is more cost-effective to focus on optimizing the parameter configuration of transfer learning algorithms (3) The research on CPDP is far from mature where it is "not difficult" to find a better alternative by making a combination of existing transfer learning and classification techniques. This finding provides important insights about the future design of CPDP techniques.
翻訳日:2023-01-02 22:56:58 公開日:2020-02-08
# 3次元物体認識のための可変視点表現

Variable-Viewpoint Representations for 3D Object Recognition ( http://arxiv.org/abs/2002.03131v1 )

ライセンス: Link先を確認
Tengyu Ma, Joel Michelson, James Ainooson, Deepayan Sanyal, Xiaohan Wang, Maithilee Kunda(参考訳) 3次元物体認識の問題に対して、深層学習法を用いた研究者は、物体の周囲の離散的な視点から撮影した「マルチビュー」スナップショットや、物体のあらゆる方向から本質的に光沢のあるサンプルの密集した地図からなる「球面」表現など、いくつかの全く異なる入力表現を開発した。 これらの表現は、どのようなオブジェクト情報がキャプチャされるか、どんな詳細がキャプチャされるかという観点でトレードオフを提供するが、これらの2つのタイプの表現がとても異なるため、これらの情報のトレードオフを計測する方法は明確ではない。 両表現は、実際には共通の表現連続体の2つの極端に存在し、本質的には、ビューごとに割り当てられたオブジェクトのビュー数またはピクセル数(つまり、視野)を優先順位付けする。 この2つの極小の間にある興味深い中間表現を識別し、系統的な実験を通して、入力情報と特定のディープラーニングアーキテクチャの関数として、この連続体に沿って精度がどのように変化するかを示す。

For the problem of 3D object recognition, researchers using deep learning methods have developed several very different input representations, including "multi-view" snapshots taken from discrete viewpoints around an object, as well as "spherical" representations consisting of a dense map of essentially ray-traced samples of the object from all directions. These representations offer trade-offs in terms of what object information is captured and to what degree of detail it is captured, but it is not clear how to measure these information trade-offs since the two types of representations are so different. We demonstrate that both types of representations in fact exist at two extremes of a common representational continuum, essentially choosing to prioritize either the number of views of an object or the pixels (i.e., field of view) allotted per view. We identify interesting intermediate representations that lie at points in between these two extremes, and we show, through systematic empirical experiments, how accuracy varies along this continuum as a function of input information as well as the particular deep learning architecture that is used.
翻訳日:2023-01-02 22:56:32 公開日:2020-02-08
# 自己中心的行動認識のための特権情報付き共生的注意

Symbiotic Attention with Privileged Information for Egocentric Action Recognition ( http://arxiv.org/abs/2002.03137v1 )

ライセンス: Link先を確認
Xiaohan Wang, Yu Wu, Linchao Zhu, Yi Yang(参考訳) エゴセントリックなビデオ認識は、多様な相互作用推論のための自然なテストベッドである。 エゴセントリックなビデオデータセットにおける大きなアクション語彙のため、近年の研究では、アクション認識には2枝構造、動詞分類には1枝、名詞分類には2枝構造を用いる。 しかし、動詞と名詞の分枝の相関研究はほとんど無視されている。 さらに2つのブランチは、位置認識の注意機構がないため、ローカル機能を利用することができない。 本稿では,エゴセントリックなビデオ認識にプリビジェンド情報(SAP)を活用する新しい共生意識フレームワークを提案する。 位置認識型オブジェクト検出機能により、アクターとオブジェクトとのインタラクションの理解が容易になる。 我々はこれらの特徴を行動認識に導入し、特権情報とみなす。 本フレームワークは,動詞の分岐,名詞の分岐,特権情報間の相互通信を可能にする。 このコミュニケーションプロセスは、局所的な詳細をグローバル機能に注入するだけでなく、進行中のアクションの時空間的位置に関する暗黙のガイダンスを利用する。 効果的なコミュニケーションを実現するために,新たな共生的注意(SA)を導入する。 まず、あるブランチ上の検出ガイド機能を正規化し、他のブランチからのアクション関連情報を下線化する。 SAは3つのソース間の相互作用を適応的に増強する。 このコミュニケーションをさらに触媒するために、ほとんどの行動関連情報を選択するための空間関係が明らかにされる。 分類において最も価値があり差別的な特徴である。 SAPの有効性を定量的かつ質的に検証する。 注目すべきは,2つの大規模エゴセントリックビデオデータセットの最先端を実現することだ。

Egocentric video recognition is a natural testbed for diverse interaction reasoning. Due to the large action vocabulary in egocentric video datasets, recent studies usually utilize a two-branch structure for action recognition, ie, one branch for verb classification and the other branch for noun classification. However, correlation studies between the verb and the noun branches have been largely ignored. Besides, the two branches fail to exploit local features due to the absence of a position-aware attention mechanism. In this paper, we propose a novel Symbiotic Attention framework leveraging Privileged information (SAP) for egocentric video recognition. Finer position-aware object detection features can facilitate the understanding of actor's interaction with the object. We introduce these features in action recognition and regard them as privileged information. Our framework enables mutual communication among the verb branch, the noun branch, and the privileged information. This communication process not only injects local details into global features but also exploits implicit guidance about the spatio-temporal position of an on-going action. We introduce novel symbiotic attention (SA) to enable effective communication. It first normalizes the detection guided features on one branch to underline the action-relevant information from the other branch. SA adaptively enhances the interactions among the three sources. To further catalyze this communication, spatial relations are uncovered for the selection of most action-relevant information. It identifies the most valuable and discriminative feature for classification. We validate the effectiveness of our SAP quantitatively and qualitatively. Notably, it achieves the state-of-the-art on two large-scale egocentric video datasets.
翻訳日:2023-01-02 22:56:12 公開日:2020-02-08
# 自律運転のためのマルチモダリティカスケード融合技術

Multi-Modality Cascaded Fusion Technology for Autonomous Driving ( http://arxiv.org/abs/2002.03138v1 )

ライセンス: Link先を確認
Hongwu Kuang, Xiaodong Liu, Jingwei Zhang, Zicheng Fang(参考訳) マルチモダリティ融合は、自律運転システムの安定性を保証する。 本稿では, 目標位置, サイズ, 速度, 外観, 信頼性を利用して, 精度の高い核融合を実現するための, 決定レベルおよび特徴レベル融合の利点を生かした汎用多モード融合フレームワークを提案する。 融合過程において、異なるモードからセンサ間の誤差を低減するために動的座標アライメント(DCA)を行う。 さらに,センサ融合のコアモジュールである親和性行列の計算を行い,深部親和性ネットワーク(DAN)の性能を向上させる親和性損失を提案する。 最後に、提案するステップバイステップの融合フレームワークは、エンドツーエンドの融合法よりも解釈可能で柔軟である。 ヌッセンテ [2] データセットに関する広範な実験は、我々のアプローチが最先端のパフォーマンスを達成していることを示している。

Multi-modality fusion is the guarantee of the stability of autonomous driving systems. In this paper, we propose a general multi-modality cascaded fusion framework, exploiting the advantages of decision-level and feature-level fusion, utilizing target position, size, velocity, appearance and confidence to achieve accurate fusion results. In the fusion process, dynamic coordinate alignment(DCA) is conducted to reduce the error between sensors from different modalities. In addition, the calculation of affinity matrix is the core module of sensor fusion, we propose an affinity loss that improves the performance of deep affinity network(DAN). Last, the proposed step-by-step cascaded fusion framework is more interpretable and flexible compared to the end-toend fusion methods. Extensive experiments on Nuscenes [2] dataset show that our approach achieves the state-of-theart performance.dataset show that our approach achieves the state-of-the-art performance.
翻訳日:2023-01-02 22:55:49 公開日:2020-02-08
# ctm : 行動認識のための協調時間モデリング

CTM: Collaborative Temporal Modeling for Action Recognition ( http://arxiv.org/abs/2002.03152v1 )

ライセンス: Link先を確認
Qian Liu, Tao Wang, Jie Liu, Yang Guan, Qi Bu, Longfei Yang(参考訳) デジタルマルチメディアの急速な発展に伴い、ビデオ理解は重要な分野となっている。 行動認識においては、時間次元が重要な役割を担い、画像認識とは全く異なる。 映像の強力な特徴を学習するために,行動認識のための時間情報を学ぶための協調時空間モデリングブロック(ctm)ブロック(図1)を提案する。 パラメータフリーなアイデンティティ・ショートカットに加えて、CTMは、時間的モデリングブロックとして、2つの協調経路を含む: 空間的認識時間的モデリングパス: 空間的位置 (H*W) ごとに非共有パラメータを持つ時空間チャネル・畳み込みモジュール (TCCM) と空間的認識時間的モデリングパス。 CTMブロックは、多くの人気のあるネットワークにシームレスに挿入してCTMネットワークを生成し、空間情報のみをキャプチャする2D CNNバックボーンネットワークに時間的情報を学習する機能を提供する。 いくつかの一般的なアクション認識データセットにおける実験により、ctmブロックが2d cnnベースラインのパフォーマンス向上をもたらすことが示され、本手法は最先端手法と競合する結果が得られる。 コードは公開される予定だ。

With the rapid development of digital multimedia, video understanding has become an important field. For action recognition, temporal dimension plays an important role, and this is quite different from image recognition. In order to learn powerful feature of videos, we propose a Collaborative Temporal Modeling (CTM) block (Figure 1) to learn temporal information for action recognition. Besides a parameter-free identity shortcut, as a separate temporal modeling block, CTM includes two collaborative paths: a spatial-aware temporal modeling path, which we propose the Temporal-Channel Convolution Module (TCCM) with unshared parameters for each spatial position (H*W) to build, and a spatial-unaware temporal modeling path. CTM blocks can seamlessly be inserted into many popular networks to generate CTM Networks and bring the capability of learning temporal information to 2D CNN backbone networks, which only capture spatial information. Experiments on several popular action recognition datasets demonstrate that CTM blocks bring the performance improvements on 2D CNN baselines, and our method achieves the competitive results against the state-of-the-art methods. Code will be made publicly available.
翻訳日:2023-01-02 22:55:33 公開日:2020-02-08
# 連続手話認識のための時空間マルチキューネットワーク

Spatial-Temporal Multi-Cue Network for Continuous Sign Language Recognition ( http://arxiv.org/abs/2002.03187v1 )

ライセンス: Link先を確認
Hao Zhou, Wengang Zhou, Yun Zhou, Houqiang Li(参考訳) 連続手話認識(cslr)におけるディープラーニングの成功にもかかわらず、深層モデルは一般的に最も識別的な特徴に注目し、他の非自明で情報的な内容を無視している。 このような特徴は、異なる視覚手がかり(手形、表情、体姿勢など)の協調の背後にある暗黙の視覚的文法を学ぶ能力を強く制限している。 ニューラルネットワーク設計にマルチキュー学習を注入することにより,視覚に基づくシーケンス学習問題を解決するための空間時空間マルチキュー(stmc)ネットワークを提案する。 我々のSTMCネットワークは空間的マルチキュー(SMC)モジュールと時間的マルチキュー(TMC)モジュールで構成される。 SMCモジュールは空間表現に特化しており、自己完結したポーズ推定ブランチの助けを借りて、異なるキューの視覚的特徴を明示的に分解する。 TMCモジュールは、2つの平行な経路、すなわちキュー内とキュー間の時間的相関をモデル化する。 最後に,STMCネットワークのエンドツーエンドシーケンス学習を実現するための共同最適化手法を設計する。 有効性を検証するため,大規模なCSLRベンチマークであるPHOENIX-2014,CSL,PHOENIX-2014-Tの3つの実験を行った。 実験の結果,提案手法は3つのベンチマークで新しい最先端性能を実現することがわかった。

Despite the recent success of deep learning in continuous sign language recognition (CSLR), deep models typically focus on the most discriminative features, ignoring other potentially non-trivial and informative contents. Such characteristic heavily constrains their capability to learn implicit visual grammars behind the collaboration of different visual cues (i,e., hand shape, facial expression and body posture). By injecting multi-cue learning into neural network design, we propose a spatial-temporal multi-cue (STMC) network to solve the vision-based sequence learning problem. Our STMC network consists of a spatial multi-cue (SMC) module and a temporal multi-cue (TMC) module. The SMC module is dedicated to spatial representation and explicitly decomposes visual features of different cues with the aid of a self-contained pose estimation branch. The TMC module models temporal correlations along two parallel paths, i.e., intra-cue and inter-cue, which aims to preserve the uniqueness and explore the collaboration of multiple cues. Finally, we design a joint optimization strategy to achieve the end-to-end sequence learning of the STMC network. To validate the effectiveness, we perform experiments on three large-scale CSLR benchmarks: PHOENIX-2014, CSL and PHOENIX-2014-T. Experimental results demonstrate that the proposed method achieves new state-of-the-art performance on all three benchmarks.
翻訳日:2023-01-02 22:54:58 公開日:2020-02-08
# 時系列ストック類似性によるS&P株価予測の改善

Improving S&P stock prediction with time series stock similarity ( http://arxiv.org/abs/2002.05784v1 )

ライセンス: Link先を確認
Lior Sidi(参考訳) 予測アルゴリズムによる株式市場予測は、最近の一般的な話題であり、予測アルゴリズムのほとんどは、特定の株式から収集されたデータに基づいてのみトレーニングされる。 本稿では,プロのトレーダーが株予測モデルを改善するために行なったように,関連株で株価データを充実させた。 5種類の類似性関数を検証したところ,共積分類似性は予測モデルで最高の改善が得られた。 我々は,5年間にわたる各種産業のS&P株のモデル評価を行った。 我々が類似株でトレーニングした予測モデルは、0.55平均精度でかなり良い結果を示し、19.782利益は、精度0.52のアートモデルと6.6の利益と比較した。

Stock market prediction with forecasting algorithms is a popular topic these days where most of the forecasting algorithms train only on data collected on a particular stock. In this paper, we enriched the stock data with related stocks just as a professional trader would have done to improve the stock prediction models. We tested five different similarities functions and found co-integration similarity to have the best improvement on the prediction model. We evaluate the models on seven S&P stocks from various industries over five years period. The prediction model we trained on similar stocks had significantly better results with 0.55 mean accuracy, and 19.782 profit compare to the state of the art model with an accuracy of 0.52 and profit of 6.6.
翻訳日:2023-01-02 22:48:32 公開日:2020-02-08
# 胸部X線写真における対立学習による骨抑制

Bone Suppression on Chest Radiographs With Adversarial Learning ( http://arxiv.org/abs/2002.03073v1 )

ライセンス: Link先を確認
Jia Liang, Yuxing Tang, Youbao Tang, Jing Xiao, Ronald M. Summers(参考訳) Dual-Eergy (DE) 胸部X線撮影は、軟部組織と骨構造という2つの臨床関連物質を選択的に撮像し、様々な胸郭病理をより良い特徴付け、後部胸部X線写真における診断を改善する能力を提供する。 しかし、deイメージングは、従来のラジオグラフィよりも特殊なハードウェアと高い放射線線量を必要としており、運動アーチファクトは、しばしば不随意の患者の動きによって起こる。 本研究では,従来のx線画像と骨抑制x線画像のマッピングについて検討した。 具体的には,deイメージング技術により得られた従来の骨抑制x線写真から骨への画像変換に,gans(generative adversarial network)の2種類のバリエーションを用いることを提案する。 患者側対および非対側x線写真との訓練効果を比較した。 実験では、両方の訓練戦略がボニー構造を抑えられた「ラジオリアリスティック」ラジオグラフと、ホールドアウトテストセットで動くアーティファクトが少ないことを示す。 ペア画像を用いたトレーニングは、SSIM(Structure similarity Index)とPSNR(Peak Signal-to-Noise Ratio)の2つの目標画像品質指標を用いて測定した場合、ペア画像によるトレーニングは、ペア画像よりもペア画像の未確認後(AP)無線画像に対してより優れた一般化能力を示す。

Dual-energy (DE) chest radiography provides the capability of selectively imaging two clinically relevant materials, namely soft tissues, and osseous structures, to better characterize a wide variety of thoracic pathology and potentially improve diagnosis in posteroanterior (PA) chest radiographs. However, DE imaging requires specialized hardware and a higher radiation dose than conventional radiography, and motion artifacts sometimes happen due to involuntary patient motion. In this work, we learn the mapping between conventional radiographs and bone suppressed radiographs. Specifically, we propose to utilize two variations of generative adversarial networks (GANs) for image-to-image translation between conventional and bone suppressed radiographs obtained by DE imaging technique. We compare the effectiveness of training with patient-wisely paired and unpaired radiographs. Experiments show both training strategies yield "radio-realistic'' radiographs with suppressed bony structures and few motion artifacts on a hold-out test set. While training with paired images yields slightly better performance than that of unpaired images when measuring with two objective image quality metrics, namely Structural Similarity Index (SSIM) and Peak Signal-to-Noise Ratio (PSNR), training with unpaired images demonstrates better generalization ability on unseen anteroposterior (AP) radiographs than paired training.
翻訳日:2023-01-02 22:48:21 公開日:2020-02-08
# 逆透かしを用いた光学文字認識(OCR)システムへの攻撃

Attacking Optical Character Recognition (OCR) Systems with Adversarial Watermarks ( http://arxiv.org/abs/2002.03095v1 )

ライセンス: Link先を確認
Lu Chen and Wei Xu(参考訳) オプティカルキャラクタ認識(ocr)は、キープリプロセッシングツールとして機能する実アプリケーションに広く適用されている。 OCRにおけるディープニューラルネットワーク(DNN)の採用は、脅威モデルの出力を誤解させるために開発された敵の例に対する脆弱性をもたらす。 バニラのカラフルな画像とは異なり、印刷されたテキストのイメージは通常明確な背景を持つ。 しかし、既存の敵攻撃の大半によって生成された敵の例は不自然であり、背景を厳しく汚染している。 そこで本研究では,水痕を偽装して人間の目の動きを回避し,自然歪を発生させる水標攻撃手法を提案する。 実験結果から,透かし攻撃は,透かしを付加した自然な逆転例の集合となり,異なる攻撃シナリオにおける最先端手法と類似した攻撃性能が得られることが示された。

Optical character recognition (OCR) is widely applied in real applications serving as a key preprocessing tool. The adoption of deep neural network (DNN) in OCR results in the vulnerability against adversarial examples which are crafted to mislead the output of the threat model. Different from vanilla colorful images, images of printed text have clear backgrounds usually. However, adversarial examples generated by most of the existing adversarial attacks are unnatural and pollute the background severely. To address this issue, we propose a watermark attack method to produce natural distortion that is in the disguise of watermarks and evade human eyes' detection. Experimental results show that watermark attacks can yield a set of natural adversarial examples attached with watermarks and attain similar attack performance to the state-of-the-art methods in different attack scenarios.
翻訳日:2023-01-02 22:47:54 公開日:2020-02-08
# 深部非参照トーンマッピング画像品質評価

Deep No-reference Tone Mapped Image Quality Assessment ( http://arxiv.org/abs/2002.03165v1 )

ライセンス: Link先を確認
Chandra Sekhar Ravuri (1), Rajesh Sureddi (2), Sathya Veera Reddy Dendi (2), Shanmuganathan Raman (1), Sumohana S. Channappayya (2) ((1) Department of Electrical Engineering, Indian Institute of Technology Gandhinagar, India., (2) Department of Electrical Engineering, Indian Institute of Technology Hyderabad, India.)(参考訳) 高ダイナミックレンジ(hdr)画像を従来のディスプレイで表示するためのプロセスはトーンマッピングと呼ばれる。 しかし、トーンマッピングは最終的な画像に歪みをもたらし、視覚的不快を招きかねない。 これらの歪みを定量化するために、これらのトーンマップ画像に対する新しい非参照品質評価手法を導入する。 この技法は2つの段階から構成される。 第1段階では、畳み込みニューラルネットワーク(cnn)を用いて、トーンマップ画像から基底真理歪みマップを用いて訓練することにより、品質認識マップ(歪みマップとも呼ばれる)を生成する。 第2段階では、非対称一般化ガウス分布(AGGD)を用いて正規化画像と歪みマップをモデル化する。 次に、AGGDモデルのパラメータを用いて、サポートベクトル回帰(SVR)を用いて品質スコアを推定する。 提案手法は,最先端技術と競合する性能を示すことを示す。 この研究の目新しさは、特に非参照設定において、品質マップ(ゆがみマップ)として様々な歪みを可視化し、これらのマップをトーンマップ画像の品質スコアを推定する特徴として利用する能力である。

The process of rendering high dynamic range (HDR) images to be viewed on conventional displays is called tone mapping. However, tone mapping introduces distortions in the final image which may lead to visual displeasure. To quantify these distortions, we introduce a novel no-reference quality assessment technique for these tone mapped images. This technique is composed of two stages. In the first stage, we employ a convolutional neural network (CNN) to generate quality aware maps (also known as distortion maps) from tone mapped images by training it with the ground truth distortion maps. In the second stage, we model the normalized image and distortion maps using an Asymmetric Generalized Gaussian Distribution (AGGD). The parameters of the AGGD model are then used to estimate the quality score using support vector regression (SVR). We show that the proposed technique delivers competitive performance relative to the state-of-the-art techniques. The novelty of this work is its ability to visualize various distortions as quality maps (distortion maps), especially in the no-reference setting, and to use these maps as features to estimate the quality score of tone mapped images.
翻訳日:2023-01-02 22:47:40 公開日:2020-02-08
# 並列生成逆数ネットワークによるエゴセントリックな画像生成

Exocentric to Egocentric Image Generation via Parallel Generative Adversarial Network ( http://arxiv.org/abs/2002.03219v1 )

ライセンス: Link先を確認
Gaowen Liu, Hao Tang, Hugo Latapie, Yan Yan(参考訳) 近年,異なる視点から一視点の画像を生成するクロスビュー画像生成法が提案されている。 本稿では,エゴセントリック(3人称)視点からエゴセントリック(1人称)視点画像生成について検討する。 これは困難な課題であり、エゴセントリックな視点は時として、エクソセントリックな視点とは大きく異なる。 したがって、外観を2つのビューに変換するのは簡単ではない。 そこで本研究では,エゴセントリックな画像を生成するための共有情報を学ぶために,新たなサイクル損失を有する並列生成適応ネットワーク(P-GAN)を提案する。 また,画像中の文脈情報を取り込む学習手順に,新たな文脈的特徴損失を組み込む。 Exo-Egoデータセットの大規模な実験により、私たちのモデルは最先端のアプローチよりも優れています。

Cross-view image generation has been recently proposed to generate images of one view from another dramatically different view. In this paper, we investigate exocentric (third-person) view to egocentric (first-person) view image generation. This is a challenging task since egocentric view sometimes is remarkably different from exocentric view. Thus, transforming the appearances across the two views is a non-trivial task. To this end, we propose a novel Parallel Generative Adversarial Network (P-GAN) with a novel cross-cycle loss to learn the shared information for generating egocentric images from exocentric view. We also incorporate a novel contextual feature loss in the learning procedure to capture the contextual information in images. Extensive experiments on the Exo-Ego datasets show that our model outperforms the state-of-the-art approaches.
翻訳日:2023-01-02 22:47:24 公開日:2020-02-08
# 学習型デノイザーを用いたプラグアンドプレイ法による自由呼吸型心血管MRI

Free-breathing Cardiovascular MRI Using a Plug-and-Play Method with Learned Denoiser ( http://arxiv.org/abs/2002.03226v1 )

ライセンス: Link先を確認
Sizhuo Liu, Edward Reehorst, Philip Schniter, and Rizwan Ahmad(参考訳) 心臓磁気共鳴画像(CMR)は非侵襲的な画像モダリティであり、循環器系を包括的に評価する。 しかし、CMRの臨床的有用性は長期の獲得によって妨げられている。 本研究では,マルチコイルデータからCMR再構成を行うプラグイン・アンド・プレイ法を提案する。 CMRに固有のリッチな画像構造をフル活用するために,PnPフレームワークと,高画質呼吸心血管画像からの時空間パッチを用いてトレーニングした深層学習(DL)ベースのデノイザーを組み合わせた。 結果として生じる"PnP-DL"メソッドは、データの一貫性とサブルーチンを反復する。 PnP-DLの再建性能と圧縮センシング(CS)との比較を行った。 PnP-DLは、呼吸保持されたデータセットに対して、一般的に使用されるCS法よりも複数のdBの利点を提供する。 基礎的真実が得られないRTフリーブレスティングデータセットの場合、PnP-DLは質的評価においてより高いスコアを受け取る。 RT CMRを加速するPnP-DLの可能性を強調した。

Cardiac magnetic resonance imaging (CMR) is a noninvasive imaging modality that provides a comprehensive evaluation of the cardiovascular system. The clinical utility of CMR is hampered by long acquisition times, however. In this work, we propose and validate a plug-and-play (PnP) method for CMR reconstruction from undersampled multi-coil data. To fully exploit the rich image structure inherent in CMR, we pair the PnP framework with a deep learning (DL)-based denoiser that is trained using spatiotemporal patches from high-quality, breath-held cardiac cine images. The resulting "PnP-DL" method iterates over data consistency and denoising subroutines. We compare the reconstruction performance of PnP-DL to that of compressed sensing (CS) using eight breath-held and ten real-time (RT) free-breathing cardiac cine datasets. We find that, for breath-held datasets, PnP-DL offers more than one dB advantage over commonly used CS methods. For RT free-breathing datasets, where ground truth is not available, PnP-DL receives higher scores in qualitative evaluation. The results highlight the potential of PnP-DL to accelerate RT CMR.
翻訳日:2023-01-02 22:47:11 公開日:2020-02-08
# アクションユニット検出のためのマルチラベルクラスバランシングアルゴリズム

Multi-Label Class Balancing Algorithm for Action Unit Detection ( http://arxiv.org/abs/2002.03238v1 )

ライセンス: Link先を確認
Jaspar Pahl, Ines Rieger, Dominik Seuss(参考訳) 分離された顔の動き、いわゆるアクションユニットは、複合的な感情や痛みのような物理的状態を記述することができる。 データセットは限定的で、ほとんど不均衡であるため、マルチラベルクラスバランシングアルゴリズムを組み込んだアプローチを提案する。 この提出は、IEEE Conference on Face and Gesture Recognition 2020におけるABAW(Affective Behavior Analysis in-the-Wild)チャレンジのアクションユニット検出タスクの対象となっている。

Isolated facial movements, so-called Action Units, can describe combined emotions or physical states such as pain. As datasets are limited and mostly imbalanced, we present an approach incorporating a multi-label class balancing algorithm. This submission is subject to the Action Unit detection task of the Affective Behavior Analysis in-the-wild (ABAW) challenge at the IEEE Conference on Face and Gesture Recognition 2020.
翻訳日:2023-01-02 22:46:52 公開日:2020-02-08
# 自動舗装き裂検出・計測のための深部畳み込みニューラルネットワークの組み立て

Ensemble of Deep Convolutional Neural Networks for Automatic Pavement Crack Detection and Measurement ( http://arxiv.org/abs/2002.03241v1 )

ライセンス: Link先を確認
Zhun Fan, Chong Li, Ying Chen, Paola Di Mascio, Xiaopeng Chen, Guijie Zhu and Giuseppe Loprencipe(参考訳) 自動舗装き裂検出と測定は重要な道路問題である。 機関は道路安全の改善を保証しなければならない。 従来の亀裂検出および測定アルゴリズムは非常に時間がかかり、効率が低い。 そのため、近年、革新的なアルゴリズムが研究者から注目を集めている。 本稿では,自動舗装き裂検出・測定のための確率融合に基づく畳み込みニューラルネットワーク(プール層を含まない)のアンサンブルを提案する。 具体的には、小さな亀裂の構造を生画像で識別するために畳み込みニューラルネットワークのアンサンブルが用いられた。 次に、アンサンブルに対する個々の畳み込みニューラルネットワークモデルの出力を平均化し、各画素の最終的なひび割れ確率値を生成し、予測された確率マップを得る。 最後に, 推定されたひび割れの形態的特徴をスケルトン抽出アルゴリズムを用いて測定した。 提案手法を検証するために,2つの公開き裂データベース (cfd, aiglern) 上でいくつかの実験を行い,その結果を比較した。 実験の結果,提案手法は他の手法よりも優れていた。 き裂測定では、亀裂の長さと幅を異なるき裂の種類(複雑、一般的、薄い、交差するき裂)に基づいて測定することができる。 その結果,提案アルゴリズムはひび割れ測定に有効であることがわかった。

Automated pavement crack detection and measurement are important road issues. Agencies have to guarantee the improvement of road safety. Conventional crack detection and measurement algorithms can be extremely time-consuming and low efficiency. Therefore, recently, innovative algorithms have received increased attention from researchers. In this paper, we propose an ensemble of convolutional neural networks (without a pooling layer) based on probability fusion for automated pavement crack detection and measurement. Specifically, an ensemble of convolutional neural networks was employed to identify the structure of small cracks with raw images. Secondly, outputs of the individual convolutional neural network model for the ensemble were averaged to produce the final crack probability value of each pixel, which can obtain a predicted probability map. Finally, the predicted morphological features of the cracks were measured by using the skeleton extraction algorithm. To validate the proposed method, some experiments were performed on two public crack databases (CFD and AigleRN) and the results of the different state-of-the-art methods were compared. The experimental results show that the proposed method outperforms the other methods. For crack measurement, the crack length and width can be measure based on different crack types (complex, common, thin, and intersecting cracks.). The results show that the proposed algorithm can be effectively applied for crack measurement.
翻訳日:2023-01-02 22:46:46 公開日:2020-02-08
# 適応モデルスケジューリングによる包括的かつ効率的なデータラベリング

Comprehensive and Efficient Data Labeling via Adaptive Model Scheduling ( http://arxiv.org/abs/2002.05520v1 )

ライセンス: Link先を確認
Mu Yuan, Lan Zhang, Xiang-Yang Li, Hui Xiong(参考訳) データのラベル付け(人、オブジェクト、アクション、シーンなど)を包括的かつ効率的に行うことは、広く必要だが困難な作業である。 様々なデータにラベルを付けるために多くのモデルが提案され、深層学習モデルの能力を高めるために多くのアプローチが考案された。 残念ながら、単一の機械学習モデルは、データからさまざまな意味情報を抽出できるほど強力ではない。 画像検索プラットフォームやフォトアルバム管理アプリのような特定のアプリケーションを考えると、十分なラベルを得るためにモデルの集合を実行する必要がある。 限られた計算資源と厳密な遅延により、データストリームと適用可能なリソースを消費するディープラーニングモデルの集合を考慮し、モデルのサブセットを適応的にスケジュールして各データアイテム上で実行し、モデルの出力値(例えば、高信頼ラベルの数)を最大化する新しいアプローチを設計する。 なぜなら、どんなデータ項目にもモデルの出力はコンテンツに依存し、実行されるまで未知であるからである。 そこで本研究では,適応型モデルスケジューリングフレームワークを提案する。 1)多種多様なモデル間の意味関係のマイニングによる非実行モデルの価値予測のための深層強化学習に基づくアプローチ 2)2つのヒューリスティックアルゴリズムは,それぞれ期限付き又は期限付き制約下でモデル実行順序を適応的にスケジュールする。 提案されたフレームワークはデータの事前知識を必要とせず、既存のモデル最適化技術の強力な補完として機能する。 我々は、5つの多様な画像データセットと30の人気のある画像ラベリングモデルについて広範な評価を行い、設計の有効性を実証した。

Labeling data (e.g., labeling the people, objects, actions and scene in images) comprehensively and efficiently is a widely needed but challenging task. Numerous models were proposed to label various data and many approaches were designed to enhance the ability of deep learning models or accelerate them. Unfortunately, a single machine-learning model is not powerful enough to extract various semantic information from data. Given certain applications, such as image retrieval platforms and photo album management apps, it is often required to execute a collection of models to obtain sufficient labels. With limited computing resources and stringent delay, given a data stream and a collection of applicable resource-hungry deep-learning models, we design a novel approach to adaptively schedule a subset of these models to execute on each data item, aiming to maximize the value of the model output (e.g., the number of high-confidence labels). Achieving this lofty goal is nontrivial since a model's output on any data item is content-dependent and unknown until we execute it. To tackle this, we propose an Adaptive Model Scheduling framework, consisting of 1) a deep reinforcement learning-based approach to predict the value of unexecuted models by mining semantic relationship among diverse models, and 2) two heuristic algorithms to adaptively schedule the model execution order under a deadline or deadline-memory constraints respectively. The proposed framework doesn't require any prior knowledge of the data, which works as a powerful complement to existing model optimization technologies. We conduct extensive evaluations on five diverse image datasets and 30 popular image labeling models to demonstrate the effectiveness of our design: our design could save around 53\% execution time without loss of any valuable labels.
翻訳日:2023-01-02 22:39:59 公開日:2020-02-08
# 中規模高コスト多目的最適化問題に対するsurrogate assisted evolutionary algorithm

Surrogate Assisted Evolutionary Algorithm for Medium Scale Expensive Multi-Objective Optimisation Problems ( http://arxiv.org/abs/2002.03150v1 )

ライセンス: Link先を確認
Xiaoran Ruan, Ke Li, Bilel Derbel, Arnaud Liefooghe(参考訳) 目的関数の代理モデルを構築することは、計算コストのかかる数値シミュレーションや高価な物理実験を含む実世界の複雑な最適化問題を解くために進化アルゴリズム(EA)を支援するのに効果的であることが示されている。 しかし、その効果は主に10未満の小さな問題に焦点を当てている。 surrogate assisted eas (saeas) のスケーラビリティはまだ十分に研究されていない。 本稿では,最大50個の決定変数を持つ中規模の高コスト多目的最適化問題に対するガウス過程サロゲートモデルを提案する。 提案したSAEAには3つの特徴がある。 まず、surrogateモデル構築ですべての決定変数を使用する代わりに、それらの関連付けられた変数のみを使用して、それぞれのobjective関数に対してsurrogateモデルを構築します。 第二に、代理対象関数を直接最適化するのではなく、元の多目的最適化問題は、代理モデルに基づく新しいものへと変換される。 最後に、トレーニングデータセットを更新するために、実際の目的関数評価のための2つの候補ソリューションを選択するために、サブセット選択法を開発した。 提案アルゴリズムの有効性は10,20,50変数のベンチマーク問題で検証され,3つの最先端saeと比較した。

Building a surrogate model of an objective function has shown to be effective to assist evolutionary algorithms (EAs) to solve real-world complex optimisation problems which involve either computationally expensive numerical simulations or costly physical experiments. However, their effectiveness mostly focuses on small-scale problems with less than 10 decision variables. The scalability of surrogate assisted EAs (SAEAs) have not been well studied yet. In this paper, we propose a Gaussian process surrogate model assisted EA for medium-scale expensive multi-objective optimisation problems with up to 50 decision variables. There are three distinctive features of our proposed SAEA. First, instead of using all decision variables in surrogate model building, we only use those correlated ones to build the surrogate model for each objective function. Second, rather than directly optimising the surrogate objective functions, the original multi-objective optimisation problem is transformed to a new one based on the surrogate models. Last but not the least, a subset selection method is developed to choose a couple of promising candidate solutions for actual objective function evaluations thus to update the training dataset. The effectiveness of our proposed algorithm is validated on benchmark problems with 10, 20, 50 variables, comparing with three state-of-the-art SAEAs.
翻訳日:2023-01-02 22:39:22 公開日:2020-02-08
# PixelHop++:イメージ分類のための小さな継承サブスペース学習ベース(SSLベース)モデル

PixelHop++: A Small Successive-Subspace-Learning-Based (SSL-based) Model for Image Classification ( http://arxiv.org/abs/2002.03141v1 )

ライセンス: Link先を確認
Yueru Chen, Mozhdeh Rouhsedaghat, Suya You, Raghuveer Rao and C.-C. Jay Kuo(参考訳) 逐次部分空間学習(ssl)原理は,画像分類のためのpixelhop法として知られる解釈可能な学習モデルの設計のために開発された。 本稿では,改良されたpixelhopメソッドを提案し,それをpixelhop++と呼ぶ。 まず、画素ホップモデルのサイズを小さくするために、空間スペクトル分離可能性仮定の下で複数の空間テンソル(各スペクトル成分に対して1つ)に結合的な空間スペクトル入力テンソルを分離し、チャネルワイズ(c/w)サーブ変換と呼ばれるチャネル回りの方法でサーブ変換を行う。 第3に、これらの1d特徴は相互エントロピー値に従ってランク付けされ、画像分類のための識別特徴のサブセットを選択できる。 PixelHop++では、モデルサイズと分類性能のフレキシブルなトレードオフを取り除き、粒度の学習モデルサイズを制御することができる。 MNIST、Fashion MNIST、CIFAR-10の3つのデータセット上でPixelHop++の柔軟性を示す。

The successive subspace learning (SSL) principle was developed and used to design an interpretable learning model, known as the PixelHop method,for image classification in our prior work. Here, we propose an improved PixelHop method and call it PixelHop++. First, to make the PixelHop model size smaller, we decouple a joint spatial-spectral input tensor to multiple spatial tensors (one for each spectral component) under the spatial-spectral separability assumption and perform the Saab transform in a channel-wise manner, called the channel-wise (c/w) Saab transform.Second, by performing this operation from one hop to another successively, we construct a channel-decomposed feature tree whose leaf nodes contain features of one dimension (1D). Third, these 1D features are ranked according to their cross-entropy values, which allows us to select a subset of discriminant features for image classification. In PixelHop++, one can control the learning model size of fine-granularity,offering a flexible tradeoff between the model size and the classification performance. We demonstrate the flexibility of PixelHop++ on MNIST, Fashion MNIST, and CIFAR-10 three datasets.
翻訳日:2023-01-02 22:38:20 公開日:2020-02-08
# SUOD: スケーラブルで教師なしなアウトリア検出を目指して

SUOD: Toward Scalable Unsupervised Outlier Detection ( http://arxiv.org/abs/2002.03222v1 )

ライセンス: Link先を確認
Yue Zhao and Xueying Ding and Jianing Yang and Haoping Bai(参考訳) 外乱検出は異常なデータオブジェクトを識別するための機械学習の重要な分野である。 基礎的真理獲得のコストが高いため、教師なしのモデルは実際に選択されることが多い。 教師なしアルゴリズムの不安定な性質を補うために、金融、健康、セキュリティといった高度な分野の実践者は、さらなる組み合わせと分析のための多数のモデルを構築することを好む。 しかし、これは高次元の大規模データセットにスケーラビリティ上の課題をもたらす。 本研究では,多数の教師なし検出モデルを用いて,トレーニングと予測を高速化する,SUODと呼ばれる3モジュール加速度フレームワークを提案する。 SUODのランダム射影モジュールは、距離関係を保ちながら高次元データセットの低い部分空間を生成することができる。 バランスの取れた並列スケジューリングモジュールは、信頼性の高いモデルのトレーニングと予測コストを予測できるため、タスクスケジューラは、効率のよい並列化のために、作業者間でほぼ同等のタスク負荷を割り当てることができる。 SUODにはPseudo-supervised Approximationモジュールも付属しており、非教師付きモデルを低時間複雑教師付き回帰器で近似して、目に見えないデータに対する高速な予測を行うことができる。 これは教師なしのモデル知識蒸留プロセスと見なすことができる。 特に、すべての3つのモジュールは独立しており、"mix and Match"に非常に柔軟性がある。 30以上のベンチマークデータセットに関する広範な実験により、suodの有効性が示され、包括的な将来の開発計画も提示されている。

Outlier detection is a key field of machine learning for identifying abnormal data objects. Due to the high expense of acquiring ground truth, unsupervised models are often chosen in practice. To compensate for the unstable nature of unsupervised algorithms, practitioners from high-stakes fields like finance, health, and security, prefer to build a large number of models for further combination and analysis. However, this poses scalability challenges in high-dimensional large datasets. In this study, we propose a three-module acceleration framework called SUOD to expedite the training and prediction with a large number of unsupervised detection models. SUOD's Random Projection module can generate lower subspaces for high-dimensional datasets while reserving their distance relationship. Balanced Parallel Scheduling module can forecast the training and prediction cost of models with high confidence---so the task scheduler could assign nearly equal amount of taskload among workers for efficient parallelization. SUOD also comes with a Pseudo-supervised Approximation module, which can approximate fitted unsupervised models by lower time complexity supervised regressors for fast prediction on unseen data. It may be considered as an unsupervised model knowledge distillation process. Notably, all three modules are independent with great flexibility to "mix and match"; a combination of modules can be chosen based on use cases. Extensive experiments on more than 30 benchmark datasets have shown the efficacy of SUOD, and a comprehensive future development plan is also presented.
翻訳日:2023-01-02 22:37:44 公開日:2020-02-08
# 接合ディリクレプロセス

Conjoined Dirichlet Process ( http://arxiv.org/abs/2002.03223v1 )

ライセンス: Link先を確認
Michelle N. Ngo, Dustin S. Pluta, Alexander N. Ngo, Babak Shahbaba(参考訳) ビクラスタリング(Biclustering)は、行列の行と列を同時にクラスタリングして、異種データを均質なブロックに分類するテクニックのクラスである。 多くのアルゴリズムがビクラスタを見つけるために提案されているが、既存の手法はビクラスタ数の事前特定やモデル構造上の制約に悩まされている。 これらの問題に対処するため、我々はDirichletプロセスに基づく新しい非パラメトリック確率的ビクラスタリング法を開発し、行と列の両方に強い共起を持つビクラスタを同定する。 提案手法では,2つのディリクレプロセス混合モデルを用いて行と列のクラスタを学習する。 確率的ビクラスタは、行と列クラスタ間の相互依存をモデル化することによって同定される。 本手法はテキストマイニングと遺伝子発現解析の2つの異なる応用に適用し,既存の手法に比べて多くの設定でビクラスタ抽出を改善することを示す。

Biclustering is a class of techniques that simultaneously clusters the rows and columns of a matrix to sort heterogeneous data into homogeneous blocks. Although many algorithms have been proposed to find biclusters, existing methods suffer from the pre-specification of the number of biclusters or place constraints on the model structure. To address these issues, we develop a novel, non-parametric probabilistic biclustering method based on Dirichlet processes to identify biclusters with strong co-occurrence in both rows and columns. The proposed method utilizes dual Dirichlet process mixture models to learn row and column clusters, with the number of resulting clusters determined by the data rather than pre-specified. Probabilistic biclusters are identified by modeling the mutual dependence between the row and column clusters. We apply our method to two different applications, text mining and gene expression analysis, and demonstrate that our method improves bicluster extraction in many settings compared to existing approaches.
翻訳日:2023-01-02 22:37:22 公開日:2020-02-08
# 自律ナビゲーションによるカプセルネットワーク性能

Capsule Network Performance with Autonomous Navigation ( http://arxiv.org/abs/2002.03181v1 )

ライセンス: Link先を確認
Thomas Molnar and Eugenio Culurciello(参考訳) Capsule Networks (CapsNets) は、CNN(Convolutional Neural Networks)の代替として提案されている。 本稿では,実シナリオの自律的エージェント探索において,CapsNetsがCNNよりも優れていることを示す。 現実世界のナビゲーションでは、エージェントの外部からの報酬はまれである。 強化学習アルゴリズムは、有意義なポリシー機能を形成するのに苦労する。 本稿では,Capsules Exploration Module (Caps-EM) とAdvantage Actor Criticアルゴリズムを組み合わせたCapsNetsアーキテクチャを提案する。 スパース環境をナビゲートするための他のアプローチは、固有の好奇性モジュール(ICM)や拡張好奇性モジュール(ACM)のような固有報酬生成器を必要とする。 Caps-EMは、本質的な報酬を必要としない、よりコンパクトなアーキテクチャを使用する。 vizdoomでテストされたcaps-emは、icmおよびd-acmよりも44%と83%のトレーニング可能なネットワークパラメータを使用しており、それぞれ1141%、d-acmの平均時間改善率437%で、"my way home"シナリオにまたがるポリシー関数に収束する。

Capsule Networks (CapsNets) have been proposed as an alternative to Convolutional Neural Networks (CNNs). This paper showcases how CapsNets are more capable than CNNs for autonomous agent exploration of realistic scenarios. In real world navigation, rewards external to agents may be rare. In turn, reinforcement learning algorithms can struggle to form meaningful policy functions. This paper's approach Capsules Exploration Module (Caps-EM) pairs a CapsNets architecture with an Advantage Actor Critic algorithm. Other approaches for navigating sparse environments require intrinsic reward generators, such as the Intrinsic Curiosity Module (ICM) and Augmented Curiosity Modules (ACM). Caps-EM uses a more compact architecture without need for intrinsic rewards. Tested using ViZDoom, the Caps-EM uses 44% and 83% fewer trainable network parameters than the ICM and Depth-Augmented Curiosity Module (D-ACM), respectively, for 1141% and 437% average time improvement over the ICM and D-ACM, respectively, for converging to a policy function across "My Way Home" scenarios.
翻訳日:2023-01-02 22:31:01 公開日:2020-02-08
# 帯域保存探索のための改良アルゴリズム

Improved Algorithms for Conservative Exploration in Bandits ( http://arxiv.org/abs/2002.03221v1 )

ライセンス: Link先を確認
Evrard Garcelon, Mohammad Ghavamzadeh, Alessandro Lazaric, Matteo Pirotta(参考訳) デジタルマーケティング、ヘルスケア、金融、ロボティクスなど、多くの分野において、よくテストされた信頼性の高いベースラインポリシーが製品(例えばレコメンデーターシステム)で実行されることが一般的である。 しかし、基本方針はしばしば準最適である。 この場合、オンライン学習アルゴリズム(例えば、マルチアームのバンディットアルゴリズム)をデプロイしてシステムと対話し、学習プロセス中は、ベースライン自体のパフォーマンスよりもパフォーマンスがほとんど悪くならないという制約の下で、より良い最適ポリシーを学習することが望ましい。 本稿では,文脈線形帯域設定における保守的学習問題を考察し,保守的制約付きLinUCB(CLUCB2)という新しいアルゴリズムを導入する。 既存の結果と一致するclucb2の後悔の限界を導出し、多くの合成および実世界の問題において最先端の保守的バンディットアルゴリズムよりも優れていることを実証的に示します。 最後に、事前に定義されたチェックポイント(各ステップではなく)でパフォーマンスが検証されるより現実的な制約を検討し、この緩和された制約がCLUCB2の後悔と経験的なパフォーマンスにどのように影響するかを示す。

In many fields such as digital marketing, healthcare, finance, and robotics, it is common to have a well-tested and reliable baseline policy running in production (e.g., a recommender system). Nonetheless, the baseline policy is often suboptimal. In this case, it is desirable to deploy online learning algorithms (e.g., a multi-armed bandit algorithm) that interact with the system to learn a better/optimal policy under the constraint that during the learning process the performance is almost never worse than the performance of the baseline itself. In this paper, we study the conservative learning problem in the contextual linear bandit setting and introduce a novel algorithm, the Conservative Constrained LinUCB (CLUCB2). We derive regret bounds for CLUCB2 that match existing results and empirically show that it outperforms state-of-the-art conservative bandit algorithms in a number of synthetic and real-world problems. Finally, we consider a more realistic constraint where the performance is verified only at predefined checkpoints (instead of at every step) and show how this relaxed constraint favorably impacts the regret and empirical performance of CLUCB2.
翻訳日:2023-01-02 22:29:48 公開日:2020-02-08
# 境界メモリ学習の組合せ的特徴付けに向けて

Towards a combinatorial characterization of bounded memory learning ( http://arxiv.org/abs/2002.03123v1 )

ライセンス: Link先を確認
Alon Gonen and Shachar Lovett and Michal Moshkovitz(参考訳) 組合せ次元は機械学習の理論において重要な役割を果たす。 例えば、VC次元はPAC学習を、SQ次元は統計的クエリで弱い学習を、Littlestone次元はオンライン学習を特徴付ける。 本稿では,境界メモリ学習を特徴付ける組合せ次元を開発することを目的とする。 本稿では, 近隣分布のSQ次元に基づいて, 既知の分布下での強学習を実現するための候補解を提案する。 我々は、いくつかのパラメーターの体系で一致する候補解の上限と下限の両方を証明した。 このパラメータ体系では、境界メモリとSQ学習の間には等価性がある。 我々は、我々の特徴がより広いパラメータの体系で成り立つと推測する。

Combinatorial dimensions play an important role in the theory of machine learning. For example, VC dimension characterizes PAC learning, SQ dimension characterizes weak learning with statistical queries, and Littlestone dimension characterizes online learning. In this paper we aim to develop combinatorial dimensions that characterize bounded memory learning. We propose a candidate solution for the case of realizable strong learning under a known distribution, based on the SQ dimension of neighboring distributions. We prove both upper and lower bounds for our candidate solution, that match in some regime of parameters. In this parameter regime there is an equivalence between bounded memory and SQ learning. We conjecture that our characterization holds in a much wider regime of parameters.
翻訳日:2023-01-02 22:20:09 公開日:2020-02-08
# 機械学習保証用多様体

Manifold for Machine Learning Assurance ( http://arxiv.org/abs/2002.03147v1 )

ライセンス: Link先を確認
Taejoon Byun, Sanjai Rayadurgam(参考訳) 機械学習(ML)の使用の増加により、重要なタスクにおけるシステムは、受け入れられたシステム保証原則に根ざした、新しい検証と検証技術の探求を促進する。 従来のシステム開発では、モデルに基づく手法が広く採用されており、その中心となる前提は、必要なシステムの抽象モデルがその実装を判断するための健全な基礎を提供することである。 本稿では,低次元構造体である低次元構造体を暗黙的に記述した高次元トレーニングデータから抽出するML手法を用いて,MLシステムに類似したアプローチを提案する。 その後、テストの精度測定、テスト入力生成、ターゲットのMLシステムの実行時の監視など、さまざまな品質保証タスクに利用されます。 このアプローチは変分オートエンコーダに基づいており、与えられた高次元データセットと低次元表現の間の相互に近接する関数の対を学習する教師なしの方法である。 予備実験により、テストデータの多様性を促進するためのマニホールドベースアプローチは、テスト生成においてフォールトトレバーでありながら現実的なテストケースをもたらし、ランタイム監視は、ターゲットシステムの出力の信頼性を評価する独立した手段を提供する。

The increasing use of machine-learning (ML) enabled systems in critical tasks fuels the quest for novel verification and validation techniques yet grounded in accepted system assurance principles. In traditional system development, model-based techniques have been widely adopted, where the central premise is that abstract models of the required system provide a sound basis for judging its implementation. We posit an analogous approach for ML systems using an ML technique that extracts from the high-dimensional training data implicitly describing the required system, a low-dimensional underlying structure--a manifold. It is then harnessed for a range of quality assurance tasks such as test adequacy measurement, test input generation, and runtime monitoring of the target ML system. The approach is built on variational autoencoder, an unsupervised method for learning a pair of mutually near-inverse functions between a given high-dimensional dataset and a low-dimensional representation. Preliminary experiments establish that the proposed manifold-based approach, for test adequacy drives diversity in test data, for test generation yields fault-revealing yet realistic test cases, and for runtime monitoring provides an independent means to assess trustability of the target system's output.
翻訳日:2023-01-02 22:19:59 公開日:2020-02-08
# 機械学習におけるオーバーフィット障壁のスケーラブルエントロピー破断について

On a scalable entropic breaching of the overfitting barrier in machine learning ( http://arxiv.org/abs/2002.03176v1 )

ライセンス: Link先を確認
Illia Horenko(参考訳) のオーバーフィッティングと処理は、機械学習(ML)において最も難しい問題の一つであり、比較的小さなデータ統計サイズである$T$は、比較的大きなデータ特徴次元の$D$に適合する堅牢なMLを提供するのに十分ではない。 D$とT$の異なる一般的な分類問題の大規模並列ML解析をデプロイし、一般的なML手法に対する統計的に重要な線形オーバーフィッティング障壁の存在を実証する。 例えば、バイオインフォマティクスを動機とする一般的な問題をLSTM(Long Short-Term Memory Deep Learning Classifier)で堅牢に分類するには、統計学において少なくとも13.8倍のT$が必要であり、特徴次元はD$である。 このオーバーフィッティング障壁は、エントロピー最適化のスケーラブル確率近似アルゴリズム(eSPA)を用いて、エントロピー最適化のベイズネットワーク推論と特徴空間セグメンテーションの合同解を実行することにより、計算コストの10〜12ドル分で破ることができる。 実験単細胞RNAシークエンシングデータへのeSPAの応用は、標準バイオインフォマティクスツールと比較して30倍、ディープラーニングLSTM分類器と比較して7倍の性能向上を示す。

Overfitting and treatment of "small data" are among the most challenging problems in the machine learning (ML), when a relatively small data statistics size $T$ is not enough to provide a robust ML fit for a relatively large data feature dimension $D$. Deploying a massively-parallel ML analysis of generic classification problems for different $D$ and $T$, existence of statistically-significant linear overfitting barriers for common ML methods is demonstrated. For example, these results reveal that for a robust classification of bioinformatics-motivated generic problems with the Long Short-Term Memory deep learning classifier (LSTM) one needs in a best case a statistics $T$ that is at least 13.8 times larger then the feature dimension $D$. It is shown that this overfitting barrier can be breached at a $10^{-12}$ fraction of the computational cost by means of the entropy-optimal Scalable Probabilistic Approximations algorithm (eSPA), performing a joint solution of the entropy-optimal Bayesian network inference and feature space segmentation problems. Application of eSPA to experimental single cell RNA sequencing data exhibits a 30-fold classification performance boost when compared to standard bioinformatics tools - and a 7-fold boost when compared to the deep learning LSTM classifier.
翻訳日:2023-01-02 22:19:20 公開日:2020-02-08
# 一般化隠れパラメータMDPを用いたモデルベースRLの試行

Generalized Hidden Parameter MDPs Transferable Model-based RL in a Handful of Trials ( http://arxiv.org/abs/2002.03072v1 )

ライセンス: Link先を確認
Christian F. Perez, Felipe Petroski Such, Theofanis Karaletsos(参考訳) 多くの(関連する)タスクを解決し、最初のトレーニング後に新しいタスクや環境に適応できるRLエージェントの作成には、幅広い関心がある。 モデルに基づくRLは、個々のタスクのダイナミクスと報酬を記述する学習されたサロゲートモデルを活用する。 階層モデルは、各タスクをスクラッチから個別に解くのではなく、アイテムの質量が持ち上げるために必要な力にどのように影響するかを学ぶ際に、効率的な一般化を達成するために、タスクが変化の因果要因によってしばしば関係しているという事実を利用することができる。 本稿では,タスクごとに異なる隠れパラメータの関数として,力学と報酬の両方が変化するMDPのファミリーを記述した一般化隠れパラメータ(GHP-MDP)を提案する。 GHP-MDPはモデルベースのRLを拡張し、潜在変数がこれらの隠れパラメータをキャプチャし、タスク間の転送を容易にする。 また,タスク間の差異の因果的要因(エージェント特性,環境要因,目標など)を反映した,明示的な潜伏構造を含むモデルの変種についても検討する。 従来の最先端のベースラインを10\times$より少ないデータで打ち負かしながら、報酬と動的潜在空間を用いた新しい挑戦的な MuJoCo タスクに対して、最先端のパフォーマンスとサンプル効率を実験的に実証した。 潜在変数のテスト時間推論を用いることで,1つのエピソードでダイナミクスと報酬の新しい組み合わせ,新たな報酬を一般化する。

There is broad interest in creating RL agents that can solve many (related) tasks and adapt to new tasks and environments after initial training. Model-based RL leverages learned surrogate models that describe dynamics and rewards of individual tasks, such that planning in a good surrogate can lead to good control of the true system. Rather than solving each task individually from scratch, hierarchical models can exploit the fact that tasks are often related by (unobserved) causal factors of variation in order to achieve efficient generalization, as in learning how the mass of an item affects the force required to lift it can generalize to previously unobserved masses. We propose Generalized Hidden Parameter MDPs (GHP-MDPs) that describe a family of MDPs where both dynamics and reward can change as a function of hidden parameters that vary across tasks. The GHP-MDP augments model-based RL with latent variables that capture these hidden parameters, facilitating transfer across tasks. We also explore a variant of the model that incorporates explicit latent structure mirroring the causal factors of variation across tasks (for instance: agent properties, environmental factors, and goals). We experimentally demonstrate state-of-the-art performance and sample-efficiency on a new challenging MuJoCo task using reward and dynamics latent spaces, while beating a previous state-of-the-art baseline with $>10\times$ less data. Using test-time inference of the latent variables, our approach generalizes in a single episode to novel combinations of dynamics and reward, and to novel rewards.
翻訳日:2023-01-02 22:12:51 公開日:2020-02-08
# 連続制御における状態抽象化の学習

Learning State Abstractions for Transfer in Continuous Control ( http://arxiv.org/abs/2002.05518v1 )

ライセンス: Link先を確認
Kavosh Asadi, David Abel, Michael L. Littman(参考訳) 優れた表現を持つ単純なアルゴリズムは、強化学習問題を解くことができるか? そこで本研究では,この質問に対して,「シンプルな学習アルゴリズム」を表型Q-Learningとし,「よい表現」を学習状態の抽象化とし,「問題に対処する」ことを連続制御タスクとする肯定的回答を行う。 私たちの主な貢献は、連続的な状態空間を離散的に抽象化する学習アルゴリズムです。 我々は,この学習表現を未知の問題に移し,効果的な学習を可能にする。 本稿では,学習した抽象概念が有界値損失を維持できることを示す理論を提案し,その抽象概念が表在Q学習に有効であることを示す実験を報告する。

Can simple algorithms with a good representation solve challenging reinforcement learning problems? In this work, we answer this question in the affirmative, where we take "simple learning algorithm" to be tabular Q-Learning, the "good representations" to be a learned state abstraction, and "challenging problems" to be continuous control tasks. Our main contribution is a learning algorithm that abstracts a continuous state-space into a discrete one. We transfer this learned representation to unseen problems to enable effective learning. We provide theory showing that learned abstractions maintain a bounded value loss, and we report experiments showing that the abstractions empower tabular Q-Learning to learn efficiently in unseen tasks.
翻訳日:2023-01-02 22:12:07 公開日:2020-02-08
# 離散領域に対する制約駆動型解法モデル : 排他的時間変動問題の事例研究

A Constraint Driven Solution Model for Discrete Domains with a Case Study of Exam Timetabling Problems ( http://arxiv.org/abs/2002.03102v1 )

ライセンス: Link先を確認
Anuraganand Sharma(参考訳) 多くの科学と工学の応用では、一連の制約を満たすことによって計画と最適化の問題に対する解決策を見つける必要がある。 これらの制約問題(CP)は一般にNP完全であり、制約満足度問題(CSP)または制約最適化問題(COP)として定式化することができる。 進化的アルゴリズム(EA)は、様々な問題領域において至るところで最適化問題を解くのに良い解法であるが、従来のEAの演算子は制約に対する'盲'であり、一般に問題に依存した目的関数を用いる。 進化的アルゴリズムICHEA(Intelligent constraint handle Evolution Algorithm)のバリエーションは、制約から情報を抽出し、進化的探索に利用して探索をより効率的にするための、我々の以前の研究(Sharma and Sharma, 2012)において、制約付き問題に対する多種多様な制約付きEAであることが示されている。 本稿では,ICHEAを用いてベンチマークの時間差問題,従来のCOPの解法を実証した。 提案したアプローチは、ソリューションの品質の観点から、EAにおける他の最先端のアプローチと競合する結果を示す。 ICHEAはまず、与えられた制約をすべて段階的に満たすために結婚間クロスオーバー演算子を使用し、その後、ソリューションを最適化するために従来の演算子と拡張演算子の組み合わせを使用する。 一般に、EAによって解決されるCPは、問題依存のペナルティに基づくフィットネス機能である。 また,問題依存型フィットネス機能を必要としない汎用的選好型ソリューションモデルを提案したが,現時点では相互排他的制約のみに対応している。

Many science and engineering applications require finding solutions to planning and optimization problems by satisfying a set of constraints. These constraint problems (CPs) are typically NP-complete and can be formalized as constraint satisfaction problems (CSPs) or constraint optimization problems (COPs). Evolutionary algorithms (EAs) are good solvers for optimization problems ubiquitous in various problem domains, however traditional operators for EAs are 'blind' to constraints or generally use problem dependent objective functions; as they do not exploit information from the constraints in search for solutions. A variation of EA, Intelligent constraint handling evolutionary algorithm (ICHEA), has been demonstrated to be a versatile constraints-guided EA for continuous constrained problems in our earlier works in (Sharma and Sharma, 2012) where it extracts information from constraints and exploits it in the evolutionary search to make the search more efficient. In this paper ICHEA has been demonstrated to solve benchmark exam timetabling problems, a classic COP. The presented approach demonstrates competitive results with other state-of-the-art approaches in EAs in terms of quality of solutions. ICHEA first uses its inter-marriage crossover operator to satisfy all the given constraints incrementally and then uses combination of traditional and enhanced operators to optimize the solution. Generally CPs solved by EAs are problem dependent penalty based fitness functions. We also proposed a generic preference based solution model that does not require a problem dependent fitness function, however currently it only works for mutually exclusive constraints.
翻訳日:2023-01-02 22:10:58 公開日:2020-02-08
# Segmenta\c{c}\~ao de imagens utilizando competi\c{c}\~ao e coopera\c{c}\~ao entre part\'iculas

Segmenta\c{c}\~ao de imagens utilizando competi\c{c}\~ao e coopera\c{c}\~ao entre part\'iculas ( http://arxiv.org/abs/2002.05521v1 )

ライセンス: Link先を確認
B\'arbara Ribeiro da Silva and Fabricio Aparecido Breve(参考訳) 本稿では,粒子競合として知られる半教師付き学習法の拡張提案と,画像分割作業の協調について述べる。 予備的な結果は、これは有望なアプローチであることを示している。 este artigo apresenta uma proposta de extens\~ao do modelo de aprendizado semi-supervisionado conhecido como competi\c{c}\~ao e coopera\c{c}\~ao entre part\'iculas para a realiza\c{c}\~ao de tarefas de segmenta\c{c}\~ao de imagens 研究成果は、現在進行中である。

This paper presents an extension proposal of the semi-supervised learning method known as Particle Competition and Cooperation for carrying out tasks of image segmentation. Preliminary results show that this is a promising approach. Este artigo apresenta uma proposta de extens\~ao do modelo de aprendizado semi-supervisionado conhecido como Competi\c{c}\~ao e Coopera\c{c}\~ao entre Part\'iculas para a realiza\c{c}\~ao de tarefas de segmenta\c{c}\~ao de imagens. Resultados preliminares mostram que esta \'e uma abordagem promissora.
翻訳日:2023-01-02 22:10:26 公開日:2020-02-08
# autoNLP: テキスト分析アプリケーションのためのNLP機能推奨

autoNLP: NLP Feature Recommendations for Text Analytics Applications ( http://arxiv.org/abs/2002.03056v1 )

ライセンス: Link先を確認
Janardan Misra(参考訳) 機械学習ベースのテキスト分析アプリケーションを設計している間、しばしば、NLPデータサイエンティストは、関連する問題に関する知識と経験に基づいて、どのNLP機能を手動で決定する。 これにより、機能エンジニアリングプロセス中の労力が増大し、セマンティック関連アプリケーション間の機能の自動再利用が本質的に困難になる。 本稿では、nlp特徴量を特定するための言語の構造を概説し、機能仕様の標準化を議論し、最適な特徴量を特定する可能性を高めるために、アプリケーション間で再利用するアプローチを提案する。

While designing machine learning based text analytics applications, often, NLP data scientists manually determine which NLP features to use based upon their knowledge and experience with related problems. This results in increased efforts during feature engineering process and renders automated reuse of features across semantically related applications inherently difficult. In this paper, we argue for standardization in feature specification by outlining structure of a language for specifying NLP features and present an approach for their reuse across applications to increase likelihood of identifying optimal features.
翻訳日:2023-01-02 22:10:08 公開日:2020-02-08