このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200510となっている論文です。

PDF登録状況(公開日: 20200510)

TitleAuthorsAbstract論文公表日・翻訳日
# 高精度光パルス原子干渉計への摂動作用素アプローチ

Perturbative operator approach to high-precision light-pulse atom interferometry ( http://arxiv.org/abs/2003.02042v2 )

ライセンス: Link先を確認
Christian Ufrecht and Enno Giese(参考訳) 光パルス原子干渉計は強力な量子センサーであるが、例えば弱い等価原理のテストでは磁場や黒体放射のような様々な刺激効果によって精度が制限される。 そのため、精度を高めるには、このような有害な効果の大きさの詳細な評価が必要となる。 ここでは、摂動の力で位相シフトとコントラストを解析的に得るための系統的演算子展開を提案する。 この結果は、強固な直観的な数値推定や厳密な計算に利用できる。 アプローチの有効性に関する一般的な条件とともに、ウェーブ・パケット効果を含む位相について特に有用な式を提供する。

Light-pulse atom interferometers are powerful quantum sensors, however, their accuracy for example in tests of the weak equivalence principle is limited by various spurious influences like magnetic stray fields or blackbody radiation. Pushing the accuracy therefore requires a detailed assessment of the size of such deleterious effects. Here, we present a systematic operator expansion to obtain phase shifts and contrast analytically in powers of the perturbation. The result can either be employed for robust straightforward order-of-magnitude estimates or for rigorous calculations. Together with general conditions for the validity of the approach, we provide a particularly useful formula for the phase including wave-packet effects.
翻訳日:2023-05-31 05:25:23 公開日:2020-05-10
# 周期駆動格子アレイにおける散逸ダイナミクスのコヒーレント制御

Coherent control of dissipative dynamics in a periodically driven lattice array ( http://arxiv.org/abs/2005.04594v1 )

ライセンス: Link先を確認
Zhao-Yun Zeng, Lei Li, Baiyun Yang, Jinpeng Xiao, and Xiaobing Luo(参考訳) 暗フロッケ状態, システムが漸近的に駆動されるシンク状態から発生し, 周期的駆動場のパラメータによってのみ全体の確率が決定される開1次元格子系において, 崩壊の抑制機構が異なる。 ダーク・フロケ状態のゼロ準エネルギーは真のゼロではないことが示されているが、量子状態の長期進化において望ましくない物理的効果を引き起こす、消えるほど小さな負の虚数である。 もう1つの重要な発見は、ダーク・フロケ状態関連準エネルギーのゼロでない想像的部分のサイズによって決定されるシステムの有効崩壊の値が、そこにある局所的な損失のある部位の数ではなく、運転した部位に最も近い場所のどれかに依存することである。 したがって、特別に設計された局所散逸の場合、駆動パラメータを制御することで、非駆動の場合に比べて、全体の確率損失のレベルがずっと低く、十分な長い進化時間に対して良好な安定性で、システムをダークフロッケ状態に誘導することができる。 これらの結果は奇数な点数を持つ多点格子系に適用でき、局所的な散逸を伴う多数の多状態物理系において長時間の減衰制御に有用である。

We find a different mechanism for suppression of decay in an open one-dimensional lattice system, which originates from a dark Floquet state, a sink state to which the system is asymptotically driven, whose overall probability is determined only by the parameters of the periodic driving field. The zero-quasienergy of dark Floquet state has been shown to be not a real zero, but a vanishingly small negative imaginary number which will cause undesirable physical effect in long-time evolution of quantum states, which is extremely different from the conservative counterpart. Another important finding is that the value of the system's effective decay, determined by the size of the non-zero imaginary part of the dark-Floquet-state-related quasienergy, depends not on how many localized lossy sites there are but on which one of the lossy sites is nearest to the driven site. Thus, for specially designed local dissipation, by controlling the driving parameters, it is possible for us to drive the system to a dark Floquet state with a much lower level of overall probability loss as compared to the undriven case and with good stability over enough longer evolution time. These results are applicable to the multisite lattice system with an odd number of sites and may be significant for long-time control of decay in a vast family of multistate physical systems with localized dissipation.
翻訳日:2023-05-20 16:14:31 公開日:2020-05-10
# 量子ピンスカー不等式の量子通信への応用

Application of quantum Pinsker inequality to quantum communications ( http://arxiv.org/abs/2005.04553v1 )

ライセンス: Link先を確認
Osamu Hirota(参考訳) 1960年代、ウィナーの考えに基づき、東京工業大学における量子情報の数学的手法の研究をさらに発展させるために、池原鹿雄(n.wienerの初等生)は、純粋数学的な側面から梅垣久春の研究の進展を奨励した。 その後、1970年代、梅垣グループによる成果をもとに、池原は、量子情報科学をグローバル情報科学として発展させ広めるよう著者に指示した。 梅垣グループの成果は純粋数学の主要な業績として評価されているが、現在の量子情報科学への貢献は十分に議論されていない。 本稿では,池原と梅垣グループの量子コミュニケーション設計論への貢献を,量子相対エントロピーや量子ピンスカー不等式などの具体的な例で紹介した,池原記念セミナーにおける私の講演の考察を紹介する。

Back in the 1960s, based on Wiener's thought, Shikao Ikehara (first student of N.Wiener) encouraged the progress of Hisaharu Umegaki's research from a pure mathematical aspect in order to further develop the research on mathematical methods of quantum information at Tokyo Institute of Technology. Then, in the 1970s, based on the results accomplished by Umegaki Group, Ikehara instructed the author to develop and spread quantum information science as the global information science. While Umegaki Group's results have been evaluated as major achievements in pure mathematics, their contributions to current quantum information science have not been fully discussed. This paper gvies a survey of my talk in the memorial seminar on Ikehara, in which Ikehara and Umegaki Group's contributions to design theory of quantum communication have been introduced with specific examples such as quantum relative entropy and quantum Pinsker inequality.
翻訳日:2023-05-20 16:13:49 公開日:2020-05-10
# 並列・並列プログラミングにおける学習者の問題解決戦略の理解--ゲームベースアプローチ

Understanding Learners' Problem-Solving Strategies in Concurrent and Parallel Programming: A Game-Based Approach ( http://arxiv.org/abs/2005.04789v1 )

ライセンス: Link先を確認
Jichen Zhu, Katelyn Alderfer, Brian Smith, Bruce Char, Santiago Onta\~n\'on(参考訳) 並列並列プログラミング(cpp)は、コンピュータサイエンス教育においてますます重要な課題である。 しかし、逐次プログラミングから概念的な転換は難しいことで悪名高い。 現在、人々がCPPのコアコンセプトを学ぶ方法に関する研究はほとんどない。 本稿では,学習者の自己効力感とCPP概念の学習方法に着目し,CPPに関する教育ゲームであるParallelを用いた学習結果について述べる。 44人の大学生を対象にした研究では (a)ゲーム後に自己効力は著しく増大する。 (b)ゲームプレイ中の生徒が採用する問題解決戦略は,試行錯誤,シングルスレッド,マルチスレッド戦略の3つの主要なタイプに分類される。 (c) 自己効力は, 学生がマルチスレッド問題解決に費やす時間の割合と相関する。

Concurrent and parallel programming (CPP) is an increasingly important subject in Computer Science Education. However, the conceptual shift from sequential programming is notoriously difficult to make. Currently, relatively little research exists on how people learn CPP core concepts. This paper presents our results of using Parallel, an educational game about CPP, focusing on the learners' self-efficacy and how they learn CPP concepts. Based on a study of 44 undergraduate students, our research shows that (a) self-efficacy increased significantly after playing the game; (b) the problem-solving strategies employed by students playing the game can be classified in three main types: trial and error, single-thread, and multi-threaded strategies, and (c) that self-efficacy is correlated with the percentage of time students spend in multithreaded problem-solving.
翻訳日:2023-05-20 16:08:33 公開日:2020-05-10
# 量子力学における条件付き可観測物

Conditioned Observables in Quantum Mechanics ( http://arxiv.org/abs/2005.04775v1 )

ライセンス: Link先を確認
Stan Gudder(参考訳) 本稿では,有限次元量子力学における条件付き可観測物の基本的な性質について述べる。 まず、量子効果の逐次積を定義し、これを2つの可観測物の逐次積を定義する。 逐次積は、他の可観測性に対して条件付き可観測性を構築するために用いられる。 次に、コンディショニングが可観測物の混合と後処理を保存することを示す。 3つの観測対象と観測対象を補完する条件を考える。 観測可能な演算子を自然に定義し、この写像が混合や後処理を保存していることを示す。 最後に、観測可能量ではなく自己随伴作用素の観点から条件づけを定義する方法を提案する。 この手法は従来の手法と関係があるが、等価ではない。

This paper presents some of the basic properties of conditioned observables in finite-dimensional quantum mechanics. We begin by defining the sequential product of quantum effects and use this to define the sequential product of two observables. The sequential product is then employed to construct the conditioned observable relative to another observable. We then show that conditioning preserves mixtures and post-process of observables. We consider conditioning among three observables and a complement of an observable. Corresponding to an observable, we define an observable operator in a natural way and show that this mapping also preserves mixtures and post-processing. Finally, we present a method of defining conditioning in terms of self-adjoint operators instead of observables. Although this technique is related to our previous method it is not equivalent.
翻訳日:2023-05-20 16:08:21 公開日:2020-05-10
# バレーン王国における市民サービス強化のための相互運用型フレームワーク

Interoperable Framework to Enhance Citizen Services in the Kingdom of Bahrain ( http://arxiv.org/abs/2005.04670v1 )

ライセンス: Link先を確認
Mohammed Ghanem, Ali Alsoufi(参考訳) 市民記録は異なる州組織に分散している。 市民および組織が市民サービスを満たすために記録を収集し、維持し、更新するための時間、労力、資源を無駄にする。 相互運用性は、異なるエンティティ間のシームレスなコラボレーションを可能にする重要な要素です。 信頼の欠如、中央集権化、政策と技術の違いといった相互運用性の課題を克服するには、非慣習的な方法が必要です。 ブロックチェーンは破壊的な技術であり、これらの課題を克服する可能性がある。 この技術は、コンセンサス機構の制御を通じて、信頼できない環境での仲介の排除を伴うピアツーピアトランザクションを可能にするように設計されている。 本研究では,bahrainにおける相互運用性の現状を調査し,相互運用可能なフレームワークを設計し,ブロックチェーン技術を用いたプロトタイプの実装によるフレームワークの妥当性をテストすることを目的とした。 I:情報収集, II: フレームワークの設計とモデリング, III: プロトタイプの実装, IV: プロトタイプの性能の測定。 この研究は進行中であり、バーレーン王国におけるE政府によるより良いサービスの提供と、e政府からシームレスな政府への移行を支援し、持続可能な市民サービスを実現するための計画を強化することが期待されている。 一方, プロセス最適化の増加, コスト削減, 複雑さの低減により, 社会, 経済, 環境の持続可能性の向上が期待されている。

Citizen records are scattered between different state organizations. It wastes time, effort, and resources for both citizen and organization to collect, maintain, and update records to fulfill citizen services. Interoperability is a key element that enables seamless collaboration between different entities. It requires non-conventional methods to overcome interoperability challenges such as lack of trust, centralization, and policy and technology differences. Blockchain is a disruptive technology with the potential to overcome these challenges. The technology designed to enable peer-to-peer transactions with elimination of intermediary in a trustless environment through the control of consensus mechanisms. This research aims to explore the status of interoperability in Bahrain, design an interoperable framework, and then test the validity of the framework by implementation of a prototype using blockchain technology. The research will be divided into four phases; I: Information collection, II: Design and modeling the framework, III: Implementation of a prototype, and Phase IV: Measuring the performance of the prototype. This research is in progress and it is expected, once is it complete, to enhance the e-government's plan in the Kingdom of Bahrain to provide better services to citizens and help in the transition from e-government to seamless government, which will lead to sustainable citizen services. On the other hand, the findings of the study is expected to improve the social, economical, and environmental sustainability by the increase in process optimization, reduction of cost and complexity.
翻訳日:2023-05-20 16:07:20 公開日:2020-05-10
# 従業員の生産性測定と管理--国立大学を事例として

Employees Productivity Measurement and Control -- a Case of a National University ( http://arxiv.org/abs/2005.04666v1 )

ライセンス: Link先を確認
Khaled Waleed, Ali AlSoufi(参考訳) 国立大学におけるインターネットアクセス制御が従業員の生産性に与える影響を実験的に検討した。 この研究の目的は、適切なインターネットアクセス制御を通じて従業員の生産性を高めることである。 主な目的は、スタッフが最もよく使うウェブカテゴリーを見つけ、生産性と仕事関連のインターネット利用との間に関係があるかどうかを確認し、インターネットアクセス制御の最高のレベルを選択することである。 実験を開始する前に、従業員のインターネット利用をモニターし、適切なインターネットアクセス制御グループに分類した。 その後、スタッフにプレテストの生産性向上対策を依頼され、45日間実験が開始された。 その後、テスト後の生産性測定が実施された。 生産性の変化は、部門自然、インターネット利用ポートフォリオ、および現在のインターネットアクセス制御グループで分析され、最良のレベルの制限が見つかった。 その結果,インターネット利用率の低い部署の生産性は,インターネットアクセスの制限や制限の影響を受けなかった。 しかし、インターネット利用率の高い部門では、インターネット規制政策が作業関連Webサイトに影響を与えることはなかったが、作業関連Webサイトに影響を与えると生産性が低下した。

An experimental study, that finds the impact of Internet access control on the employees productivity in the National University. The purpose of the study is to boost the employee productivity through proper Internet access control. The main objectives are to find the most used web categories by the staff, find if relation exists between productivity and none work related internet usage, and choose the best level of Internet access control. Before initiating the experiment, Employees Internet usage was monitored and accordingly classified them into the proper Internet access control groups. Then supervisors were asked for a pre-test productivity measures for their staff, after that the experiment was initiated for 45 days. Then, a post-test productivity measure was done. Productivity changes were analyzed with the department nature, its Internet usage portfolio and its current Internet access control group; then the best level of restriction was found. The result showed that the productivity of departments with low Internet usage was not affected by restricting and none restricting Internet access. However, for high Internet usage departments noticeable productivity improvement was there when the Internet restriction policy was not affecting work-related websites; but when it was affecting work-related websites the productivity decreased.
翻訳日:2023-05-20 16:06:59 公開日:2020-05-10
# 平均場量子臨界性を持つ平衡量子メトロロジー内外

In and out of equilibrium quantum metrology with mean-field quantum criticality ( http://arxiv.org/abs/2001.03189v2 )

ライセンス: Link先を確認
Sascha Wald, Saulo V. Moreira and Fernando L. Semi\~ao(参考訳) 本稿では,集団遷移現象が量子力学プロトコルに与える影響について考察する。 単一球面量子スピン(SQS)は平均場レベルでの分析的な洞察を可能にするステレオタイプ玩具モデルとして機能する。 まず、SQSにおける平衡量子臨界度に着目し、位相遷移を駆動するパラメータの推定精度の最小値と関連する量子フィッシャー情報を解析的に取得する。 我々は、光子計数のような測定が用いられる特定の実験シナリオについて、フィッシャー情報と比較する。 量子臨界性とスクイージングは、メトロロジカルなシナリオにおいて有用な資源である。 第2に、放散非平衡定常状態(NESS)における平衡転移のアウトオブバランスの量子フィッシャー情報を取得し、放散の有無がパラメータ推定に与える影響について検討する。 このシナリオでは、臨界点は散逸率に依存する量によって変化することが知られている。 ここでは、順序付き位相における遷移駆動パラメータの全範囲の高精度プロトコルを設計するために使用される。 実際、推定されるパラメータの特定の値に対して、散逸は平衡シナリオと比較して高い精度を得るために用いられる。

We study the influence that collective transition phenomena have on quantum metrological protocols. The single spherical quantum spin (SQS) serves as stereotypical toy model that allows analytical insights on a mean-field level. First, we focus on equilibrium quantum criticality in the SQS and obtain the quantum Fisher information analytically, which is associated with the minimum lower bound for the precision of estimation of the parameter driving the phase transition. We compare it with the Fisher information for a specific experimental scenario where photoncounting-like measurements are employed. We find how quantum criticality and squeezing are useful resources in the metrological scenario. Second, we obtain the quantum Fisher information for the out of equilibrium transition in the dissipative non-equilibrium steady state (NESS), and investigate how the presence of dissipation affects the parameter estimation. In this scenario, it is known that the critical point is shifted by an amount which depends on the dissipation rate. This is used here to design high precision protocols for a whole range of the transition-driving parameter in the ordered phase. In fact, for certain values of the parameter being estimated, dissipation may be used to obtain higher precision when compared to the equilibrium scenario.
翻訳日:2023-01-13 05:33:28 公開日:2020-05-10
# 密度推定による異常検出

Anomaly Detection with Density Estimation ( http://arxiv.org/abs/2001.04990v2 )

ライセンス: Link先を確認
Benjamin Nachman and David Shih(参考訳) 神経密度推定の最近のブレークスルーを利用して,新しい教師なし異常検出手法(anode)を提案する。 信号領域及びサイドバンドにおけるデータの確率密度を推定し、後者を信号領域に補間することにより、データと背景の確率比を構築することができる。 この確率比は、局所的な異常に起因する可能性のあるデータの過剰密度に広く敏感である。 さらに、ANODE法のユニークな潜在的な利点は、学習された密度を使って背景を直接推定できることである。 最後に、ANODEは信号領域とサイドバンドの体系的な違いに対して堅牢であり、他の方法よりも幅広い適用性を提供します。 我々は, LHC Olympics 2020 R\&D Dataset を用いて, この新しいアプローチのパワーを実証する。 背景予測において,AnODEが最大7倍の精度でジジェットバンプハントの重要性を高めることができることを示す。 LHCは繰り返し使われる例であるが、ここで開発された手法は物理学などにおける異常検出に適用可能である。

We leverage recent breakthroughs in neural density estimation to propose a new unsupervised anomaly detection technique (ANODE). By estimating the probability density of the data in a signal region and in sidebands, and interpolating the latter into the signal region, a likelihood ratio of data vs. background can be constructed. This likelihood ratio is broadly sensitive to overdensities in the data that could be due to localized anomalies. In addition, a unique potential benefit of the ANODE method is that the background can be directly estimated using the learned densities. Finally, ANODE is robust against systematic differences between signal region and sidebands, giving it broader applicability than other methods. We demonstrate the power of this new approach using the LHC Olympics 2020 R\&D Dataset. We show how ANODE can enhance the significance of a dijet bump hunt by up to a factor of 7 with a 10\% accuracy on the background prediction. While the LHC is used as the recurring example, the methods developed here have a much broader applicability to anomaly detection in physics and beyond.
翻訳日:2023-01-11 13:29:07 公開日:2020-05-10
# テンソル法によるディープラーニングの一般化理解

Understanding Generalization in Deep Learning via Tensor Methods ( http://arxiv.org/abs/2001.05070v2 )

ライセンス: Link先を確認
Jingling Li, Yanchao Sun, Jiahao Su, Taiji Suzuki, Furong Huang(参考訳) ディープニューラルネットワークは、未知のデータにうまく一般化するが、パラメータの数はトレーニングサンプル数をはるかに超えることが多い。 最近提案された複雑性尺度は、PACベイズ、堅牢性、過度なパラメータ化、圧縮などの観点から、ニューラルネットワークの一般化可能性を理解するための洞察を提供する。 本稿では,ネットワークのアーキテクチャとその一般化性との関係を圧縮の観点から理解する。 テンソル解析を用いて, ニューラルネットワークの圧縮性と一般化性を密に特徴付ける, 直感的かつデータ依存的, 容易に測定可能な一連の特性を提案する。 さらに、これらの直感的な測定は、より良い/保証された一般化性に好適な特性を持つニューラルネットワークアーキテクチャの設計に関するさらなる洞察を提供する。 実験の結果,提案する測定可能な特性により,一般化誤差のバウンドがテスト誤差の傾向によく一致することがわかった。 我々の理論解析は、広く使われているテンソルベースの圧縮手法の実証的な成功と限界をさらに正当化する。 また,提案する層間構造によるテンソル演算を組み込んだ場合,現在のニューラルネットワークの圧縮性とロバスト性の改善も見いだされる。

Deep neural networks generalize well on unseen data though the number of parameters often far exceeds the number of training examples. Recently proposed complexity measures have provided insights to understanding the generalizability in neural networks from perspectives of PAC-Bayes, robustness, overparametrization, compression and so on. In this work, we advance the understanding of the relations between the network's architecture and its generalizability from the compression perspective. Using tensor analysis, we propose a series of intuitive, data-dependent and easily-measurable properties that tightly characterize the compressibility and generalizability of neural networks; thus, in practice, our generalization bound outperforms the previous compression-based ones, especially for neural networks using tensors as their weight kernels (e.g. CNNs). Moreover, these intuitive measurements provide further insights into designing neural network architectures with properties favorable for better/guaranteed generalizability. Our experimental results demonstrate that through the proposed measurable properties, our generalization error bound matches the trend of the test error well. Our theoretical analysis further provides justifications for the empirical success and limitations of some widely-used tensor-based compression approaches. We also discover the improvements to the compressibility and robustness of current neural networks when incorporating tensor operations via our proposed layer-wise structure.
翻訳日:2023-01-11 12:05:34 公開日:2020-05-10
# 行動バイオメトリックスを用いたスマートフォンユーザのセンサベース連続認証--現代調査

Sensor-based Continuous Authentication of Smartphones' Users Using Behavioral Biometrics: A Contemporary Survey ( http://arxiv.org/abs/2001.08578v2 )

ライセンス: Link先を確認
Mohammed Abuhamad, Ahmed Abusnaina, DaeHun Nyang, and David Mohaisen(参考訳) モバイルデバイスや技術はますます普及し、デスクトップコンピュータに同等のストレージと計算能力を提供し、ユーザが機密情報やプライベートな情報を保存したり操作したりできるようになっている。 このような個人情報のセキュリティと保護は、モバイルデバイスが不正アクセスや盗難に弱いため、ますます重要になっている。 ユーザ認証(英: User authentication)とは、使用セッションを通じて適切なユーザへのアクセスを許可する重要なタスクである。 このタスクは、現在のスマートフォンの組み込みセンサーによって実現されており、行動バイオメトリックスや特性をキャプチャすることで、継続的な暗黙のユーザ認証を可能にする。 本稿では,運動ベースの手法(28研究),歩行ベースの手法(19研究),キーストロークダイナミクスに基づく手法(20研究),タッチジェスチャに基づく手法(29研究),音声に基づく手法(16研究),マルチモーダルベースの手法(34研究)など,140以上の最近の行動バイオメトリックに基づく連続的ユーザ認証手法を調査した。 この調査は、スマートフォンの組み込みセンサーが捉えた行動バイオメトリックスを用いた、継続的なユーザ認証に関する現在の最先端のアプローチの概要と、採用、ユーザビリティ、パフォーマンスに関する洞察とオープンな課題を提供する。

Mobile devices and technologies have become increasingly popular, offering comparable storage and computational capabilities to desktop computers allowing users to store and interact with sensitive and private information. The security and protection of such personal information are becoming more and more important since mobile devices are vulnerable to unauthorized access or theft. User authentication is a task of paramount importance that grants access to legitimate users at the point-of-entry and continuously through the usage session. This task is made possible with today's smartphones' embedded sensors that enable continuous and implicit user authentication by capturing behavioral biometrics and traits. In this paper, we survey more than 140 recent behavioral biometric-based approaches for continuous user authentication, including motion-based methods (28 studies), gait-based methods (19 studies), keystroke dynamics-based methods (20 studies), touch gesture-based methods (29 studies), voice-based methods (16 studies), and multimodal-based methods (34 studies). The survey provides an overview of the current state-of-the-art approaches for continuous user authentication using behavioral biometrics captured by smartphones' embedded sensors, including insights and open challenges for adoption, usability, and performance.
翻訳日:2023-01-07 13:30:40 公開日:2020-05-10
# 変位場を用いた単眼深度推定におけるシャープおよび正確な閉塞境界の推定

Predicting Sharp and Accurate Occlusion Boundaries in Monocular Depth Estimation Using Displacement Fields ( http://arxiv.org/abs/2002.12730v3 )

ライセンス: Link先を確認
Michael Ramamonjisoa, Yuming Du, Vincent Lepetit(参考訳) 現在の単眼画像からの深度マップ予測法は、入力画像における咬合境界の滑らかで低局在な輪郭を予測しがちである。 これは、閉塞境界が物体を認識するための重要な手がかりであり、私たちが示すように、シーン再構成から新しい物体を発見する方法につながる可能性があるため不運である。 予測深度マップを改善するために、近年の手法は、様々な形態のフィルタリングに依存するか、または付加残差深さマップを予測し、第1の推定を洗練する。 その代わりに,再構成法によって予測される深度マップを考えると,咬合境界付近の画素をより鋭い再構成に再サンプリングできる2次元変位場を学習する。 本手法は, エンド・ツー・エンドのトレーニング可能な方法で, 任意の深さ推定手法の出力に適用できる。 評価のために、人気のあるNYUv2-Depthデータセットのテスト分割における全画像の閉塞境界を手動で注釈付けした。 提案手法は, 画像の奥行き精度を低下させることなく, 評価できるすべての最先端の単眼深度推定法に対して, 閉塞境界の局所化を向上することを示す。

Current methods for depth map prediction from monocular images tend to predict smooth, poorly localized contours for the occlusion boundaries in the input image. This is unfortunate as occlusion boundaries are important cues to recognize objects, and as we show, may lead to a way to discover new objects from scene reconstruction. To improve predicted depth maps, recent methods rely on various forms of filtering or predict an additive residual depth map to refine a first estimate. We instead learn to predict, given a depth map predicted by some reconstruction method, a 2D displacement field able to re-sample pixels around the occlusion boundaries into sharper reconstructions. Our method can be applied to the output of any depth estimation method, in an end-to-end trainable fashion. For evaluation, we manually annotated the occlusion boundaries in all the images in the test split of popular NYUv2-Depth dataset. We show that our approach improves the localization of occlusion boundaries for all state-of-the-art monocular depth estimation methods that we could evaluate, without degrading the depth accuracy for the rest of the images.
翻訳日:2022-12-28 02:31:54 公開日:2020-05-10
# 自己批判的シーケンス訓練のより良い変種

A Better Variant of Self-Critical Sequence Training ( http://arxiv.org/abs/2003.09971v2 )

ライセンス: Link先を確認
Ruotian Luo(参考訳) 本研究では,単純かつ優れた自己批判的シーケンストレーニングを提案する。 本稿では,REINFORCEアルゴリズムにおけるベースライン関数の選択について簡単な変更を行う。 新しいベースラインは、greedyデコードベースラインと比較して、余分なコストなしでパフォーマンスが向上する。

In this work, we present a simple yet better variant of Self-Critical Sequence Training. We make a simple change in the choice of baseline function in REINFORCE algorithm. The new baseline can bring better performance with no extra cost, compared to the greedy decoding baseline.
翻訳日:2022-12-21 05:05:23 公開日:2020-05-10
# コントラスト強調辞書学習に基づくリモートセンシング画像の塩分検出

Contrast-weighted Dictionary Learning Based Saliency Detection for Remote Sensing Images ( http://arxiv.org/abs/2004.02428v2 )

ライセンス: Link先を確認
Zhou Huang, Huai-Xin Chen, Tao Zhou, Yun-Zhi Yang, Chang-Yin Wang and Bi-Yuan Liu(参考訳) 物体検出はリモートセンシング画像解析において重要なタスクである。 冗長情報の計算複雑性を低減し、画像処理の効率を向上させるため、この分野ではビジュアルサリエンシーモデルが広く適用されている。 本稿では,コントラスト重み付き辞書学習(cdl)に基づく,リモートセンシング画像のための新しい塩分検出モデルを提案する。 具体的には、正と負のサンプルから正と非塩分原子を学習し、非塩分辞書に存在しないことを防止しつつ、学習された塩分辞書にコントラスト重み付きパターンが存在することを奨励するために、コントラスト重み付き用語が提案されている。 次に、スパース表現(sr)の係数と再構成誤差を組み合わせることにより、サリエンシーを測定する。 さらに,提案手法を用いて,識別辞書に基づいて各種のサリエンシマップを生成する。 最後に、大域的勾配最適化に基づく融合法を提案し、複数の塩分マップを統合する。 4つのデータセットの実験結果は、提案モデルが他の最先端手法よりも優れていることを示している。

Object detection is an important task in remote sensing image analysis. To reduce the computational complexity of redundant information and improve the efficiency of image processing, visual saliency models have been widely applied in this field. In this paper, a novel saliency detection model based on Contrast-weighted Dictionary Learning (CDL) is proposed for remote sensing images. Specifically, the proposed CDL learns salient and non-salient atoms from positive and negative samples to construct a discriminant dictionary, in which a contrast-weighted term is proposed to encourage the contrast-weighted patterns to be present in the learned salient dictionary while discouraging them from being present in the non-salient dictionary. Then, we measure the saliency by combining the coefficients of the sparse representation (SR) and reconstruction errors. Furthermore, by using the proposed joint saliency measure, a variety of saliency maps are generated based on the discriminant dictionary. Finally, a fusion method based on global gradient optimization is proposed to integrate multiple saliency maps. Experimental results on four datasets demonstrate that the proposed model outperforms other state-of-the-art methods.
翻訳日:2022-12-16 06:54:48 公開日:2020-05-10
# 置換のための$(1+(\lambda,\lambda))$遺伝的アルゴリズム

The $(1+(\lambda,\lambda))$ Genetic Algorithm for Permutations ( http://arxiv.org/abs/2004.08664v2 )

ライセンス: Link先を確認
Anton Bassin and Maxim Buzdalov(参考訳) 1+(\lambda,\lambda)$の遺伝的アルゴリズムは、理論的な発見から得られた知見に基づいて開発された進化的アルゴリズムの明るい例である。 このアルゴリズムはクロスオーバーを使い、OneMaxのような単純な問題でさえ、すべての突然変異ベースの進化アルゴリズムを漸近的に上回ることを示した。 その後、他の多くの問題について研究されたが、これらは全て擬似ブールである。 我々は,1+(\lambda,\lambda)$の遺伝的アルゴリズムを置換問題に適応させることにより,この状況を改善することを目指している。 このような適応は、突然変異の数や相互依存など、ビット文字列といくつかの重要な側面において顕著に異なるため必要である。 また,このアルゴリズムを最初に実行時解析し,その特性がonemaxに類似しているham問題について述べる。 この問題では、単純な突然変異ベースのアルゴリズムが問題サイズが$n$に対して$\theta(n^2 \log n)$である場合、$(1+(\lambda,\lambda))$の遺伝的アルゴリズムは、最適な$o(n^2)$の適合クエリを見つける。 我々はこの解析を実験で補強し,このアルゴリズムが実際に高速であることを示す。

The $(1+(\lambda,\lambda))$ genetic algorithm is a bright example of an evolutionary algorithm which was developed based on the insights from theoretical findings. This algorithm uses crossover, and it was shown to asymptotically outperform all mutation-based evolutionary algorithms even on simple problems like OneMax. Subsequently it was studied on a number of other problems, but all of these were pseudo-Boolean. We aim at improving this situation by proposing an adaptation of the $(1+(\lambda,\lambda))$ genetic algorithm to permutation-based problems. Such an adaptation is required, because permutations are noticeably different from bit strings in some key aspects, such as the number of possible mutations and their mutual dependence. We also present the first runtime analysis of this algorithm on a permutation-based problem called Ham whose properties resemble those of OneMax. On this problem, where the simple mutation-based algorithms have the running time of $\Theta(n^2 \log n)$ for problem size $n$, the $(1+(\lambda,\lambda))$ genetic algorithm finds the optimum in $O(n^2)$ fitness queries. We augment this analysis with experiments, which show that this algorithm is also fast in practice.
翻訳日:2022-12-12 05:19:43 公開日:2020-05-10
# 構造化潜在空間によるきめ細かい表現操作

Fine-Grained Expression Manipulation via Structured Latent Space ( http://arxiv.org/abs/2004.09769v2 )

ライセンス: Link先を確認
Junshu Tang, Zhiwen Shao, Lizhuang Ma(参考訳) きめ細かい表情の操作は難しい問題であり、きめ細かい表情の詳細を捉えるのは難しい。 既存の式操作手法のほとんどは、グローバル式を編集し、詳細の操作を無視する離散式ラベルに依存している。 この制限に対処するために,構造化潜在コードと連続表現ラベルを入力として,期待表現を持つ画像を生成するeggan(end-to-end expression-guided generative adversarial network)を提案する。 具体的には、ソース画像を構造化された潜在空間にマッピングするために、対向オートエンコーダを採用する。 そして、ソース潜時符号とターゲット表現ラベルを考慮し、条件付きGANを用いて、ターゲット表現を持つ新しい画像を生成する。 さらに、世代間のアイデンティティとグローバルな形状を維持するために、知覚的損失と多スケール構造的類似性損失を導入する。 広範な実験により,本手法は細粒度表現を操作でき,ソース表現とターゲット表現の連続的な中間表現を生成できることを示した。

Fine-grained facial expression manipulation is a challenging problem, as fine-grained expression details are difficult to be captured. Most existing expression manipulation methods resort to discrete expression labels, which mainly edit global expressions and ignore the manipulation of fine details. To tackle this limitation, we propose an end-to-end expression-guided generative adversarial network (EGGAN), which utilizes structured latent codes and continuous expression labels as input to generate images with expected expressions. Specifically, we adopt an adversarial autoencoder to map a source image into a structured latent space. Then, given the source latent code and the target expression label, we employ a conditional GAN to generate a new image with the target expression. Moreover, we introduce a perceptual loss and a multi-scale structural similarity loss to preserve identity and global shape during generation. Extensive experiments show that our method can manipulate fine-grained expressions, and generate continuous intermediate expressions between source and target expressions.
翻訳日:2022-12-11 07:06:28 公開日:2020-05-10
# 最大コレントロピー条件下でのロバスト運動平均

Robust Motion Averaging under Maximum Correntropy Criterion ( http://arxiv.org/abs/2004.09829v2 )

ライセンス: Link先を確認
Jihua Zhu, Jie Hu, Huimin Lu, Badong Chen, Zhongyu Li(参考訳) 近年,マルチビュー登録問題を解決する手段として,動き平均化手法が提案されている。 本手法は, 最適化においてフロベニウス標準誤差を用いることにより, 元の手法が外れ値に敏感な一連の相対運動から大域運動を復元することを目的とする。 そこで本稿では, 最大コレントロピー基準(MCC)に基づく新しいロバストな動き平均化手法を提案する。 特に、コレントロピー測度はフロベニウスノルム誤差を利用して外れ値に対する平均運動のロバスト性を改善する代わりに用いられる。 半曲面法によれば、重みの割当と重み付け運動平均化の操作を含む交互最小化手順によって、コレントロピー測度に基づく最適化問題を解決できる。 さらに,コレントロピーを利用するため,適応的なカーネル幅の選択戦略を設計する。 ベンチマークデータセットにおける実験結果は,マルチビュー登録の精度とロバスト性に優れることを示す。

Recently, the motion averaging method has been introduced as an effective means to solve the multi-view registration problem. This method aims to recover global motions from a set of relative motions, where the original method is sensitive to outliers due to using the Frobenius norm error in the optimization. Accordingly, this paper proposes a novel robust motion averaging method based on the maximum correntropy criterion (MCC). Specifically, the correntropy measure is used instead of utilizing Frobenius norm error to improve the robustness of motion averaging against outliers. According to the half-quadratic technique, the correntropy measure based optimization problem can be solved by the alternating minimization procedure, which includes operations of weight assignment and weighted motion averaging. Further, we design a selection strategy of adaptive kernel width to take advantage of correntropy. Experimental results on benchmark data sets illustrate that the new method has superior performance on accuracy and robustness for multi-view registration.
翻訳日:2022-12-11 07:04:49 公開日:2020-05-10
# 新型コロナウイルスに関する2つの燃える質問:経済の閉鎖は助けになったか? 第2波を危険にさらすことなく(一部)経済を再開できますか。

Two Burning Questions on COVID-19: Did shutting down the economy help? Can we (partially) reopen the economy without risking the second wave? ( http://arxiv.org/abs/2005.00072v2 )

ライセンス: Link先を確認
Anish Agarwal, Abdullah Alomar, Arnab Sarker, Devavrat Shah, Dennis Shen, Cindy Yang(参考訳) 新型コロナウイルス(covid-19)パンデミックの頂点に達するにつれ、最も差し迫った疑問は、第2の波を危険にさらすことなく経済を部分的に再開できるのかということだ。 まず、経済のシャットダウンが役に立ったかどうかを理解する必要がある。 もしそうなら、経済を部分的に開放しつつ、パンデミックに対する戦争で同様の利益を達成することは可能だろうか? そのためには,様々な介入の効果とそれに伴う健康・経済的影響を理解することが不可欠である。 多くの介入が存在するため、政策立案者が直面する重要な課題は、それらの間の潜在的なトレードオフを理解し、その状況に最適な特定の介入を選択することである。 本報告では,データ駆動型かつ統計的に原則化されたシナリオプランニング,すなわち政策立案者が実際に実施する前に,異なる介入間のトレードオフを理解するための手法であるSynthetic Interventionsの概要について述べる。 基本的に、この方法は、既に世界中で制定された様々な介入の情報を利用して、政策立案者の関心の設定に適合し、例えば、米国に対する移動制限介入の効果を推定する。我々は、厳しい移動制限を強制する国からの毎日の死亡データを用いて、「合成低移動U」を作成し、もしそれが実際に同様の介入を適用したなら、アメリカの反現実的軌道を予測する。 総合的な介入を用いて, 重度な移動制限を解除し, 適度な移動制限のみを保持することが, 効果的に曲線を平坦化すると考えられる。 これは、人口の安全、医療システムの緊張、経済への影響のトレードオフを評価するためのガイダンスを提供することを期待している。

As we reach the apex of the COVID-19 pandemic, the most pressing question facing us is: can we even partially reopen the economy without risking a second wave? We first need to understand if shutting down the economy helped. And if it did, is it possible to achieve similar gains in the war against the pandemic while partially opening up the economy? To do so, it is critical to understand the effects of the various interventions that can be put into place and their corresponding health and economic implications. Since many interventions exist, the key challenge facing policy makers is understanding the potential trade-offs between them, and choosing the particular set of interventions that works best for their circumstance. In this memo, we provide an overview of Synthetic Interventions (a natural generalization of Synthetic Control), a data-driven and statistically principled method to perform what-if scenario planning, i.e., for policy makers to understand the trade-offs between different interventions before having to actually enact them. In essence, the method leverages information from different interventions that have already been enacted across the world and fits it to a policy maker's setting of interest, e.g., to estimate the effect of mobility-restricting interventions on the U.S., we use daily death data from countries that enforced severe mobility restrictions to create a "synthetic low mobility U.S." and predict the counterfactual trajectory of the U.S. if it had indeed applied a similar intervention. Using Synthetic Interventions, we find that lifting severe mobility restrictions and only retaining moderate mobility restrictions (at retail and transit locations), seems to effectively flatten the curve. We hope this provides guidance on weighing the trade-offs between the safety of the population, strain on the healthcare system, and impact on the economy.
翻訳日:2022-12-08 05:50:58 公開日:2020-05-10
# コンパクトで代表的で関連する知識グラフによるドキュメントの強化

Enriching Documents with Compact, Representative, Relevant Knowledge Graphs ( http://arxiv.org/abs/2005.00153v2 )

ライセンス: Link先を確認
Shuxin Li, Zixian Huang, Gong Cheng, Evgeny Kharlamov, Kalpa Gunaratna(参考訳) 知識グラフ(KG)の顕著な応用は文書の充実である。 既存のメソッドは、背景KG内のエンティティの参照を特定し、エンティティタイプと直接関係を持つドキュメントを豊かにする。 我々は,一連のエンティティ間の間接関係をより表現的に表現できるエンティティ関係部分グラフ(ERG)を計算する。 そこで本研究では,表現性とコンパクト性とのトレードオフを実現する新しい組合せ最適化問題を解くための効率的な最優先探索アルゴリズムを提案し,エンティティベース文書kgとkg内関連性を用いてergをランク付けする存在論的知識を活用した。 広範な実験とユーザスタディは、このアプローチの有望な性能を示している。

A prominent application of knowledge graph (KG) is document enrichment. Existing methods identify mentions of entities in a background KG and enrich documents with entity types and direct relations. We compute an entity relation subgraph (ERG) that can more expressively represent indirect relations among a set of mentioned entities. To find compact, representative, and relevant ERGs for effective enrichment, we propose an efficient best-first search algorithm to solve a new combinatorial optimization problem that achieves a trade-off between representativeness and compactness, and then we exploit ontological knowledge to rank ERGs by entity-based document-KG and intra-KG relevance. Extensive experiments and user studies show the promising performance of our approach.
翻訳日:2022-12-08 00:22:26 公開日:2020-05-10
# ジョイントエンコーディングと弱スーパービジョンを用いたニューラルエンティティ要約

Neural Entity Summarization with Joint Encoding and Weak Supervision ( http://arxiv.org/abs/2005.00152v2 )

ライセンス: Link先を確認
Junyou Li, Gong Cheng, Qingxia Liu, Wen Zhang, Evgeny Kharlamov, Kalpa Gunaratna, Huajun Chen(参考訳) 大規模知識グラフ(kg)では、エンティティは多数の三重構造された事実によって記述されることが多い。 多くのアプリケーションはエンティティサマリと呼ばれるエンティティ記述の短縮バージョンを必要とする。 エンティティの要約に対する既存のソリューションは、主に教師なしである。 本稿では,グラフ構造とテキストを協調的にKGに符号化し,高品質な分散要約を生成する,新しいニューラルモデルに基づく教師付きアプローチ NEST を提案する。 訓練のための手作業によるラベル付きサマリーの取得にはコストがかかるため,ノイズを含むが手作業は不要なプログラムによるラベル付きデータの訓練では,指導が不十分である。 評価結果から,本手法は2つの公開ベンチマークで技量を有意に上回ることがわかった。

In a large-scale knowledge graph (KG), an entity is often described by a large number of triple-structured facts. Many applications require abridged versions of entity descriptions, called entity summaries. Existing solutions to entity summarization are mainly unsupervised. In this paper, we present a supervised approach NEST that is based on our novel neural model to jointly encode graph structure and text in KGs and generate high-quality diversified summaries. Since it is costly to obtain manually labeled summaries for training, our supervision is weak as we train with programmatically labeled data which may contain noise but is free of manual work. Evaluation results show that our approach significantly outperforms the state of the art on two public benchmarks.
翻訳日:2022-12-07 23:20:13 公開日:2020-05-10
# NTIRE 2020、画像とビデオの劣化に挑戦

NTIRE 2020 Challenge on Image and Video Deblurring ( http://arxiv.org/abs/2005.01244v2 )

ライセンス: Link先を確認
Seungjun Nah, Sanghyun Son, Radu Timofte and Kyoung Mu Lee(参考訳) 動きのぼけは、動的シーン撮影において最も一般的な分解物の一つである。 本稿は、NTIRE 2020 Challenge on Image and Video Deblurringをレビューする。 本課題では,提案する3つのコンペティショントラックの評価結果と,提案するソリューションについて述べる。 トラック1は、修復品質に着目した単一画像デブラリング手法の開発を目的としている。 トラック2では、走行速度と復元精度のバランスを見つけるために、移動体プラットフォーム上で画像デブロアリング法が実行される。 トラック3は、入力フレーム間の時間的関係を利用するビデオデブロアリング手法の開発を目標としている。 各競技には163,135,102人の登録参加者が参加し,最終テストフェーズでは9,4,7チームが出場した。 入賞方法は,画像および映像デブラリングタスクにおける最先端の性能を示す。

Motion blur is one of the most common degradation artifacts in dynamic scene photography. This paper reviews the NTIRE 2020 Challenge on Image and Video Deblurring. In this challenge, we present the evaluation results from 3 competition tracks as well as the proposed solutions. Track 1 aims to develop single-image deblurring methods focusing on restoration quality. On Track 2, the image deblurring methods are executed on a mobile platform to find the balance of the running speed and the restoration accuracy. Track 3 targets developing video deblurring methods that exploit the temporal relation between input frames. In each competition, there were 163, 135, and 102 registered participants and in the final testing phase, 9, 4, and 7 teams competed. The winning methods demonstrate the state-ofthe-art performance on image and video deblurring tasks.
翻訳日:2022-12-07 01:04:49 公開日:2020-05-10
# ピクシーの自動エンコーディング:関数分布意味論のためのグラフ畳み込みを用いた不定形変分推論

Autoencoding Pixies: Amortised Variational Inference with Graph Convolutions for Functional Distributional Semantics ( http://arxiv.org/abs/2005.02991v2 )

ライセンス: Link先を確認
Guy Emerson(参考訳) 関数分布セマンティクスは、単語の意味をベクトルの代わりに関数(二分分類器)として表現することで、分布セマンティクスのための言語的に解釈可能なフレームワークを提供する。 しかし、潜在変数の数が多ければ、推論は計算に高価であり、モデルのトレーニングは収束が遅いことを意味する。 本稿では,グラフ畳み込みニューラルネットワークを用いて関数分布セマンティックスの生成モデルを拡張し,補正された変分推論を行うPixie Autoencoderを提案する。 これにより、モデルはより効果的にトレーニングされ、2つのタスク(コンテキストとセマンティックな構成のセマンティックな類似性)でより良い結果が得られる。

Functional Distributional Semantics provides a linguistically interpretable framework for distributional semantics, by representing the meaning of a word as a function (a binary classifier), instead of a vector. However, the large number of latent variables means that inference is computationally expensive, and training a model is therefore slow to converge. In this paper, I introduce the Pixie Autoencoder, which augments the generative model of Functional Distributional Semantics with a graph-convolutional neural network to perform amortised variational inference. This allows the model to be trained more effectively, achieving better results on two tasks (semantic similarity in context and semantic composition), and outperforming BERT, a large pre-trained language model.
翻訳日:2022-12-06 05:32:08 公開日:2020-05-10
# cpuクラスタアーキテクチャにおけるディープラーニングレコメンダシステムのトレーニングの最適化

Optimizing Deep Learning Recommender Systems' Training On CPU Cluster Architectures ( http://arxiv.org/abs/2005.04680v1 )

ライセンス: Link先を確認
Dhiraj Kalamkar, Evangelos Georganas, Sudarshan Srinivasan, Jianping Chen, Mikhail Shiryaev, Alexander Heinecke(参考訳) 過去2年間、多くの研究者の目標は、AIタスクのためのHPCシステムにおける最後のパフォーマンスを絞ることだった。 多くの場合、この議論はResNet50のトレーニングの速さという文脈で行われます。 残念ながら、2020年のResNet50はもはや代表的なワークロードではない。 したがって、クラウドコンピューティングセンターにおけるAIサイクルの大部分を占めるRecommender Systemsに焦点を当てる。 具体的には、FacebookのDLRMベンチマークに注目します。 HPC用に調整された最新のCPUハードウェアとソフトウェア上で動作可能にすることで、単一のソケット上で、参照CPU実装と比較して2桁以上のパフォーマンス改善(110倍)を達成でき、超大規模なデータセットを適合させながら、64ソケットまでのスケーリング効率を向上できる。 本稿では,DLRMにおける各種演算子の最適化手法について述べる。 提案したテクニックは、DLRMと同じスケーリング課題/特性を示す、より広範なDLワークロードのセットに適用できる。

During the last two years, the goal of many researchers has been to squeeze the last bit of performance out of HPC system for AI tasks. Often this discussion is held in the context of how fast ResNet50 can be trained. Unfortunately, ResNet50 is no longer a representative workload in 2020. Thus, we focus on Recommender Systems which account for most of the AI cycles in cloud computing centers. More specifically, we focus on Facebook's DLRM benchmark. By enabling it to run on latest CPU hardware and software tailored for HPC, we are able to achieve more than two-orders of magnitude improvement in performance (110x) on a single socket compared to the reference CPU implementation, and high scaling efficiency up to 64 sockets, while fitting ultra-large datasets. This paper discusses the optimization techniques for the various operators in DLRM and which component of the systems are stressed by these different operators. The presented techniques are applicable to a broader set of DL workloads that pose the same scaling challenges/characteristics as DLRM.
翻訳日:2022-12-05 02:18:27 公開日:2020-05-10
# 画像圧縮のための学習コンテキストに基づく非局所エントロピーモデリング

Learning Context-Based Non-local Entropy Modeling for Image Compression ( http://arxiv.org/abs/2005.04661v1 )

ライセンス: Link先を確認
Mu Li, Kai Zhang, Wangmeng Zuo, Radu Timofte, David Zhang(参考訳) 符号のエントロピーは、通常、最近の学習された損失画像圧縮手法の速度損失として機能する。 コードの確率分布の正確な推定は、パフォーマンスにおいて重要な役割を果たす。 しかし、既存の深層学習に基づくエントロピーモデリング手法は一般に、潜在コードは統計的に独立しているか、あるいは何らかの側情報や局所的な文脈に依存していると仮定するが、これは文脈内でのグローバルな類似性を考慮に入れず、正確なエントロピー推定を妨げる。 本稿では,コンテキスト内のグローバル類似性を用いて,コンテキストモデリングのための非局所的な操作を提案する。 具体的には,まず,コンテキストモデリングにおける参照問題の欠如に対処するために,プロキシ類似度関数と空間マスクを導入する。 そして,非局所的注意ブロックを介して局所的コンテキストとグローバル的コンテキストを組み合わせることで,エントロピーモデリングのためのマスク付き畳み込みネットワークに適用する。 エントロピーモデルはさらに、変換符号化フレームワークにおける解析変換と合成変換ネットワークのトレーニングを導くために、結合速度歪み最適化における速度損失として採用されている。 低歪みモデルのトレーニングに変換の幅が不可欠であることを考えると、最終的に変換のU-Netブロックを生成して、管理可能なメモリ消費と時間複雑性で幅を拡大する。 Kodak と Tecnick データセットを用いた実験では,既存の画像圧縮標準や最近の深部画像圧縮モデルに対して,エントロピーモデリングにおけるコンテキストベース非局所アテンションブロックと低歪み圧縮におけるU-Netブロックの優位性を示した。

The entropy of the codes usually serves as the rate loss in the recent learned lossy image compression methods. Precise estimation of the probabilistic distribution of the codes plays a vital role in the performance. However, existing deep learning based entropy modeling methods generally assume the latent codes are statistically independent or depend on some side information or local context, which fails to take the global similarity within the context into account and thus hinder the accurate entropy estimation. To address this issue, we propose a non-local operation for context modeling by employing the global similarity within the context. Specifically, we first introduce the proxy similarity functions and spatial masks to handle the missing reference problem in context modeling. Then, we combine the local and the global context via a non-local attention block and employ it in masked convolutional networks for entropy modeling. The entropy model is further adopted as the rate loss in a joint rate-distortion optimization to guide the training of the analysis transform and the synthesis transform network in transforming coding framework. Considering that the width of the transforms is essential in training low distortion models, we finally produce a U-Net block in the transforms to increase the width with manageable memory consumption and time complexity. Experiments on Kodak and Tecnick datasets demonstrate the superiority of the proposed context-based non-local attention block in entropy modeling and the U-Net block in low distortion compression against the existing image compression standards and recent deep image compression models.
翻訳日:2022-12-05 02:15:57 公開日:2020-05-10
# レプリケーション市場:AIレプリケーションにおける結果、教訓、課題、機会

Replication Markets: Results, Lessons, Challenges and Opportunities in AI Replication ( http://arxiv.org/abs/2005.04543v1 )

ライセンス: Link先を確認
Yang Liu, Michael Gordon, Juntao Wang, Michael Bishop, Yiling Chen, Thomas Pfeiffer, Charles Twardy and Domenico Viganola(参考訳) 過去10年間、社会・行動科学における体系的な大規模レプリケーションプロジェクト(camerer et al., 2016; ebersole et al., 2016; klein et al., 2014; collaboration, 2015)が出現した。 これらのプロジェクトは、科学出版物(ioannidis、2005年)の「偽陽性」の比率が高いこと(そして「疑わしい研究の実践」(simmons、nelson、simonsohn、2011年)に関する理論的および概念的な懸念によって推進された。 コンピュータ科学、人工知能(AI)、機械学習(ML)は特定の関心領域である(Lucic et al., 2018; Freire, Bonnet, and Shasha, 2012; Gundersen and Kjensmo, 2018; Henderson et al., 2018)。 本稿では,研究の信頼性を高めるための新しい方法論の推進における行動・社会科学の先駆的役割を考えるとともに,この分野から学んだ教訓を分析し,コンピュータ科学,ai,mlの戦略を調整するための有望なアプローチである。 特に、複製結果のヒューマン予測の役割と、相対的な労力とリソース集約的なレプリケーションから得られる情報をどのように活用できるかに焦点を合わせます。 我々は、コンピュータサイエンス、AI、MLにおける研究領域の信頼性を監視し改善するためにこれらのアプローチを使用する機会と課題について論じる。

The last decade saw the emergence of systematic large-scale replication projects in the social and behavioral sciences, (Camerer et al., 2016, 2018; Ebersole et al., 2016; Klein et al., 2014, 2018; Collaboration, 2015). These projects were driven by theoretical and conceptual concerns about a high fraction of "false positives" in the scientific publications (Ioannidis, 2005) (and a high prevalence of "questionable research practices" (Simmons, Nelson, and Simonsohn, 2011). Concerns about the credibility of research findings are not unique to the behavioral and social sciences; within Computer Science, Artificial Intelligence (AI) and Machine Learning (ML) are areas of particular concern (Lucic et al., 2018; Freire, Bonnet, and Shasha, 2012; Gundersen and Kjensmo, 2018; Henderson et al., 2018). Given the pioneering role of the behavioral and social sciences in the promotion of novel methodologies to improve the credibility of research, it is a promising approach to analyze the lessons learned from this field and adjust strategies for Computer Science, AI and ML In this paper, we review approaches used in the behavioral and social sciences and in the DARPA SCORE project. We particularly focus on the role of human forecasting of replication outcomes, and how forecasting can leverage the information gained from relatively labor and resource-intensive replications. We will discuss opportunities and challenges of using these approaches to monitor and improve the credibility of research areas in Computer Science, AI, and ML.
翻訳日:2022-12-05 02:15:31 公開日:2020-05-10
# 犯罪地域を識別する信念規則に基づく専門家システム

Belief Rule Based Expert System to Identify the Crime Zones ( http://arxiv.org/abs/2005.04570v1 )

ライセンス: Link先を確認
Abhijit Pathak and Abrar Hossain Tasin(参考訳) 本稿では犯罪ゾーンの特定に焦点を当てる。 次に,犯罪ホットスポットに対する興味深い頻出パターンを生成するために,信条規則ベースアルゴリズムの実施方法を明確にする。 また,本研究では,潜在的な犯罪の予測に専門家システムを用いた方法について述べる。 本研究は,犯罪データセットのさらなる分析のために,チッタゴン犯罪データセットの調査結果と人口統計情報を組み合わせて,近隣の安全に影響を与える要因を捉えた分析研究を行う。 このソリューションの結果は、危険な場所に対する認識を高め、機関が特定の時間に特定の場所で将来の犯罪を予測するのに役立つ。

This paper focuses on Crime zone Identification. Then, it clarifies how we conducted the Belief Rule Base algorithm to produce interesting frequent patterns for crime hotspots. The paper also shows how we used an expert system to forecast potential types of crime. In order to further analyze the crime datasets, the paper introduces an analysis study by combining our findings of the Chittagong crime dataset with demographic information to capture factors that could affect neighborhood safety. The results of this solution could be used to raise awareness of the dangerous locations and to help agencies predict future crimes at a specific location in a given time.
翻訳日:2022-12-05 02:14:58 公開日:2020-05-10
# 心電図におけるPQRST複合体決定への隠れマルコフモデルの適用

Application of the Hidden Markov Model for determining PQRST complexes in electrocardiograms ( http://arxiv.org/abs/2005.04723v1 )

ライセンス: Link先を確認
N.S. Shlyankin, A.V. Gaidel(参考訳) 心電図のQRS, ST, T, P, PQ, ISO錯体のセグメンテーションタスクにおける種々のパラメータを持つ隠れマルコフモデルの応用を検討した。 モデルはQTデータベースを用いてビタビアルゴリズムを用いて訓練された。 比較のために,QRS複合体の持続時間を求めるPan-Tompkinsアルゴリズムを改良した。

The application of the hidden Markov model with various parameters in the segmentation task of QRS, ST, T, P, PQ, ISO complexes of electrocardiograms is considered. Models were trained using the Viterbi algorithm using the QT Database. For comparison, the Pan-Tompkins algorithm for searching for the duration of QRS complexes was modified.
翻訳日:2022-12-05 02:14:22 公開日:2020-05-10
# 新型コロナウイルス対策における意思決定ツールとしてのヘモグラムデータ:資源スカシティシナリオへの応用

Hemogram Data as a Tool for Decision-making in COVID-19 Management: Applications to Resource Scarcity Scenarios ( http://arxiv.org/abs/2005.10227v1 )

ライセンス: Link先を確認
Eduardo Avila, Marcio Dorn, Clarice Sampaio Alho, Alessandro Kahmann(参考訳) 新型コロナウイルス(COVID-19)のパンデミックは世界中の緊急対応システムに挑戦している。 現在のプロトコルでは、本質的な人員を含む症状のある個人に対する義務からの解放を推奨している。 いくつかの国では検査能力が問題であり、診断の需要が利用可能な局所的な検査能力よりも多い。 本研究は, 症状患者の血液検査データから得られた機械学習モデルとqRT-PCR検査結果の予測方法について述べる。 方法: 症状性本質的労働力の管理や診断検査の欠如など,さまざまな不足シナリオに対処するために,機械学習のためのナイーブ・ベイズモデルを提案する。 ヘモグラフィーの結果データを用いてqRT-PCR結果の予測を行ったが、後者が実行されなかったか、まだ得られていない状況であった。 仮定された事前確率の調整は、実際の予測コンテキストに従ってモデルの微調整を可能にする。 提案するモデルでは、高い正確性、感度、特異性を有する症状の個人に対して、covid-19 qrt-pcrの結果を予測することができる。 データ評価は、望ましい結果に応じて、個人または同時に行うことができる。 ヘモグラムデータと背景不足状況に基づいて、ランダム選択と比較して、モデルに基づく患者選択が観察された場合、資源分布が著しく最適化される。 このモデルは、テスト不足やその他の重要な状況を管理するのに役立つ。 機械学習モデルは、新型コロナウイルスの診断に使用されるqRT-PCR結果を予測するために、広く利用可能な、迅速で安価な検査データから導出することができる。 これらのモデルは、人材不足、医療資源不足、検査不足など、資源不足シナリオにおける戦略的意思決定を支援するために使用できる。

COVID-19 pandemics has challenged emergency response systems worldwide, with widespread reports of essential services breakdown and collapse of health care structure. A critical element involves essential workforce management since current protocols recommend release from duty for symptomatic individuals, including essential personnel. Testing capacity is also problematic in several countries, where diagnosis demand outnumbers available local testing capacity. This work describes a machine learning model derived from hemogram exam data performed in symptomatic patients and how they can be used to predict qRT-PCR test results. Methods: A Naive-Bayes model for machine learning is proposed for handling different scarcity scenarios, including managing symptomatic essential workforce and absence of diagnostic tests. Hemogram result data was used to predict qRT-PCR results in situations where the latter was not performed, or results are not yet available. Adjusts in assumed prior probabilities allow fine-tuning of the model, according to actual prediction context. Proposed models can predict COVID-19 qRT-PCR results in symptomatic individuals with high accuracy, sensitivity and specificity. Data assessment can be performed in an individual or simultaneous basis, according to desired outcome. Based on hemogram data and background scarcity context, resource distribution is significantly optimized when model-based patient selection is observed, compared to random choice. The model can help manage testing deficiency and other critical circumstances. Machine learning models can be derived from widely available, quick, and inexpensive exam data in order to predict qRT-PCR results used in COVID-19 diagnosis. These models can be used to assist strategic decision-making in resource scarcity scenarios, including personnel shortage, lack of medical resources, and testing insufficiency.
翻訳日:2022-12-05 02:14:02 公開日:2020-05-10
# 強化学習に基づく線形固定構造制御器の設計

Reinforcement Learning based Design of Linear Fixed Structure Controllers ( http://arxiv.org/abs/2005.04537v1 )

ライセンス: Link先を確認
Nathan P. Lawrence, Gregory E. Stewart, Philip D. Loewen, Michael G. Forbes, Johan U. Backstrom, R. Bhushan Gopaluni(参考訳) 複数のアプリケーションにおけるPIDコントローラのチューニング問題に対して強化学習がうまく適用されている。 既存の手法では、ニューラルネットワークなどの関数近似を利用して、基盤となるプロセスの各時間ステップでコントローラパラメータを更新することが多い。 本研究では,ランダム探索に基づく単純な有限差分法を提案し,線形固定構造コントローラのチューニングを行う。 明確さとシンプルさのために、私たちはPIDコントローラにフォーカスします。 本アルゴリズムは,システムの全閉ループステップ応答で動作し,所望の閉ループ応答に対するPIDゲインを反復的に改善する。 これにより、モデリング手順なしで、安定性要求を報酬関数に組み込むことができる。

Reinforcement learning has been successfully applied to the problem of tuning PID controllers in several applications. The existing methods often utilize function approximation, such as neural networks, to update the controller parameters at each time-step of the underlying process. In this work, we present a simple finite-difference approach, based on random search, to tuning linear fixed-structure controllers. For clarity and simplicity, we focus on PID controllers. Our algorithm operates on the entire closed-loop step response of the system and iteratively improves the PID gains towards a desired closed-loop response. This allows for embedding stability requirements into the reward function without any modeling procedures.
翻訳日:2022-12-05 02:13:30 公開日:2020-05-10
# 強化学習問題としての最適PIDとアンチワインドアップ制御設計

Optimal PID and Antiwindup Control Design as a Reinforcement Learning Problem ( http://arxiv.org/abs/2005.04539v1 )

ライセンス: Link先を確認
Nathan P. Lawrence, Gregory E. Stewart, Philip D. Loewen, Michael G. Forbes, Johan U. Backstrom, R. Bhushan Gopaluni(参考訳) 深部強化学習(DRL)はプロセス制御にいくつかの成功例がある。 一般的な方法は、コントローラやプロセスをモデル化するためにディープニューラルネットワーク構造に依存する。 制御構造が複雑化するにつれて、そのような方法の閉ループ安定性はより明確になる。 本研究では,DRL制御手法の解釈可能性に着目した。 特に、線形固定構造コントローラをアクター・クリティカル・フレームワークに埋め込まれた浅いニューラルネットワークと見なす。 PIDコントローラは、そのシンプルさと産業実践の受容により、私たちの開発をガイドします。 次に入力飽和を考慮し、単純な非線形制御構造へと導く。 アクチュエータのリミット内で効果的に動作するために, 逆巻補正のためのチューニングパラメータを組み込む。 最後に、コントローラの単純さは、簡単な初期化を可能にします。 これにより,本手法は,トレーニング中と後の両方で本質的に安定化し,既知のPIDゲインに適応できる。

Deep reinforcement learning (DRL) has seen several successful applications to process control. Common methods rely on a deep neural network structure to model the controller or process. With increasingly complicated control structures, the closed-loop stability of such methods becomes less clear. In this work, we focus on the interpretability of DRL control methods. In particular, we view linear fixed-structure controllers as shallow neural networks embedded in the actor-critic framework. PID controllers guide our development due to their simplicity and acceptance in industrial practice. We then consider input saturation, leading to a simple nonlinear control structure. In order to effectively operate within the actuator limits we then incorporate a tuning parameter for anti-windup compensation. Finally, the simplicity of the controller allows for straightforward initialization. This makes our method inherently stabilizing, both during and after training, and amenable to known operational PID gains.
翻訳日:2022-12-05 02:13:21 公開日:2020-05-10
# 標準要約から新しいタスクへ:マニフォールド情報を用いた要約

From Standard Summarization to New Tasks and Beyond: Summarization with Manifold Information ( http://arxiv.org/abs/2005.04684v1 )

ライセンス: Link先を確認
Shen Gao, Xiuying Chen, Zhaochun Ren, Dongyan Zhao and Rui Yan(参考訳) テキスト要約は、原文書の短く凝縮したバージョンを作成することを目的とした研究領域であり、文書の主観を数語で伝える。 この研究トピックは、研究者の大規模なコミュニティの注目を集め始め、現在では最も有望な研究分野の1つに数えられている。 一般に、テキスト要約アルゴリズムは、平文文書を入力として使用し、要約を出力することを目的としている。 しかし、現実世界のアプリケーションでは、ほとんどのデータは平易なテキスト形式ではない。 代わりに、検索エンジン内のクエリに基づくWebページの要約、極端に長いドキュメント(学術論文など)、ダイアログ履歴など、多くの多様体情報を要約する必要がある。 本稿では,現実のアプリケーションにおけるこれらの新しい要約タスクとアプローチの探索に焦点をあてる。

Text summarization is the research area aiming at creating a short and condensed version of the original document, which conveys the main idea of the document in a few words. This research topic has started to attract the attention of a large community of researchers, and it is nowadays counted as one of the most promising research areas. In general, text summarization algorithms aim at using a plain text document as input and then output a summary. However, in real-world applications, most of the data is not in a plain text format. Instead, there is much manifold information to be summarized, such as the summary for a web page based on a query in the search engine, extreme long document (e.g., academic paper), dialog history and so on. In this paper, we focus on the survey of these new summarization tasks and approaches in the real-world application.
翻訳日:2022-12-05 02:05:40 公開日:2020-05-10
# 論文引用研究:文脈改善による引用感情の検出

Article citation study: Context enhanced citation sentiment detection ( http://arxiv.org/abs/2005.04534v1 )

ライセンス: Link先を確認
Vishal Vyas, Kumar Ravi, Vadlamani Ravi, V.Uma, Srirangaraj Setlur, Venu Govindaraju(参考訳) サイテーションセシメット分析は、サイエントメトリー分析における最も研究の少ない課題の1つである。 引用分析のために,我々は,引用文を含む8つのデータセットを手作業で3つの感情極性viz(正,負,中性)にアノテートした。 8つのデータセットのうち、3つは引用の文脈全体を考慮して開発された。 さらに,テキスト,パート・オブ・音声タグ,依存関係関係を組み合わした単語埋め込みを含むアンサンブル特徴工学手法を提案する。 要約感情分類のための深層学習に基づくアプローチの入力として, 単語のバグ・オブ・ワード手法と比較した。 実験結果から, 深層学習はサンプル数の増加に有用であり, サポートベクターマシンはより少ないサンプル数の勝者であることがわかった。 さらに, 引用感情分析において, 文脈ベースサンプルは, 文脈レスサンプルよりも効果的であることが証明された。

Citation sentimet analysis is one of the little studied tasks for scientometric analysis. For citation analysis, we developed eight datasets comprising citation sentences, which are manually annotated by us into three sentiment polarities viz. positive, negative, and neutral. Among eight datasets, three were developed by considering the whole context of citations. Furthermore, we proposed an ensembled feature engineering method comprising word embeddings obtained for texts, parts-of-speech tags, and dependency relationships together. Ensembled features were considered as input to deep learning based approaches for citation sentiment classification, which is in turn compared with Bag-of-Words approach. Experimental results demonstrate that deep learning is useful for higher number of samples, whereas support vector machine is the winner for smaller number of samples. Moreover, context-based samples are proved to be more effective than context-less samples for citation sentiment analysis.
翻訳日:2022-12-05 02:04:49 公開日:2020-05-10
# チャープ錯体ケプストラムに基づく非同期声門解析のための分解

Chirp Complex Cepstrum-based Decomposition for Asynchronous Glottal Analysis ( http://arxiv.org/abs/2005.04724v1 )

ライセンス: Link先を確認
Thomas Drugman, Thierry Dutoit(参考訳) 近年, 複雑なケプストラムを声門血流推定に有効に利用し, 音声の因果成分と反因果成分を分離できることが示されている。 正しい推定を保証するために、ウィンドウ上のいくつかの制約が導出された。 これらのうち、ウィンドウはGlottal Closure Instant上で同期する必要がある。 本稿では,チャープ解析を組み込んだ複素ケプストラムに基づく分解の拡張を提案する。 その結果, 窓のある場所において, 声門流れの信頼性の高い推定が可能となった。 この手法は通常の音声処理システムとの統合に適しており、一般的に非同期で動作する。 自動音声品質分析の可能性も強調されている。

It was recently shown that complex cepstrum can be effectively used for glottal flow estimation by separating the causal and anticausal components of speech. In order to guarantee a correct estimation, some constraints on the window have been derived. Among these, the window has to be synchronized on a Glottal Closure Instant. This paper proposes an extension of the complex cepstrum-based decomposition by incorporating a chirp analysis. The resulting method is shown to give a reliable estimation of the glottal flow wherever the window is located. This technique is then suited for its integration in usual speech processing systems, which generally operate in an asynchronous way. Besides its potential for automatic voice quality analysis is highlighted.
翻訳日:2022-12-05 02:04:35 公開日:2020-05-10
# 24時間カラーイメージングのための統合拡張ソリューション

An Integrated Enhancement Solution for 24-hour Colorful Imaging ( http://arxiv.org/abs/2005.04580v1 )

ライセンス: Link先を確認
Feifan Lv, Yinqiang Zheng, Yicheng Li, Feng Lu(参考訳) 24時間屋外イメージングの現在の業界慣行は、近赤外線(NIR)照明を付加したシリコンカメラを使用することである。 これにより、昼はコントラストが悪く、夜は彩度がないカラー画像が得られる。 このジレンマのために、既存のソリューションはすべて、RGBとNIRの画像を別々にキャプチャしようとする。 しかし、追加のハードウェアサポートが必要で、短いサービス寿命、高い価格、特定の利用シナリオなど、さまざまな欠点を抱えています。 本稿では,日光量の多い日でも,極低照度でも鮮明な色彩画像を生成する,新しい統合型拡張ソリューションを提案する。 我々のキーとなる考え方は、混成信号からVISとNIR情報を分離し、NIR信号と適応的にVIS信号を強化することである。 そこで我々は,新たなVIS-NIR-MIXデータセットを収集する光学システムを構築し,CNNに基づく物理的に意味のある画像処理アルゴリズムを提案する。 広範な実験により, 提案手法の有効性を示す優れた結果が得られた。

The current industry practice for 24-hour outdoor imaging is to use a silicon camera supplemented with near-infrared (NIR) illumination. This will result in color images with poor contrast at daytime and absence of chrominance at nighttime. For this dilemma, all existing solutions try to capture RGB and NIR images separately. However, they need additional hardware support and suffer from various drawbacks, including short service life, high price, specific usage scenario, etc. In this paper, we propose a novel and integrated enhancement solution that produces clear color images, whether at abundant sunlight daytime or extremely low-light nighttime. Our key idea is to separate the VIS and NIR information from mixed signals, and enhance the VIS signal adaptively with the NIR signal as assistance. To this end, we build an optical system to collect a new VIS-NIR-MIX dataset and present a physically meaningful image processing algorithm based on CNN. Extensive experiments show outstanding results, which demonstrate the effectiveness of our solution.
翻訳日:2022-12-05 02:04:23 公開日:2020-05-10
# 最大アルゴリズム校正とアルゴリズム因果ネットワーク推論:実世界の汎用知能の一般原理?

Maximal Algorithmic Caliber and Algorithmic Causal Network Inference: General Principles of Real-World General Intelligence? ( http://arxiv.org/abs/2005.04589v1 )

ライセンス: Link先を確認
Ben Goertzel(参考訳) 平衡熱力学からのアイデアと形式は、タダキのアルゴリズム熱力学を追従し拡張することで、確率的計算過程の文脈に移植される。 最大アルゴリズムキャリバの原理が提案され、内部で動作する制約が与えられた場合、どの計算プロセスで仮説を立てるべきかに関するガイダンスを提供する。 適切な仮定の下では、アルゴリズムマルコフ条件に従う計算過程がアルゴリズムの口径を最大化すると予想される。 これに応じて、実世界の認知システムは、環境をモデル化し、アルゴリズムマルコフネットワークに適応しコンパクトに表現される)行動を選択することによって、かなりの部分で機能する可能性がある。 これらのアイデアは、実用的一般に知的なシステムの操作の一般理論への潜在的な初期段階として提案されている。

Ideas and formalisms from far-from-equilibrium thermodynamics are ported to the context of stochastic computational processes, via following and extending Tadaki's algorithmic thermodynamics. A Principle of Maximum Algorithmic Caliber is proposed, providing guidance as to what computational processes one should hypothesize if one is provided constraints to work within. It is conjectured that, under suitable assumptions, computational processes obeying algorithmic Markov conditions will maximize algorithmic caliber. It is proposed that in accordance with this, real-world cognitive systems may operate in substantial part by modeling their environments and choosing their actions to be (approximate and compactly represented) algorithmic Markov networks. These ideas are suggested as potential early steps toward a general theory of the operation of pragmatic generally intelligent systems.
翻訳日:2022-12-05 01:58:19 公開日:2020-05-10
# 情報理論学習を用いたロバストマッチング追従アルゴリズム

A Robust Matching Pursuit Algorithm Using Information Theoretic Learning ( http://arxiv.org/abs/2005.04541v1 )

ライセンス: Link先を確認
Miaohua Zhang, Yongsheng Gao, Changming Sun, Michael Blumenstein(参考訳) 現在の直交整合探索(OMP)アルゴリズムは、内部積演算を用いて2つのベクトル間の相関を計算し、観測データに非ガウス雑音や外れ値がある場合の平均二乗誤差を最小化する。 To overcome these problems, a new OMP algorithm is developed based on the information theoretic learning (ITL), which is built on the following new techniques: (1) an ITL-based correlation (ITL-Correlation) is developed as a new similarity measure which can better exploit higher-order statistics of the data, and is robust against many different types of noise and outliers in a sparse representation framework; (2) a non-second order statistic measurement and minimization method is developed to improve the robustness of OMP by overcoming the limitation of Gaussianity inherent in cost function based on second-order moments. シミュレーションおよび実世界の両方のデータに対する実験結果は、データ復元、画像再構成、分類において提案したOMPアルゴリズムの優位性を一貫して示している。

Current orthogonal matching pursuit (OMP) algorithms calculate the correlation between two vectors using the inner product operation and minimize the mean square error, which are both suboptimal when there are non-Gaussian noises or outliers in the observation data. To overcome these problems, a new OMP algorithm is developed based on the information theoretic learning (ITL), which is built on the following new techniques: (1) an ITL-based correlation (ITL-Correlation) is developed as a new similarity measure which can better exploit higher-order statistics of the data, and is robust against many different types of noise and outliers in a sparse representation framework; (2) a non-second order statistic measurement and minimization method is developed to improve the robustness of OMP by overcoming the limitation of Gaussianity inherent in cost function based on second-order moments. The experimental results on both simulated and real-world data consistently demonstrate the superiority of the proposed OMP algorithm in data recovery, image reconstruction, and classification.
翻訳日:2022-12-05 01:58:03 公開日:2020-05-10
# エピポーラトランス

Epipolar Transformers ( http://arxiv.org/abs/2005.04551v1 )

ライセンス: Link先を確認
Yihui He, Rui Yan, Katerina Fragkiadaki, Shoou-I Yu(参考訳) 同期型・校正型多視点装置における3次元関節のローカライズのための一般的なアプローチは,(1)各視点に個別に2次元検出器を適用して2次元の関節をローカライズし,(2)各視点から2次元検出を堅牢に三角測量して3次元関節位置を得る,という2段階からなる。 しかし、ステップ1では、2D検出器は、3D情報を活用することなく純粋に2Dのオクルージョンや斜めの視角といった3Dでよりうまく解決できる可能性のある難解ケースの解決に限られている。 そこで本研究では,2次元検出装置が3次元認識機能を利用して2次元ポーズ推定を改善する「epipolar transformer」を提案する。 現在のビューで 2D の位置 p が与えられたとき、まずその対応する点 p' を隣のビューで見つけ、次に p' における特徴と p における特徴を組み合わせて、p における3D 対応特徴を導いたい。 ステレオマッチングにインスパイアされたエピポーラ変換器は、エピポーラ制約と特徴マッチングを利用して、p'における特徴を近似する。 InterHandとHuman3.6Mの実験は、我々のアプローチがベースラインよりも一貫して改善されていることを示している。 具体的には、外部データを使用しない場合、resnet-50バックボーンと画像サイズ256x256でトレーニングしたhuman3.6mモデルは、最先端の4.23mmを上回り、mpjpe 26.9mmを達成する。

A common approach to localize 3D human joints in a synchronized and calibrated multi-view setup consists of two-steps: (1) apply a 2D detector separately on each view to localize joints in 2D, and (2) perform robust triangulation on 2D detections from each view to acquire the 3D joint locations. However, in step 1, the 2D detector is limited to solving challenging cases which could potentially be better resolved in 3D, such as occlusions and oblique viewing angles, purely in 2D without leveraging any 3D information. Therefore, we propose the differentiable "epipolar transformer", which enables the 2D detector to leverage 3D-aware features to improve 2D pose estimation. The intuition is: given a 2D location p in the current view, we would like to first find its corresponding point p' in a neighboring view, and then combine the features at p' with the features at p, thus leading to a 3D-aware feature at p. Inspired by stereo matching, the epipolar transformer leverages epipolar constraints and feature matching to approximate the features at p'. Experiments on InterHand and Human3.6M show that our approach has consistent improvements over the baselines. Specifically, in the condition where no external data is used, our Human3.6M model trained with ResNet-50 backbone and image size 256 x 256 outperforms state-of-the-art by 4.23 mm and achieves MPJPE 26.9 mm.
翻訳日:2022-12-05 01:57:50 公開日:2020-05-10
# 一般化コレントロピーに基づく画像表現のためのロバストテンソル分解

Robust Tensor Decomposition for Image Representation Based on Generalized Correntropy ( http://arxiv.org/abs/2005.04605v1 )

ライセンス: Link先を確認
Miaohua Zhang, Yongsheng Gao, Changming Sun, Michael Blumenstein(参考訳) 従来のテンソル分解法、例えば2次元主成分分析と2次元特異値分解は平均二乗誤差を最小化するが、外れ値に敏感である。 この問題を解決するために,一般化したコレントロピー基準(Corr-Tensor)を用いた新しい頑健なテンソル分解法を提案する。 一般化されたコレントロピー目的関数を反復的に効果的に最適化するためにラグランジュ乗算器法が用いられる。 コーラーテンソルは、余分な計算コストを伴わずに、外乱の存在によってテンソル分解の堅牢性を効果的に改善することができる。 実験の結果,提案手法は手指認識と顔画像クラスタリングの精度を向上し,顔再建における再構成誤差を大幅に低減することがわかった。

Traditional tensor decomposition methods, e.g., two dimensional principal component analysis and two dimensional singular value decomposition, that minimize mean square errors, are sensitive to outliers. To overcome this problem, in this paper we propose a new robust tensor decomposition method using generalized correntropy criterion (Corr-Tensor). A Lagrange multiplier method is used to effectively optimize the generalized correntropy objective function in an iterative manner. The Corr-Tensor can effectively improve the robustness of tensor decomposition with the existence of outliers without introducing any extra computational cost. Experimental results demonstrated that the proposed method significantly reduces the reconstruction error on face reconstruction and improves the accuracies on handwritten digit recognition and facial image clustering.
翻訳日:2022-12-05 01:57:18 公開日:2020-05-10
# 変分クラスタリング:変分オートエンコーダを利用した画像クラスタリング

Variational Clustering: Leveraging Variational Autoencoders for Image Clustering ( http://arxiv.org/abs/2005.04613v1 )

ライセンス: Link先を確認
Vignesh Prasad, Dipanjan Das, Brojeshwar Bhowmick(参考訳) ディープラーニングの最近の進歩は、画像の強力な特徴表現を学ぶ能力を示している。 画像クラスタリングのタスクは、データの分布をキャプチャし、それからデータポイントを区別するために、当然、優れた特徴表現を必要とする。 これらの2つの側面は独立して扱われるため、従来の特徴学習だけでは、データを有意義に分割するのに十分ではない。 変分オートエンコーダ(VAE)は、潜在空間におけるデータ分布の学習に自然に役立ちます。 データ中の異なるクラスタ間を効率的に判別したいので、画像を正確にクラスタ化するために、ガウス混合を用いるvaesに基づく手法を提案する。 我々は前と後の両方の分布のパラメータを共同で学習する。 我々の方法は真のガウス混合VAEを表す。 これにより,画像の潜在分布をキャプチャする前処理と後処理を同時に学習し,データ点間の判別を支援する。 また,離散変数と連続変数の混合からなる潜在空間の新たな再パラメータ化を提案する。 ひとつ重要な点は、既存の方法とは異なり、トレーニング済みや学習済みのモデルを使わずに、さまざまなデータセットをまたがってより一般化し、エンドツーエンドでスクラッチからトレーニングできることです。 各種データセットにおける教師なし手法の最先端化を図り,有効性と一般化性を実験的に検証する。 我々の知る限りでは、我々は、実画像データセット上で純粋に教師なしの方法でVAEを用いた画像クラスタリングを最初に追求している。

Recent advances in deep learning have shown their ability to learn strong feature representations for images. The task of image clustering naturally requires good feature representations to capture the distribution of the data and subsequently differentiate data points from one another. Often these two aspects are dealt with independently and thus traditional feature learning alone does not suffice in partitioning the data meaningfully. Variational Autoencoders (VAEs) naturally lend themselves to learning data distributions in a latent space. Since we wish to efficiently discriminate between different clusters in the data, we propose a method based on VAEs where we use a Gaussian Mixture prior to help cluster the images accurately. We jointly learn the parameters of both the prior and the posterior distributions. Our method represents a true Gaussian Mixture VAE. This way, our method simultaneously learns a prior that captures the latent distribution of the images and a posterior to help discriminate well between data points. We also propose a novel reparametrization of the latent space consisting of a mixture of discrete and continuous variables. One key takeaway is that our method generalizes better across different datasets without using any pre-training or learnt models, unlike existing methods, allowing it to be trained from scratch in an end-to-end manner. We verify our efficacy and generalizability experimentally by achieving state-of-the-art results among unsupervised methods on a variety of datasets. To the best of our knowledge, we are the first to pursue image clustering using VAEs in a purely unsupervised manner on real image datasets.
翻訳日:2022-12-05 01:57:05 公開日:2020-05-10
# mombat: パルスモデリングとベイズ追跡を用いた顔ビデオからの心拍モニタリング

MOMBAT: Heart Rate Monitoring from Face Video using Pulse Modeling and Bayesian Tracking ( http://arxiv.org/abs/2005.04618v1 )

ライセンス: Link先を確認
Puneet Gupta, Brojeshwar Bhowmick, Arpan Pal(参考訳) 非侵襲的で安価な心拍数モニタリング法は、医療、心理学的理解、感情コンピューティング、バイオメトリックスなど多くの実世界の応用において非常に重要である。 現在、顔ビデオはこのようなHRモニタリングに利用されていますが、残念ながら、顔の表情、外面の動き、カメラパラメータ(フォーカス変更など)、環境要因によってもたらされるノイズによってエラーを引き起こします。 我々はこれらの問題を、新しい顔ビデオに基づく人事監視手法MOMBAT、すなわちモデリングを用いたMonitoringとBAyesian Trackingを提案することで緩和する。 平面外面運動を用いて,新しい品質推定機構を定義する。 次に, 面外運動の影響を受けやすい部位を含む部位における心血管パルス信号を再構成するためのフーリエベースモデルを提案する。 さらに,ベイズ決定理論に基づくHR追跡機構を設計し,突発的なHR推定を補正する。 実験の結果,提案手法であるmombatは最先端のhrモニタリング手法を上回り,平均絶対誤差1.329拍/分でhrモニタリングを行い,推定心拍数と実際の心拍数とのピアソン相関は0.9746であった。 さらに hrの監視は かなり重要で

A non-invasive yet inexpensive method for heart rate (HR) monitoring is of great importance in many real-world applications including healthcare, psychology understanding, affective computing and biometrics. Face videos are currently utilized for such HR monitoring, but unfortunately this can lead to errors due to the noise introduced by facial expressions, out-of-plane movements, camera parameters (like focus change) and environmental factors. We alleviate these issues by proposing a novel face video based HR monitoring method MOMBAT, that is, MOnitoring using Modeling and BAyesian Tracking. We utilize out-of-plane face movements to define a novel quality estimation mechanism. Subsequently, we introduce a Fourier basis based modeling to reconstruct the cardiovascular pulse signal at the locations containing the poor quality, that is, the locations affected by out-of-plane face movements. Furthermore, we design a Bayesian decision theory based HR tracking mechanism to rectify the spurious HR estimates. Experimental results reveal that our proposed method, MOMBAT outperforms state-of-the-art HR monitoring methods and performs HR monitoring with an average absolute error of 1.329 beats per minute and the Pearson correlation between estimated and actual heart rate is 0.9746. Moreover, it demonstrates that HR monitoring is significantly
翻訳日:2022-12-05 01:56:44 公開日:2020-05-10
# 3次元再構成のためのシンプルでスケーラブルな形状表現

A Simple and Scalable Shape Representation for 3D Reconstruction ( http://arxiv.org/abs/2005.04623v1 )

ライセンス: Link先を確認
Mateusz Michalkiewicz, Eugene Belilovsky, Mahsa Baktashmotlagh, Anders Eriksson(参考訳) 深層学習が3次元形状の再構築に応用されることが注目されている。 近年の3D再構成と生成に対する一般的なアプローチは、通常、ボクセル空間に適用されるCNNエンコーダデコーダモデルである。 しかし、これはしばしば、これらのモデルの有効性を制限した解像度で非常に貧弱なスケールとなる。 3次元形状へのデコードのためのいくつかの洗練された代替案は、典型的にはデコーダモデルのために複雑なディープラーニングアーキテクチャに依存している。 本研究では,この余分な複雑さは不要であり,表面の符号付き距離関数(SDF)の主成分分析から得られた線形デコーダを用いて,実際に高品質な3次元再構成が得られることを示す。 このアプローチにより、より大きな解像度へのスケーリングが容易になる。 複数の実験で、我々の手法は最先端の手法と競合することを示した。 また、SDF変換用に特別に設計された損失を使用して、デコーダをターゲットタスクに微調整し、さらなる利得を得ることもできる。

Deep learning applied to the reconstruction of 3D shapes has seen growing interest. A popular approach to 3D reconstruction and generation in recent years has been the CNN encoder-decoder model usually applied in voxel space. However, this often scales very poorly with the resolution limiting the effectiveness of these models. Several sophisticated alternatives for decoding to 3D shapes have been proposed typically relying on complex deep learning architectures for the decoder model. In this work, we show that this additional complexity is not necessary, and that we can actually obtain high quality 3D reconstruction using a linear decoder, obtained from principal component analysis on the signed distance function (SDF) of the surface. This approach allows easily scaling to larger resolutions. We show in multiple experiments that our approach is competitive with state-of-the-art methods. It also allows the decoder to be fine-tuned on the target task using a loss designed specifically for SDF transforms, obtaining further gains.
翻訳日:2022-12-05 01:55:47 公開日:2020-05-10
# 画像デハージングのためのドメイン適応

Domain Adaptation for Image Dehazing ( http://arxiv.org/abs/2005.04668v1 )

ライセンス: Link先を確認
Yuanjie Shao, Lerenhan Li, Wenqi Ren, Changxin Gao and Nong Sang(参考訳) 学習に基づく手法による画像デハジングは,近年,最先端のパフォーマンスを実現している。 しかし、既存の手法の多くは、ドメインシフトによって実際のヘイズ画像にうまく一般化できない合成ヘイズ画像のデヘイズモデルを訓練している。 この問題に対処するために,画像翻訳モジュールと2つの画像復調モジュールからなる領域適応パラダイムを提案する。 具体的には,まず,合成領域と実領域のギャップを埋めるための双方向翻訳ネットワークを,ある領域から別の領域に画像を翻訳することで適用する。 そして,提案する2つの画像デヘイジングネットワークの一貫性制約をトレーニングするために,翻訳前後で画像を使用する。 この段階では、鮮明な画像(例えばダークチャネル前処理や画像勾配平滑化)の特性を利用して、実際のヘイジー画像をデヘイジングトレーニングに組み込んで、ドメイン適応性をさらに向上させる。 画像翻訳とデハジングネットワークをエンドツーエンドにトレーニングすることにより、画像翻訳とデハジングの両方の効果をより良く得ることができる。 合成画像と実物画像の両方の実験結果から,本モデルが最先端のデハージングアルゴリズムに対して良好に動作することを示す。

Image dehazing using learning-based methods has achieved state-of-the-art performance in recent years. However, most existing methods train a dehazing model on synthetic hazy images, which are less able to generalize well to real hazy images due to domain shift. To address this issue, we propose a domain adaptation paradigm, which consists of an image translation module and two image dehazing modules. Specifically, we first apply a bidirectional translation network to bridge the gap between the synthetic and real domains by translating images from one domain to another. And then, we use images before and after translation to train the proposed two image dehazing networks with a consistency constraint. In this phase, we incorporate the real hazy image into the dehazing training via exploiting the properties of the clear image (e.g., dark channel prior and image gradient smoothing) to further improve the domain adaptivity. By training image translation and dehazing network in an end-to-end manner, we can obtain better effects of both image translation and dehazing. Experimental results on both synthetic and real-world images demonstrate that our model performs favorably against the state-of-the-art dehazing algorithms.
翻訳日:2022-12-05 01:55:33 公開日:2020-05-10
# グラフクラスタリングアルゴリズムの比較とベンチマーク

Comparison and Benchmark of Graph Clustering Algorithms ( http://arxiv.org/abs/2005.04806v1 )

ライセンス: Link先を確認
Lizhen Shi, Bo Chen(参考訳) グラフクラスタリングは、生物学的ネットワークやソーシャルネットワークなどの分析に広く使われている。 10年以上にわたって多くのグラフクラスタリングアルゴリズムが公開されてきたが、包括的な一貫したパフォーマンス比較は利用できない。 本稿では、70以上のグラフクラスタリングプログラムをベンチマークし、重み付きグラフと非重み付きグラフのランタイムおよび品質性能を評価した。 また,性能に影響を及ぼす土台真実の特徴も分析した。 私たちの研究は、エンジニアがクラスタリングアルゴリズムを選択するための出発点を提供するだけでなく、研究者が新しいアルゴリズムを設計するための視点を提供することができます。

Graph clustering is widely used in analysis of biological networks, social networks and etc. For over a decade many graph clustering algorithms have been published, however a comprehensive and consistent performance comparison is not available. In this paper we benchmarked more than 70 graph clustering programs to evaluate their runtime and quality performance for both weighted and unweighted graphs. We also analyzed the characteristics of ground truth that affects the performance. Our work is capable to not only supply a start point for engineers to select clustering algorithms but also could provide a viewpoint for researchers to design new algorithms.
翻訳日:2022-12-05 01:48:30 公開日:2020-05-10
# 結合型スケーラブルベイズロバスト引張因子モデルによる非繰り返し交通渋滞検出

Non-recurrent Traffic Congestion Detection with a Coupled Scalable Bayesian Robust Tensor Factorization Model ( http://arxiv.org/abs/2005.04567v1 )

ライセンス: Link先を確認
Qin Li, Huachun Tan, Xizhu Jiang, Yuankai Wu, Linhui Ye(参考訳) 非リカレント交通渋滞(nrtc)は通常、通勤者に予期せぬ遅延をもたらす。 したがって、NRTCをリアルタイムに正確に検出し、認識することが重要である。 道路交通検出器とループ検出器の進歩は、NRTCの深い研究を可能にする大規模な多変量時空間交通データを提供する。 しかし,多変量トラヒック情報の自然空間的-時空間的構造特性を効果的に表現し,nrtcをよりよく理解し,検出する分析枠組みを構築することは依然として難しい課題である。 本稿では,結合型スケーラブルベイズ型ロバストテンソル因子分解(coupled sbrtf)に基づく,新しい解析的トレーニングフリーフレームワークを提案する。 このフレームワークは、類似または同一のスパース構造を共有することにより、交通流、道路速度、占有率を含む多変量トラフィックデータを分割することができる。 そして、テンソル因子化により、交通データの高次元時空間構造を自然に捉える。 NRTCの分布と大きさを明らかにするエントリによって、フレームワークの共有スパース構造は、NRTCに関する十分な量の情報をコンパスする。 フレームワークの低ランク部分では、一般的な交通条件の分布を補助積として表現する。 実世界のトラヒックデータを用いた実験の結果,提案手法はnrtcの検出において,結合ベイズ型ロバスト主成分分析(結合brpca),ランクスパルシティテンソル分解(rstd),標準正規偏差(snd)よりも優れていることがわかった。 提案手法は,平日の交通データのみを利用する場合,さらに性能が向上し,より正確なnrtcの推定が可能となった。

Non-recurrent traffic congestion (NRTC) usually brings unexpected delays to commuters. Hence, it is critical to accurately detect and recognize the NRTC in a real-time manner. The advancement of road traffic detectors and loop detectors provides researchers with a large-scale multivariable temporal-spatial traffic data, which allows the deep research on NRTC to be conducted. However, it remains a challenging task to construct an analytical framework through which the natural spatial-temporal structural properties of multivariable traffic information can be effectively represented and exploited to better understand and detect NRTC. In this paper, we present a novel analytical training-free framework based on coupled scalable Bayesian robust tensor factorization (Coupled SBRTF). The framework can couple multivariable traffic data including traffic flow, road speed, and occupancy through sharing a similar or the same sparse structure. And, it naturally captures the high-dimensional spatial-temporal structural properties of traffic data by tensor factorization. With its entries revealing the distribution and magnitude of NRTC, the shared sparse structure of the framework compasses sufficiently abundant information about NRTC. While the low-rank part of the framework, expresses the distribution of general expected traffic condition as an auxiliary product. Experimental results on real-world traffic data show that the proposed method outperforms coupled Bayesian robust principal component analysis (coupled BRPCA), the rank sparsity tensor decomposition (RSTD), and standard normal deviates (SND) in detecting NRTC. The proposed method performs even better when only traffic data in weekdays are utilized, and hence can provide more precise estimation of NRTC for daily commuters.
翻訳日:2022-12-05 01:48:21 公開日:2020-05-10
# 神経画像に基づく脳障害解析のためのディープラーニングに関する研究

A Survey on Deep Learning for Neuroimaging-based Brain Disorder Analysis ( http://arxiv.org/abs/2005.04573v1 )

ライセンス: Link先を確認
Li Zhang and Mingliang Wang and Mingxia Liu and Daoqiang Zhang(参考訳) 深層学習は近年、構造磁気共鳴画像(MRI)、機能MRI、ポジトロン放射断層撮影(PET)などの神経画像の解析に利用されており、コンピュータ支援脳疾患の診断において従来の機械学習よりも顕著な性能向上を実現している。 本稿では,神経画像を用いた脳障害解析における深層学習法の応用について概説する。 まず、さまざまなタイプのディープニューラルネットワークと最近の開発を紹介することにより、ディープラーニング技術と一般的なネットワークアーキテクチャの概要を概観する。 次に,アルツハイマー病,パーキンソン病,自閉症スペクトラム障害,統合失調症という4つの典型的な脳疾患をコンピュータ支援で解析する深層学習法について検討した。 さらに,既存の研究の限界を議論し,今後の方向性について述べる。

Deep learning has been recently used for the analysis of neuroimages, such as structural magnetic resonance imaging (MRI), functional MRI, and positron emission tomography (PET), and has achieved significant performance improvements over traditional machine learning in computer-aided diagnosis of brain disorders. This paper reviews the applications of deep learning methods for neuroimaging-based brain disorder analysis. We first provide a comprehensive overview of deep learning techniques and popular network architectures, by introducing various types of deep neural networks and recent developments. We then review deep learning methods for computer-aided analysis of four typical brain disorders, including Alzheimer's disease, Parkinson's disease, Autism spectrum disorder, and Schizophrenia, where the first two diseases are neurodegenerative disorders and the last two are neurodevelopmental and psychiatric disorders, respectively. More importantly, we discuss the limitations of existing studies and present possible future directions.
翻訳日:2022-12-05 01:47:53 公開日:2020-05-10
# 小残差3次元U-Netアーキテクチャによる黄斑浮腫データセットのセグメンテーション

Segmentation of Macular Edema Datasets with Small Residual 3D U-Net Architectures ( http://arxiv.org/abs/2005.04697v1 )

ライセンス: Link先を確認
Jonathan Frawley, Chris G. Willcocks, Maged Habib, Caspar Geenen, David H. Steel and Boguslaw Obara(参考訳) 本稿では,暗黙的に小さなデータセットを持つ深層畳み込みニューラルネットワークの黄斑浮腫分節問題への応用について検討する。 特に,多種多様な規則化されたアーキテクチャについて検討する。 一般的な信念に反して、このアプリケーション設定のニューラルアーキテクチャは、多くのトレーニング例を必要とせずに、見えないテストイメージで人間レベルのパフォーマンスをほぼ達成できることが分かりました。 これらの3dデータセットのアノテートは困難であり、複数の基準が必要となる。 経験豊富な臨床医が1つの3dイメージに注釈を付けるのに2日かかりますが、トレーニングされたモデルは1秒足らずで同様のパフォーマンスを達成しています。 対象とするデータセット拡張を使用するアプローチと,アーキテクチャの単純化と残留設計を重視したアプローチは,15以上のトレーニングサンプルを頼らずに,一般化性能を許容できることが分かりました。

This paper investigates the application of deep convolutional neural networks with prohibitively small datasets to the problem of macular edema segmentation. In particular, we investigate several different heavily regularized architectures. We find that, contrary to popular belief, neural architectures within this application setting are able to achieve close to human-level performance on unseen test images without requiring large numbers of training examples. Annotating these 3D datasets is difficult, with multiple criteria required. It takes an experienced clinician two days to annotate a single 3D image, whereas our trained model achieves similar performance in less than a second. We found that an approach which uses targeted dataset augmentation, alongside architectural simplification with an emphasis on residual design, has acceptable generalization performance - despite relying on fewer than 15 training examples.
翻訳日:2022-12-05 01:47:35 公開日:2020-05-10
# RGB画像からのスペクトル再構成のための階層的回帰ネットワーク

Hierarchical Regression Network for Spectral Reconstruction from RGB Images ( http://arxiv.org/abs/2005.04703v1 )

ライセンス: Link先を確認
Yuzhi Zhao, Lai-Man Po, Qiong Yan, Wei Liu, Tingyu Lin(参考訳) ハイパースペクトラルカメラによる映像撮影は、狭帯域撮像技術により、多くの領域で成功している。 rgb画像からのハイパースペクトル再構成は、逆応答関数の発見によるハイパースペクトルイメージングの逆過程を示す。 現在の作業は主にRGB画像を対応するスペクトルに直接マッピングするが、コンテキスト情報を明示的に考慮しない。 さらに、現在のアルゴリズムにおけるエンコーダ-デコーダペアの使用は、情報の喪失につながる。 そこで本稿では,画素シャッフル層を階層的相互作用として用いた4レベル階層回帰ネットワーク(hrnet)を提案する。 さらに,実世界のrgb画像のアーティファクトを除去するために残密ブロックと,知覚場を拡大するための注意機構を構築するために残余大域ブロックを採用する。 NTIRE 2020 Challenge on Spectral Reconstruction from RGB Images に参加して,他のアーキテクチャや技術を用いたHRNetの評価を行った。 HRNetは、トラック2 - 現実世界の画像の勝利の方法であり、トラック1 - クリーン画像の3位である。 プロジェクトWebページ https://github.com/zhaoyuzhi/Hierarchical-Regression-Network-for-Spectral-Reconstruction-from-RGB-Im agesを参照して、コードと事前トレーニング済みモデルを試してください。

Capturing visual image with a hyperspectral camera has been successfully applied to many areas due to its narrow-band imaging technology. Hyperspectral reconstruction from RGB images denotes a reverse process of hyperspectral imaging by discovering an inverse response function. Current works mainly map RGB images directly to corresponding spectrum but do not consider context information explicitly. Moreover, the use of encoder-decoder pair in current algorithms leads to loss of information. To address these problems, we propose a 4-level Hierarchical Regression Network (HRNet) with PixelShuffle layer as inter-level interaction. Furthermore, we adopt a residual dense block to remove artifacts of real world RGB images and a residual global block to build attention mechanism for enlarging perceptive field. We evaluate proposed HRNet with other architectures and techniques by participating in NTIRE 2020 Challenge on Spectral Reconstruction from RGB Images. The HRNet is the winning method of track 2 - real world images and ranks 3rd on track 1 - clean images. Please visit the project web page https://github.com/zhaoyuzhi/Hierarchical-Regression-Network-for-Spectral-Reconstruction-from-RGB-Im ages to try our codes and pre-trained models.
翻訳日:2022-12-05 01:47:23 公開日:2020-05-10
# ライセンスプレート検出・認識を用いたディープラーニングに基づく車両追跡システム

Deep Learning Based Vehicle Tracking System Using License Plate Detection And Recognition ( http://arxiv.org/abs/2005.08641v1 )

ライセンス: Link先を確認
Lalit Lakshmanan, Yash Vora, Raj Ghate(参考訳) 車両追跡はインテリジェントな交通管理システムの不可欠な部分である。 従来の車両追跡システムでは,gps (global positioning system) を応用し, 車両の位置情報をスマートフォン上で取得し, 車両のナンバープレート検出・認識 (vlpr) 技術を用いて車両追跡を行う方式が提案されている。 VLPRの最初の実装方法は、非常に実験的でヒューリスティックな単純な画像処理技術を使用した。 Deep LearningとComputer Visionの登場により、人間の効率に近い結果を生み出す堅牢なVLPRシステムを構築することができる。 ディープラーニングに基づく従来の実装では、オブジェクト検出とサポートベクタマシンを検出に利用し、認識のためのヒューリスティック画像処理に基づくアプローチを採用した。 提案システムでは,ライセンスプレートの検出にシーンテキスト検出モデルを使用し,認識にはocr(optical character recognition engine) tesseractを使用する。 提案システムは、NVIDIA Ge-force RTX 2080ti GPUを用いたハイウェイビデオでテストした結果、人間に近い精度で毎秒30フレームの速度で結果が得られた。

Vehicle tracking is an integral part of intelligent traffic management systems. Previous implementations of vehicle tracking used Global Positioning System(GPS) based systems that gave location of the vehicle of an individual on their smartphones.The proposed system uses a novel approach to vehicle tracking using Vehicle License plate detection and recognition (VLPR) technique, which can be integrated on a large scale with traffic management systems. Initial methods of implementing VLPR used simple image processing techniques which were quite experimental and heuristic. With the onset of Deep learning and Computer Vision, one can create robust VLPR systems that can produce results close to human efficiency. Previous implementations, based on deep learning, made use of object detection and support vector machines for detection and a heuristic image processing based approach for recognition. The proposed system makes use of scene text detection model architecture for License plate detection and for recognition it uses the Optical character recognition engine (OCR) Tesseract. The proposed system obtained extraordinary results when it was tested on a highway video using NVIDIA Ge-force RTX 2080ti GPU, results were obtained at a speed of 30 frames per second with accuracy close to human.
翻訳日:2022-12-05 01:47:03 公開日:2020-05-10
# 文脈が言語モデルの実態予測に与える影響

How Context Affects Language Models' Factual Predictions ( http://arxiv.org/abs/2005.04611v1 )

ライセンス: Link先を確認
Fabio Petroni, Patrick Lewis, Aleksandra Piktus, Tim Rockt\"aschel, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel(参考訳) 大きな教師なしのテキストコーパスで事前訓練された場合、言語モデルは事実知識をある程度保存して取得することができ、ゼロショットのクローゼスタイルの質問応答に直接使用することができる。 しかし、言語モデルの一定数の重みに事実知識を格納することは、明らかに制限がある。 従来のアプローチでは、情報検索システムと機械読み取りコンポーネントを組み合わせた教師付きアーキテクチャを使用して、モデルウェイト外の情報へのアクセスが成功している。 本稿では、さらに一歩進めて、学習済み言語モデルと検索システムからの情報を純粋に教師なしの方法で統合する。 この方法で事前学習された言語モデルを拡張することで、性能が劇的に向上し、教師なしにもかかわらず、結果として得られるシステムは、教師なしの機械読解ベースラインと競合する。 さらに、クエリとコンテキストを異なるセグメントトークンで処理することで、BERTはそのNext Sentence Predictionプリトレーニングされた分類器を使用して、コンテキストが関連しているかどうかを判断し、BERTのゼロショットクローゼスタイルの質問応答性能を大幅に改善し、その予測をノイズの多いコンテキストに堅牢にする。

When pre-trained on large unsupervised textual corpora, language models are able to store and retrieve factual knowledge to some extent, making it possible to use them directly for zero-shot cloze-style question answering. However, storing factual knowledge in a fixed number of weights of a language model clearly has limitations. Previous approaches have successfully provided access to information outside the model weights using supervised architectures that combine an information retrieval system with a machine reading component. In this paper, we go a step further and integrate information from a retrieval system with a pre-trained language model in a purely unsupervised way. We report that augmenting pre-trained language models in this way dramatically improves performance and that the resulting system, despite being unsupervised, is competitive with a supervised machine reading baseline. Furthermore, processing query and context with different segment tokens allows BERT to utilize its Next Sentence Prediction pre-trained classifier to determine whether the context is relevant or not, substantially improving BERT's zero-shot cloze-style question-answering performance and making its predictions robust to noisy contexts.
翻訳日:2022-12-05 01:46:35 公開日:2020-05-10
# 注意ネットワークプルーニングを用いたコンパクトニューラルネットワーク表現

Compact Neural Representation Using Attentive Network Pruning ( http://arxiv.org/abs/2005.04559v1 )

ライセンス: Link先を確認
Mahdi Biparva, John Tsotsos(参考訳) ディープニューラルネットワークは、電力需要に発展し、その結果、小規模のモバイルプラットフォームに適用することが困難になっている。 ディープネットワークの計算とメモリの複雑さを体系的に扱うために,ネットワークパラメータ削減手法が導入された。 本稿では,計算要求の低減に寄与するニューラルネットワークの冗長性低減に対処するための注意的接続切断の可能性を検討する。 本稿では,ボトムアップのfeedforwardネットワークにトップダウンアテンション機構を追加して重要なコネクションを選択し,すべてのパラメトリック層で冗長なアテンションをプルーピングする。 本手法は,新しい階層的選択機構をプルーニングの基盤として導入するだけでなく,従来のベースライン手法との競争力を保ちながら実験評価を行う。 一般的なベンチマークデータセット上で異なるネットワークアーキテクチャを用いて実験を行い、高い圧縮比が無視できない精度の損失で達成可能であることを示す。

Deep neural networks have evolved to become power demanding and consequently difficult to apply to small-size mobile platforms. Network parameter reduction methods have been introduced to systematically deal with the computational and memory complexity of deep networks. We propose to examine the ability of attentive connection pruning to deal with redundancy reduction in neural networks as a contribution to the reduction of computational demand. In this work, we describe a Top-Down attention mechanism that is added to a Bottom-Up feedforward network to select important connections and subsequently prune redundant ones at all parametric layers. Our method not only introduces a novel hierarchical selection mechanism as the basis of pruning but also remains competitive with previous baseline methods in the experimental evaluation. We conduct experiments using different network architectures on popular benchmark datasets to show high compression ratio is achievable with negligible loss of accuracy.
翻訳日:2022-12-05 01:39:17 公開日:2020-05-10
# 対向ロバスト性向上のためのクラスアウェアドメイン適応

Class-Aware Domain Adaptation for Improving Adversarial Robustness ( http://arxiv.org/abs/2005.04564v1 )

ライセンス: Link先を確認
Xianxu Hou, Jingxin Liu, Bolei Xu, Xiaolong Wang, Bozhi Liu, Guoping Qiu(参考訳) 近年の研究では、畳み込みニューラルネットワークは敵の例、すなわち攻撃者が意図的に設計した機械学習モデルへの入力に弱いことが示されている。 ニューラルネットワークの対向ロバスト性を改善するため、トレーニングデータに対向例を注入することにより、ネットワークをトレーニングするための対向トレーニングが提案されている。 しかし、敵の訓練は特定のタイプの敵の攻撃に過剰に適合し、クリーンイメージの標準的な精度低下につながる可能性がある。 そこで本研究では, 直接攻撃訓練を施すことなく, 攻撃防御のための新しいクラスアウェアドメイン適応法(cada)を提案する。 具体的には,ドメイン識別器を用いて,逆例やクリーンな画像のドメイン不変性を学習することを提案する。 さらに,分類器にクラス認識コンポーネントを導入することで,ネットワークの識別能力を高める。 提案手法は,複数のベンチマークデータセットを用いて評価する。 その結果, 本手法は, 種々の攻撃に対する敵の強靭性を向上し, クリーン画像における高い性能を維持することができることがわかった。

Recent works have demonstrated convolutional neural networks are vulnerable to adversarial examples, i.e., inputs to machine learning models that an attacker has intentionally designed to cause the models to make a mistake. To improve the adversarial robustness of neural networks, adversarial training has been proposed to train networks by injecting adversarial examples into the training data. However, adversarial training could overfit to a specific type of adversarial attack and also lead to standard accuracy drop on clean images. To this end, we propose a novel Class-Aware Domain Adaptation (CADA) method for adversarial defense without directly applying adversarial training. Specifically, we propose to learn domain-invariant features for adversarial examples and clean images via a domain discriminator. Furthermore, we introduce a class-aware component into the discriminator to increase the discriminative power of the network for adversarial examples. We evaluate our newly proposed approach using multiple benchmark datasets. The results demonstrate that our method can significantly improve the state-of-the-art of adversarial robustness for various attacks and maintain high performances on clean images.
翻訳日:2022-12-05 01:39:01 公開日:2020-05-10
# 表象学習におけるスーパービジョンとソースドメインの影響--病理組織学的研究

Supervision and Source Domain Impact on Representation Learning: A Histopathology Case Study ( http://arxiv.org/abs/2005.08629v1 )

ライセンス: Link先を確認
Milad Sikaroudi, Amir Safarpoor, Benyamin Ghojogh, Sobhan Shafiei, Mark Crowley, H.R. Tizhoosh(参考訳) 多くのアルゴリズムが適切なデータ表現に依存しているため、ユニークな特徴の学習は重要な課題であると考えられている。 ディープニューラルネットワークを用いた教師あり技術は表現学習の性能を高めているが、ラベル付きデータの大規模なセットの必要性はそのような手法の適用を制限している。 例えば、病理学の分野における関心領域の高品質な記述は、大きな画像次元のために退屈で時間を要する作業である。 本研究では,深層ニューラルネットワークの性能と表現学習領域における三重項損失について検討した。 病理画像の類似性と相似性について検討し, 教師なし, 半教師なし, 教師付き学習との違いを比較した。 さらに、公開された2つの病理画像データセットに数ショットの学習を適用して、さまざまなアプローチがテストされた。 学習した表現を2つの異なる病理データセットに適用し,高い精度と一般化を実現した。

As many algorithms depend on a suitable representation of data, learning unique features is considered a crucial task. Although supervised techniques using deep neural networks have boosted the performance of representation learning, the need for a large set of labeled data limits the application of such methods. As an example, high-quality delineations of regions of interest in the field of pathology is a tedious and time-consuming task due to the large image dimensions. In this work, we explored the performance of a deep neural network and triplet loss in the area of representation learning. We investigated the notion of similarity and dissimilarity in pathology whole-slide images and compared different setups from unsupervised and semi-supervised to supervised learning in our experiments. Additionally, different approaches were tested, applying few-shot learning on two publicly available pathology image datasets. We achieved high accuracy and generalization when the learned representations were applied to two different pathology datasets.
翻訳日:2022-12-05 01:38:29 公開日:2020-05-10
# 深部変調分類のためのアンサンブルラッパーサブサンプリング

Ensemble Wrapper Subsampling for Deep Modulation Classification ( http://arxiv.org/abs/2005.04586v1 )

ライセンス: Link先を確認
Sharan Ramjee, Shengtai Ju, Diyu Yang, Xiaoyu Liu, Aly El Gamal, Yonina C. Eldar(参考訳) 受信した無線信号のサブサンプリングは、ハードウェア要件と出力サンプルに依存する信号処理アルゴリズムの計算コストを緩和するために重要である。 本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。 専門家の知識にのみ依存する事前設計戦略に依存する従来のアプローチとは異なり、提案されたデータ駆動サブサンプリング戦略では、ディープニューラルネットワークアーキテクチャを使用して、各トレーニング入力ベクターからサンプルの候補の組み合わせを除去する効果をシミュレーションしている。 その後、サブサンプリングされたデータは、考慮される10の変調タイプそれぞれを認識する別のディープラーニング分類器によって処理される。 提案したサブサンプリング戦略は,分類器の学習時間を大幅に短縮するだけでなく,評価されたデータセットよりも高いレベルまで分類精度を向上させることができることを示す。 ここで重要な特徴は、ディープニューラルネットワークの転送可能性特性を利用して、ラッパーモデルの再トレーニングを回避し、ラッパーのアンサンブルによる優れたパフォーマンスを得ることだ。

Subsampling of received wireless signals is important for relaxing hardware requirements as well as the computational cost of signal processing algorithms that rely on the output samples. We propose a subsampling technique to facilitate the use of deep learning for automatic modulation classification in wireless communication systems. Unlike traditional approaches that rely on pre-designed strategies that are solely based on expert knowledge, the proposed data-driven subsampling strategy employs deep neural network architectures to simulate the effect of removing candidate combinations of samples from each training input vector, in a manner inspired by how wrapper feature selection models work. The subsampled data is then processed by another deep learning classifier that recognizes each of the considered 10 modulation types. We show that the proposed subsampling strategy not only introduces drastic reduction in the classifier training time, but can also improve the classification accuracy to higher levels than those reached before for the considered dataset. An important feature herein is exploiting the transferability property of deep neural networks to avoid retraining the wrapper models and obtain superior performance through an ensemble of wrappers over that possible through solely relying on any of them.
翻訳日:2022-12-05 01:37:57 公開日:2020-05-10
# 正則化l21系半非負行列因子分解

Regularized L21-Based Semi-NonNegative Matrix Factorization ( http://arxiv.org/abs/2005.04602v1 )

ライセンス: Link先を確認
Anthony D. Rhodes, Bin Jiang(参考訳) 本稿では,汎用データ圧縮アルゴリズムである正規化L21半負行列分解(L21 SNF)を提案する。 l21 snfは、高い忠実度、個別データ点再構成が最重要となる混合符号データに適用可能な、堅牢な部品ベースの圧縮を提供する。 我々はアルゴリズムの収束の厳密な証明を得る。 実験を通じて、L21 SNFが提示するユースケースの利点を示し、多くの一般的な機械学習プロセスで発生する過度に決定されたシステムの圧縮に適用する。

We present a general-purpose data compression algorithm, Regularized L21 Semi-NonNegative Matrix Factorization (L21 SNF). L21 SNF provides robust, parts-based compression applicable to mixed-sign data for which high fidelity, individualdata point reconstruction is paramount. We derive a rigorous proof of convergenceof our algorithm. Through experiments, we show the use-case advantages presentedby L21 SNF, including application to the compression of highly overdeterminedsystems encountered broadly across many general machine learning processes.
翻訳日:2022-12-05 01:37:37 公開日:2020-05-10
# プライベート確率凸最適化:線形時間における最適速度

Private Stochastic Convex Optimization: Optimal Rates in Linear Time ( http://arxiv.org/abs/2005.04763v1 )

ライセンス: Link先を確認
Vitaly Feldman, Tomer Koren, Kunal Talwar(参考訳) 確率的凸最適化のための微分プライベート (dp) アルゴリズムについて検討した: 凸損失関数上の分布からのi.i.d.サンプルによる人口減少を最小化する問題。 Bassily et al. (2019) の最近の研究は、$n$のサンプルを与えられた過剰な人口損失に最適な上限を定めている。 残念ながら、この境界に達するアルゴリズムは比較的非効率である: $o(\min\{n^{3/2}, n^{5/2}/d\})$勾配計算が必要であり、ここで$d$は最適化問題の次元である。 本稿では,DP凸最適化アルゴリズムの最適化手法を2つの新しい手法で導出し,損失の最適境界を達成するとともに,$O(\min\{n, n^2/d\})$グラデーション計算を用いる。 特に、アルゴリズムは最適な非プライベートアルゴリズムの実行時間と一致する。 最初のアプローチは、可変バッチサイズの使用に依存しており、feldman et al.(2018)のイテレーションテクニックによるプライバシ増幅を用いて分析される。 第2のアプローチは、差分プライバシーを持つ近似最適解の局所化という問題への一般化に基づいている。 このようなローカライゼーションは、既存の(プライベートでない)一様安定最適化アルゴリズムを用いて達成できる。 初期の研究と同様に、我々のアルゴリズムは軽度な滑らかさの仮定を必要とする。 また, 強い凸の場合の余剰損失に対する最適境界を達成する線形時間アルゴリズムや, 非滑らかの場合の高速アルゴリズムも提案する。

We study differentially private (DP) algorithms for stochastic convex optimization: the problem of minimizing the population loss given i.i.d. samples from a distribution over convex loss functions. A recent work of Bassily et al. (2019) has established the optimal bound on the excess population loss achievable given $n$ samples. Unfortunately, their algorithm achieving this bound is relatively inefficient: it requires $O(\min\{n^{3/2}, n^{5/2}/d\})$ gradient computations, where $d$ is the dimension of the optimization problem. We describe two new techniques for deriving DP convex optimization algorithms both achieving the optimal bound on excess loss and using $O(\min\{n, n^2/d\})$ gradient computations. In particular, the algorithms match the running time of the optimal non-private algorithms. The first approach relies on the use of variable batch sizes and is analyzed using the privacy amplification by iteration technique of Feldman et al. (2018). The second approach is based on a general reduction to the problem of localizing an approximately optimal solution with differential privacy. Such localization, in turn, can be achieved using existing (non-private) uniformly stable optimization algorithms. As in the earlier work, our algorithms require a mild smoothness assumption. We also give a linear-time algorithm achieving the optimal bound on the excess loss for the strongly convex case, as well as a faster algorithm for the non-smooth case.
翻訳日:2022-12-05 01:37:28 公開日:2020-05-10
# フィルタラッパー特徴選択のための組込みカオス鯨生存アルゴリズム

Embedded Chaotic Whale Survival Algorithm for Filter-Wrapper Feature Selection ( http://arxiv.org/abs/2005.04593v1 )

ライセンス: Link先を確認
Ritam Guha, Manosij Ghosh, Shyok Mutsuddi, Ram Sarkar, Seyedali Mirjalili(参考訳) 機械学習モデルによって提供される分類精度は、学習プロセスで使用される特徴セットに大きく依存する。 特徴選択(FS)は、データセットから関連する特徴のみを識別し、特徴の次元を減らし、同時に分類精度を向上させる、重要かつ困難な前処理技術である。 Whale Optimization Algorithm(WOA)のバイナリバージョンは、ハチクジラの捕食行動にインスパイアされた人気のあるFS技術である。 本稿では,組込み型カオス鯨生存アルゴリズム (ECWSA) の組込みバージョンを提案し,そのラッパープロセスを用いて高い分類精度を達成し,より少ない計算コストで選択したサブセットをさらに改良するフィルタ手法を提案する。 ECWSAでは、獲物を探しながらクジラが続く動きの種類の選択をガイドするためにカオスが導入されている。 鯨が獲物を捕えられなければ死んでしまうという現実のシナリオに触発された、鯨のシステムにもフィットネス依存的な死のメカニズムが導入された。 提案手法は18の有名なuciデータセットで評価され,fs法やfs法と比較された。

Classification accuracy provided by a machine learning model depends a lot on the feature set used in the learning process. Feature Selection (FS) is an important and challenging pre-processing technique which helps to identify only the relevant features from a dataset thereby reducing the feature dimension as well as improving the classification accuracy at the same time. The binary version of Whale Optimization Algorithm (WOA) is a popular FS technique which is inspired from the foraging behavior of humpback whales. In this paper, an embedded version of WOA called Embedded Chaotic Whale Survival Algorithm (ECWSA) has been proposed which uses its wrapper process to achieve high classification accuracy and a filter approach to further refine the selected subset with low computation cost. Chaos has been introduced in the ECWSA to guide selection of the type of movement followed by the whales while searching for prey. A fitness-dependent death mechanism has also been introduced in the system of whales which is inspired from the real-life scenario in which whales die if they are unable to catch their prey. The proposed method has been evaluated on 18 well-known UCI datasets and compared with its predecessors as well as some other popular FS methods.
翻訳日:2022-12-05 01:30:46 公開日:2020-05-10
# ファジィルールに基づく土壌のハイウェイ研究板分類への応用

Application of Fuzzy Rule based System for Highway Research Board Classification of Soils ( http://arxiv.org/abs/2006.08347v1 )

ライセンス: Link先を確認
Sujatha A, L Govindaraju and N Shivakumar(参考訳) ファジィルールベースのモデルは、人間の考え方を模倣し、不確実性に関連する問題を解決する強力なツールである。 本研究の目的は, ファジィ・ルール・モデルの適用性を検討することであり, 土壌指標特性を質的に考慮して, 工学的目的の土壌分類を定量化することである。 高速道路研究委員会の分類システムはファジィルールに基づくモデルを示すものと考えられる。 土壌の指数特性は三角形関数を用いてファジィ化され、ファジィメンバシップ値が算出される。 ファジィ算術演算子は、分類のために得られた会員値に適用される。 ファジィ決定木分類アルゴリズムは、ファジィif-thenルールを導出して質的土壌分類を定量化する。 提案システムはMATLABで実装されている。 得られた結果を確認し,実験結果に対して提案したモデルの実装を測定した。

Fuzzy rule-based model is a powerful tool for imitating the human way of thinking and solving uncertainty-related problems as it allows for understandable and interpretable rule bases. The objective of this paper is to study the applicability of fuzzy rule-based modelling to quantify soil classification for engineering purposes by qualitatively considering soil index properties. The classification system of the Highway Research Board is considered to illustrate a fuzzy rule-based model. The soil's index properties are fuzzified using triangular functions, and the fuzzy membership values are calculated. Fuzzy arithmetical operators are then applied to the membership values obtained for classification. Fuzzy decision tree classification algorithm is used to derive fuzzy if-then rules to quantify qualitative soil classification. The proposed system is implemented in MATLAB. The results obtained are checked and the implementation of the proposed model is measured against the outcomes of the laboratory tests.
翻訳日:2022-12-05 01:29:43 公開日:2020-05-10
# オンライン販売の有効性を予測する機械学習に基づくヒューリスティック

A machine learning based heuristic to predict the efficacy of online sale ( http://arxiv.org/abs/2005.04612v1 )

ライセンス: Link先を確認
Aditya Vikram Singhania, Saronyo Lal Mukherjee, Ritajit Majumdar, Akash Mehta, Priyanka Banerjee and Debasmita Bhoumik(参考訳) 商品の割引のみからオンライン販売の有効性を判断することは困難である。 異なる特徴は商品の価格に異なる影響を与え、割引の意義を決定する際に考慮しなければならない。 本稿では,任意の商品に提供される割引値の \textit{"significance"} を定量化する,ヒューリスティックな機械学習を提案する。 提案手法は,特徴量と原価に基づいて値引きの意義を定量化することができるため,販売期間中に販売効果を予測することにより,販売者の誘導を行うことができる。 この手法を,サポートベクトルマシンを用いてFlipkart Summer Saleデータセットに適用し,91.11\%の精度で販売の有効性を予測した。 われわれの調査によると、Flipkart Summer Saleの期間に相当なディスカウントがある携帯電話はほとんどない。

It is difficult to decide upon the efficacy of an online sale simply from the discount offered on commodities. Different features have different influence on the price of a product which must be taken into consideration when determining the significance of a discount. In this paper we have proposed a machine learning based heuristic to quantify the \textit{"significance"} of the discount offered on any commodity. Our proposed technique can quantify the significance of the discount based on features and the original price, and hence can guide a buyer during a sale season by predicting the efficacy of the sale. We have applied this technique on the Flipkart Summer Sale dataset using Support Vector Machine, which predicts the efficacy of the sale with an accuracy of 91.11\%. Our result shows that very few mobile phones have a significant discount during the Flipkart Summer Sale.
翻訳日:2022-12-05 01:29:27 公開日:2020-05-10
# hnet:グラフィカル・ハイパージオメトリック・ネットワーク

HNet: Graphical Hypergeometric Networks ( http://arxiv.org/abs/2005.04679v1 )

ライセンス: Link先を確認
Erdogan Taskesen(参考訳) モチベーション: 実世界のデータは、しばしば連続値と離散値の両方で測定される。 多くのライブラリが利用可能であるにもかかわらず、混合データ型を持つデータセットは集中的な前処理ステップを必要とし、変数間の関係を記述することは依然として課題である。 データ理解フェーズは、データマイニングプロセスにおいて重要なステップであるが、データに仮定することなく、探索空間は変数数において超指数的である。 方法:我々は,変数間の関連を統計的推論を用いて検証する手法であるgraphical hypergeometric network (hnet)を提案する。 目的は、変数間の複雑な関係を明らかにするために、重要な関連のみを使用してネットワークを決定することである。 hnetは生の非構造化データセットを処理し、ノード間(すなわち変数)の(部分的に)有向または無向のエッジからなるネットワークを出力する。 HNetの精度を評価するために、よく知られたデータセットと、既知の基底真理を持つ生成されたデータセットを使用した。 HNetの性能はベイズ構造学習と比較される。 結果:HNetはノードリンクの検出において高い精度と性能を示した。 Alarmデータセットの場合、平均MCCスコアは 0.33 + 0.0002 (P<1x10-6)、ベイジアン構造学習は平均MCCスコアは 0.52 + 0.006 (P<1x10-11)、ランダムにエッジを割り当てると0.004 + 0.0003 (P=0.49) となる。 結論: HNetは生の非構造化データセットを処理でき、混合データ型を解析でき、変数の数を簡単にスケールアップでき、検出された関連を詳細に調べることができる。 利用可能: https://erdogant.github.io/hnet/

Motivation: Real-world data often contain measurements with both continuous and discrete values. Despite the availability of many libraries, data sets with mixed data types require intensive pre-processing steps, and it remains a challenge to describe the relationships between variables. The data understanding phase is an important step in the data mining process, however, without making any assumptions on the data, the search space is super-exponential in the number of variables. Methods: We propose graphical hypergeometric networks (HNet), a method to test associations across variables for significance using statistical inference. The aim is to determine a network using only the significant associations in order to shed light on the complex relationships across variables. HNet processes raw unstructured data sets and outputs a network that consists of (partially) directed or undirected edges between the nodes (i.e., variables). To evaluate the accuracy of HNet, we used well known data sets and in addition generated data sets with known ground truth. The performance of HNet is compared to Bayesian structure learning. Results: We demonstrate that HNet showed high accuracy and performance in the detection of node links. In the case of the Alarm data set we can demonstrate on average an MCC score of 0.33 + 0.0002 (P<1x10-6), whereas Bayesian structure learning resulted in an average MCC score of 0.52 + 0.006 (P<1x10-11), and randomly assigning edges resulted in a MCC score of 0.004 + 0.0003 (P=0.49). Conclusions: HNet can process raw unstructured data sets, allows analysis of mixed data types, it easily scales up in number of variables, and allows detailed examination of the detected associations. Availability: https://erdogant.github.io/hnet/
翻訳日:2022-12-05 01:28:49 公開日:2020-05-10
# k-meansアルゴリズムの性能向上

Improving The Performance Of The K-means Algorithm ( http://arxiv.org/abs/2005.04689v1 )

ライセンス: Link先を確認
Tien-Dung Nguyen(参考訳) k-means(km)の改良版であるインクリメンタルk-means(ikm)はkmのクラスタリング品質を大幅に改善するために導入された。 しかし、IKMの速度はKMよりも遅い。 私の論文では、クラスタリング結果の質を概ね保ちながら、IKMを高速化する2つのアルゴリズムを提案する。 最初のアルゴリズムはDivisive K-meansと呼ばれ、クラスタの分割プロセスを高速化することでIKMの速度を改善する。 UCI Machine Learningデータセットを用いてテストすると、新しいアルゴリズムはIKMとして経験的にグローバルな最適化を達成し、IKMより低い複雑さ、$O(k*log_{2}k*n)$、$O(k^{2}n)$である。 2つ目のアルゴリズムはPar2PK-means(Par2PK-means)と呼ばれ、Two-Phase K-meansモデルを用いてIKMを並列化する。 大規模なデータセットを用いてテストすると、このアルゴリズムは線形スピードアップ比に閉ざされた良好なスピードアップ比が得られる。

The Incremental K-means (IKM), an improved version of K-means (KM), was introduced to improve the clustering quality of KM significantly. However, the speed of IKM is slower than KM. My thesis proposes two algorithms to speed up IKM while remaining the quality of its clustering result approximately. The first algorithm, called Divisive K-means, improves the speed of IKM by speeding up its splitting process of clusters. Testing with UCI Machine Learning data sets, the new algorithm achieves the empirically global optimum as IKM and has lower complexity, $O(k*log_{2}k*n)$, than IKM, $O(k^{2}n)$. The second algorithm, called Parallel Two-Phase K-means (Par2PK-means), parallelizes IKM by employing the model of Two-Phase K-means. Testing with large data sets, this algorithm attains a good speedup ratio, closing to the linearly speed-up ratio.
翻訳日:2022-12-05 01:28:19 公開日:2020-05-10
# 手書きインデックススクリプト分類問題に対するハイブリッドスワムと重力に基づく特徴選択アルゴリズム

A Hybrid Swarm and Gravitation based feature selection algorithm for Handwritten Indic Script Classification problem ( http://arxiv.org/abs/2005.04596v1 )

ライセンス: Link先を確認
Ritam Guha, Manosij Ghosh, Pawan Kumar Singh, Ram Sarkar, Mita Nasipuri(参考訳) マルチスクリプト環境では、文書画像がそれぞれのocr(optical character recognition)エンジンに供給される前に手書き文字の分類が最重要となる。 長年にわたり、この複雑なパターン分類問題は、主に大きな次元を持つ様々な特徴ベクトルを提案する研究者によって解決されてきた。 機能選択(FS)は、必要な機能と関連する機能にのみ制限することにより、機能ベクトルのサイズを減らす中間ステップとして機能する。 本稿では,Hybrid Swarm and Gravitation based FS (HSGFS) と呼ばれる新しいFSアルゴリズムを導入することでこの問題に対処した。 このアルゴリズムは、最近文献に導入された3つの特徴ベクトル(距離ハフ変換(dht)、向き付け勾配のヒストグラム(hog)、修正log-gabor(mlg)フィルタ変換)で実行される。 3つの最先端の分類器、すなわちMulti-Layer Perceptron(MLP)、K-Nearest Neighbour(KNN)、Support Vector Machine(SVM)が手書きスクリプト分類に使用される。 本手法の評価には,12のIndicスクリプトからなる手書きデータセットをブロック,テキスト行,単語レベルで作成した。 3つのデータセットの原特徴ベクトルの75~80パーセントしか利用せず,分類精度において平均2~5%の改善が達成される。 提案手法は,一般的なFSモデルと比較して,優れた性能を示す。

In any multi-script environment, handwritten script classification is of paramount importance before the document images are fed to their respective Optical Character Recognition (OCR) engines. Over the years, this complex pattern classification problem has been solved by researchers proposing various feature vectors mostly having large dimension, thereby increasing the computation complexity of the whole classification model. Feature Selection (FS) can serve as an intermediate step to reduce the size of the feature vectors by restricting them only to the essential and relevant features. In our paper, we have addressed this issue by introducing a new FS algorithm, called Hybrid Swarm and Gravitation based FS (HSGFS). This algorithm is made to run on 3 feature vectors introduced in the literature recently - Distance-Hough Transform (DHT), Histogram of Oriented Gradients (HOG) and Modified log-Gabor (MLG) filter Transform. Three state-of-the-art classifiers namely, Multi-Layer Perceptron (MLP), K-Nearest Neighbour (KNN) and Support Vector Machine (SVM) are used for the handwritten script classification. Handwritten datasets, prepared at block, text-line and word level, consisting of officially recognized 12 Indic scripts are used for the evaluation of our method. An average improvement in the range of 2-5 % is achieved in the classification accuracies by utilizing only about 75-80 % of the original feature vectors on all three datasets. The proposed methodology also shows better performance when compared to some popularly used FS models.
翻訳日:2022-12-05 01:22:27 公開日:2020-05-10
# シミュレーションアニーリングによるAtom検索最適化 - 特徴選択のためのハイブリッドメタヒューリスティックアプローチ

Atom Search Optimization with Simulated Annealing -- a Hybrid Metaheuristic Approach for Feature Selection ( http://arxiv.org/abs/2005.08642v1 )

ライセンス: Link先を確認
Kushal Kanti Ghosh, Ritam Guha, Soulib Ghosh, Suman Kumar Bera, Ram Sarkar(参考訳) ハイブリッドメタヒューリスティックスは最適化と機能選択(fs)の分野で最も興味深い最近のトレンドの一つである。 本稿では,ASO-SA(Atom Search Optimization, ASO)とSimulated Annealing(Simulated Annealing, ASO-SA)のハイブリッドをFS向けに提案した。 ASOで使われる実値をFSのバイナリ領域にマッピングするために、我々はS字型とV字型の2つの異なる転送関数を使った。 提案手法は,usi,手書き文字認識,テキスト,非テキスト分離,顔の感情認識という4つのカテゴリの25のデータセットに対して,提案手法を適用した。 我々は3種類の分類器 (k-nearest neighbor, multi-layer perceptron, random forest) を用いて,バイナリaso, aso-saによって選択された特徴の強度を評価し,最近のラッパーベースアルゴリズムと比較した。 提案手法は, 分類精度と選択した特徴量の両方において, 優位性を確認した。

'Hybrid meta-heuristics' is one of the most interesting recent trends in the field of optimization and feature selection (FS). In this paper, we have proposed a binary variant of Atom Search Optimization (ASO) and its hybrid with Simulated Annealing called ASO-SA techniques for FS. In order to map the real values used by ASO to the binary domain of FS, we have used two different transfer functions: S-shaped and V-shaped. We have hybridized this technique with a local search technique called, SA We have applied the proposed feature selection methods on 25 datasets from 4 different categories: UCI, Handwritten digit recognition, Text, non-text separation, and Facial emotion recognition. We have used 3 different classifiers (K-Nearest Neighbor, Multi-Layer Perceptron and Random Forest) for evaluating the strength of the selected featured by the binary ASO, ASO-SA and compared the results with some recent wrapper-based algorithms. The experimental results confirm the superiority of the proposed method both in terms of classification accuracy and number of selected features.
翻訳日:2022-12-05 01:21:56 公開日:2020-05-10
# 強化学習問題に対する分散FPGAの深部神経進化の高速化

Accelerating Deep Neuroevolution on Distributed FPGAs for Reinforcement Learning Problems ( http://arxiv.org/abs/2005.04536v1 )

ライセンス: Link先を確認
Alexis Asseman, Nicolas Antoine and Ahmet S. Ozcan(参考訳) 深層ニューラルネットワークの表現力によって強化された強化学習は、ゲームプレイやロボット制御といった高次元問題において有望な結果を示している。 しかし、これらの問題の逐次的性質は計算効率にとって根本的な課題となる。 近年、進化戦略や深層神経進化のような代替アプローチは、分散CPUコアでのトレーニング時間を短縮する競争結果を示した。 本稿では,分散FPGA上に実装された深部神経進化を用いたAtari 2600のトレーニング時間(毎秒100万フレーム)を報告する。 ゲームコンソールのハードウェア実装、画像の前処理、ニューラルネットワークを最適化したパイプラインで組み合わせることで、システムレベルの並列処理が可能となった。 これらの結果は、3Dメッシュネットワークトポロジに相互接続された432 Xilinx FPGAからなるカスタム設計システムであるIBM Neural Computerにおける最初のアプリケーションデモである。 ハイパフォーマンスに加えて、実験では、同じアルゴリズムのcpu実装と比較して、すべてのゲームで精度が向上した。

Reinforcement learning augmented by the representational power of deep neural networks, has shown promising results on high-dimensional problems, such as game playing and robotic control. However, the sequential nature of these problems poses a fundamental challenge for computational efficiency. Recently, alternative approaches such as evolutionary strategies and deep neuroevolution demonstrated competitive results with faster training time on distributed CPU cores. Here, we report record training times (running at about 1 million frames per second) for Atari 2600 games using deep neuroevolution implemented on distributed FPGAs. Combined hardware implementation of the game console, image pre-processing and the neural network in an optimized pipeline, multiplied with the system level parallelism enabled the acceleration. These results are the first application demonstration on the IBM Neural Computer, which is a custom designed system that consists of 432 Xilinx FPGAs interconnected in a 3D mesh network topology. In addition to high performance, experiments also showed improvement in accuracy for all games compared to the CPU-implementation of the same algorithm.
翻訳日:2022-12-05 01:21:20 公開日:2020-05-10
# ブラックボックス生成の後方制御

Posterior Control of Blackbox Generation ( http://arxiv.org/abs/2005.04560v1 )

ライセンス: Link先を確認
Xiang Lisa Li and Alexander M. Rush(参考訳) テキスト生成は、しばしばタスク固有のルールに従う高精度な出力を必要とする。 このきめ細かい制御は、既成のディープラーニングモデルで実施することは難しい。 本研究では、構造化潜在変数アプローチにより学習した離散制御状態を持つニューラルジェネレーションモデルについて検討する。 この定式化の下では、タスク固有の知識は、モデルに効果的に訓練されたリッチで後続の制約を通してエンコードすることができる。 このアプローチにより、ユーザーは神経生成モデルの表現力を犠牲にすることなく、事前の知識に基づいて内部モデル決定を基礎付けることができる。 実験は、このアプローチのテキスト生成への応用を検討する。 この手法は標準ベンチマークよりも改善され、きめ細かい制御も可能である。

Text generation often requires high-precision output that obeys task-specific rules. This fine-grained control is difficult to enforce with off-the-shelf deep learning models. In this work, we consider augmenting neural generation models with discrete control states learned through a structured latent-variable approach. Under this formulation, task-specific knowledge can be encoded through a range of rich, posterior constraints that are effectively trained into the model. This approach allows users to ground internal model decisions based on prior knowledge, without sacrificing the representational power of neural generative models. Experiments consider applications of this approach for text generation. We find that this method improves over standard benchmarks, while also providing fine-grained control.
翻訳日:2022-12-05 01:20:27 公開日:2020-05-10
# 知識グラフによるAI改善のための入力データのセマンティックエンハンスメント

Knowledge Graph semantic enhancement of input data for improving AI ( http://arxiv.org/abs/2005.04726v1 )

ライセンス: Link先を確認
Shreyansh Bhatt, Amit Sheth, Valerie Shalin, Jinjin Zhao(参考訳) 機械学習アルゴリズムを用いて設計されたインテリジェントシステムは、大量のラベル付きデータを必要とする。 背景知識は、限定ラベル付きデータを拡張して機械学習アルゴリズムを訓練する、補完的で現実的な事実情報を提供する。 知識グラフ(KG)という用語は、多くの実践的な応用において、グラフの形でこれらの背景知識を整理するのに便利で有用である。 近年の学術研究と産業知能システムの実装により、学習データと知識グラフを組み合わせた機械学習アルゴリズムの性能が期待できる。 本稿では,機械学習を利用する2つのアプリケーション -レコメンデーションとコミュニティ検出 - の入力データを強化するための,関連するkgsの利用について論じる。 KGは精度と説明性の両方を改善する。

Intelligent systems designed using machine learning algorithms require a large number of labeled data. Background knowledge provides complementary, real world factual information that can augment the limited labeled data to train a machine learning algorithm. The term Knowledge Graph (KG) is in vogue as for many practical applications, it is convenient and useful to organize this background knowledge in the form of a graph. Recent academic research and implemented industrial intelligent systems have shown promising performance for machine learning algorithms that combine training data with a knowledge graph. In this article, we discuss the use of relevant KGs to enhance input data for two applications that use machine learning -- recommendation and community detection. The KG improves both accuracy and explainability.
翻訳日:2022-12-05 01:20:19 公開日:2020-05-10
# 反現実的批判的マルチエージェント学習による非自己回帰画像キャプション

Non-Autoregressive Image Captioning with Counterfactuals-Critical Multi-Agent Learning ( http://arxiv.org/abs/2005.04690v1 )

ライセンス: Link先を確認
Longteng Guo, Jing Liu, Xinxin Zhu, Xingjian He, Jie Jiang, Hanqing Lu(参考訳) ほとんどの画像キャプションモデルは自己回帰的であり、例えば、事前に生成された単語を条件付けすることで各単語を生成する。 近年,機械翻訳において,すべての単語を並列に生成することで推論時間を高速化する非自己回帰復号法が提案されている。 通常、これらのモデルは単語レベルのクロスエントロピー損失を使用して各単語を独立に最適化する。 しかし、このような学習プロセスは文レベルの一貫性を考慮せず、結果としてこれらの非自己回帰モデルの生成品質は低下する。 本稿では,非自己回帰的イメージキャプション(NAIC)モデルと,新たなトレーニングパラダイムであるCMAL(Counterfactuals- critical Multi-Agent Learning)を提案する。 CMALはNAICを多エージェント強化学習システムとして定式化し、ターゲットシーケンスの位置を文レベルの報酬を協調的に最大化するエージェントと見なす。 また,大量のラベルなし画像を用いてキャプション性能を向上させることを提案する。 MSCOCO画像キャプションベンチマークの大規模な実験により、NAICモデルは最先端の自己回帰モデルに匹敵する性能を達成し、13.9倍のデコードスピードアップを実現した。

Most image captioning models are autoregressive, i.e. they generate each word by conditioning on previously generated words, which leads to heavy latency during inference. Recently, non-autoregressive decoding has been proposed in machine translation to speed up the inference time by generating all words in parallel. Typically, these models use the word-level cross-entropy loss to optimize each word independently. However, such a learning process fails to consider the sentence-level consistency, thus resulting in inferior generation quality of these non-autoregressive models. In this paper, we propose a Non-Autoregressive Image Captioning (NAIC) model with a novel training paradigm: Counterfactuals-critical Multi-Agent Learning (CMAL). CMAL formulates NAIC as a multi-agent reinforcement learning system where positions in the target sequence are viewed as agents that learn to cooperatively maximize a sentence-level reward. Besides, we propose to utilize massive unlabeled images to boost captioning performance. Extensive experiments on MSCOCO image captioning benchmark show that our NAIC model achieves a performance comparable to state-of-the-art autoregressive models, while brings 13.9x decoding speedup.
翻訳日:2022-12-05 01:19:45 公開日:2020-05-10
# 工学設計問題に対するファジィ変異埋め込み型重力探索法と粒子群最適化法

Fuzzy Mutation Embedded Hybrids of Gravitational Search and Particle Swarm Optimization Methods for Engineering Design Problems ( http://arxiv.org/abs/2005.04599v1 )

ライセンス: Link先を確認
Devroop Kar, Manosij Ghosh, Ritam Guha, Ram Sarkar, Laura Garc\'ia-Hern\'andez, Ajith Abraham(参考訳) Gravitational Search Algorithm (GSA) と Particle Swarm Optimization (PSO) はそれぞれ自然に着想を得たSwarmベースの最適化アルゴリズムである。 当初は単目的最適化に広く用いられていたが、早期収束に悩まされていた。 GSAとPSOのハイブリッドはより良く動作するが、問題は残る。 そこで本研究では, PSO と GSA の2種類のハイブリッド版である Gravitational Particle Swarm (GPS) と PSOGSA のファジィ突然変異モデルを提案する。 開発したアルゴリズムは、Mutation based GPS (MGPS) と Mutation based PSOGSA (MPSOGSA) と呼ばれる。 変異演算子は、粒子の集団中心への近さと粒子値の改善に基づいて突然変異の確率が計算されたファジィモデルに基づいている。 我々はこれら2つの新しいアルゴリズムを3つのカテゴリの23のベンチマーク関数で評価した(一様,多様,多様,多様)。 MGPSは23回(56.52%)でGPS 13を、MPSOGSAは23回(73.91%)でPSOGSAを17回(73.91%)上回った。 また,最近の最適化アルゴリズムであるSine Cosine Algorithm (SCA), Opposition-based SCA, Volleyball Premier League Algorithm (VPL)と比較した。 さらに,提案アルゴリズムをいくつかの古典的エンジニアリング設計問題に適用し,その結果が良好である。 提案アルゴリズムの関連コードは、Fuzzy-Mutation-Embedded-Hybrids-of-GSA-and-PSOというリンクで見ることができる。

Gravitational Search Algorithm (GSA) and Particle Swarm Optimization (PSO) are nature-inspired, swarm-based optimization algorithms respectively. Though they have been widely used for single-objective optimization since their inception, they suffer from premature convergence. Even though the hybrids of GSA and PSO perform much better, the problem remains. Hence, to solve this issue we have proposed a fuzzy mutation model for two hybrid versions of PSO and GSA - Gravitational Particle Swarm (GPS) and PSOGSA. The developed algorithms are called Mutation based GPS (MGPS) and Mutation based PSOGSA (MPSOGSA). The mutation operator is based on a fuzzy model where the probability of mutation has been calculated based on the closeness of particle to population centroid and improvement in the particle value. We have evaluated these two new algorithms on 23 benchmark functions of three categories (unimodal, multi-modal and multi-modal with fixed dimension). The experimental outcome shows that our proposed model outperforms their corresponding ancestors, MGPS outperforms GPS 13 out of 23 times (56.52%) and MPSOGSA outperforms PSOGSA 17 times out of 23 (73.91 %). We have also compared our results against those of recent optimization algorithms such as Sine Cosine Algorithm (SCA), Opposition-Based SCA, and Volleyball Premier League Algorithm (VPL). In addition, we have applied our proposed algorithms on some classic engineering design problems and the outcomes are satisfactory. The related codes of the proposed algorithms can be found in this link: Fuzzy-Mutation-Embedded-Hybrids-of-GSA-and-PSO.
翻訳日:2022-12-05 01:19:26 公開日:2020-05-10