このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200416となっている論文です。

PDF登録状況(公開日: 20200416)

TitleAuthorsAbstract論文公表日・翻訳日
# 周期変調を伴う結合光学系における量子$\varphi$-synchronization

Quantum $\varphi$-synchronization in coupled optomechanical system with periodic modulation ( http://arxiv.org/abs/2001.10793v2 )

ライセンス: Link先を確認
G. J. Qiao, X. Y. Liu, H. D. Liu, C. F. Sun, X. X. Yi(参考訳) a. mari \textit{et al. によって提案された量子同期と量子位相同期の概念に基づく。 Phys.com。 Rev. Lett. 111, 103605 (2013) において、変数対が同じ振幅を持ち、同じ$\varphi$位相シフトを持つ量子$\varphi$-synchronizationと呼ばれるより一般化された量子同期の測度を導入し、特徴付ける。 当然、量子同期と量子反同期は量子$\varphi$-synchronizationの特別な場合となる。 それらの関係や相違点についても論じる。 これらの理論を説明するために、周期変調を持つ2つの結合した光学系の量子$\varphi$-synchronizationと量子位相同期現象を調査し、同期の尺度としてより一般的な量子$\varphi$-synchronizationを示す。 また、$\varphi=\pi$ のとき量子反同期現象を示す。

Based on the concepts of quantum synchronization and quantum phase synchronization proposed by A. Mari \textit{et al.} in Phys. Rev. Lett. 111, 103605 (2013), we introduce and characterize the measure of a more generalized quantum synchronization called quantum $\varphi$-synchronization under which the pairs of variables have the same amplitude and possess the same $\varphi$ phase shift. Naturally, quantum synchronization and quantum anti-synchronization become special cases of quantum $\varphi$-synchronization. Their relations and differences are also discussed. To illustrate these theories, we investigate the quantum $\varphi$-synchronization and quantum phase synchronization phenomena of two coupled optomechanical systems with periodic modulation and show that quantum $\varphi$-synchronization is more general as a measure of synchronization. We also show the phenomenon of quantum anti-synchronization when $\varphi=\pi$.
翻訳日:2023-06-05 07:05:55 公開日:2020-04-16
# 調整可能な銀鏡近傍における窒素空孔欠陥放射スペクトル

Nitrogen-vacancy defect emission spectra in the vicinity of an adjustable silver mirror ( http://arxiv.org/abs/2003.14081v3 )

ライセンス: Link先を確認
Niels M. Israelsen, Ilya P. Radko, Alexander Huck and Ulrik L. Andersen(参考訳) 固体における量子放射の発光は、量子力学の法則を利用する新興技術にとって重要な構成要素である。 ホスト材料からの光子抽出効率は比較的高い屈折率のため、多くの固体系では低い。 本稿では,平面ダイヤモンド表面下8nm付近と平面銀鏡近傍に埋設した窒素空孔欠陥の集合体の放射スペクトルを実験的に検討する。 ダイヤモンドと鏡の距離を走査し,スペクトル放射パワーを最大3。 我々は,古典的双極子に基づくモデルを構築し,エミッタの遠方界における干渉による観測を解明する。

Optical emitters of quantum radiation in the solid state are important building blocks for emerging technologies making use of the laws of quantum mechanics. The efficiency of photon extraction from the host material is low for many solid-state systems due to their relatively high index of refraction. In this article we experimentally study the emission spectrum of an ensemble of nitrogen-vacancy defects implanted around 8nm below the planar diamond surface and in the vicinity of a planar silver mirror. Scanning the distance between diamond and the mirror, we observe an enhancement of the spectral emission power by up to a factor of 3. We construct a model based on classical dipoles and elucidate the observations as being caused by interference in the far field of the emitters.
翻訳日:2023-05-27 08:01:53 公開日:2020-04-16
# 個人により多くのデータ、認識、コントロールを与え、新型コロナウイルスの封じ込めを助ける

Give more data, awareness and control to individual citizens, and they will help COVID-19 containment ( http://arxiv.org/abs/2004.05222v2 )

ライセンス: Link先を確認
Mirco Nanni, Gennady Andrienko, Albert-L\'aszl\'o Barab\'asi, Chiara Boldrini, Francesco Bonchi, Ciro Cattuto, Francesca Chiaromonte, Giovanni Comand\'e, Marco Conti, Mark Cot\'e, Frank Dignum, Virginia Dignum, Josep Domingo-Ferrer, Paolo Ferragina, Fosca Giannotti, Riccardo Guidotti, Dirk Helbing, Kimmo Kaski, Janos Kertesz, Sune Lehmann, Bruno Lepri, Paul Lukowicz, Stan Matwin, David Meg\'ias Jim\'enez, Anna Monreale, Katharina Morik, Nuria Oliver, Andrea Passarella, Andrea Passerini, Dino Pedreschi, Alex Pentland, Fabio Pianesi, Francesca Pratesi, Salvatore Rinzivillo, Salvatore Ruggieri, Arno Siebes, Roberto Trasarti, Jeroen van den Hoven, Alessandro Vespignani(参考訳) 新型コロナウイルス(covid-19)の急速な拡大は、感染拡大を回避または最小化するため、ロックダウンなどの規制措置が段階的に解除されたパンデミックの第2段階において、ウイルス感染連鎖の迅速かつ効果的な追跡と感染の早期発見を求める。 この目的のために、多くの国でコンタクトトレーシングアプリが大規模に採用されている。 アプリによって感知されたデータがすべて全国規模のサーバに送信される集中型アプローチは、市民のプライバシーと不必要に強力なデジタル監視に関する懸念を提起し、個人データ収集を最小化し、ロケーショントラッキングを回避する必要性を警告する。 個別の市民の「個人データストア」にのみ接点と位置情報を収集し、個別に、選択的に、自発的に共有し、市民が新型コロナウイルス(covid-19)に陽性反応を示した場合にのみ、プライバシ保護レベルの粒度で共有するという、分散化アプローチの概念上の利点を提唱する。 このアプローチは、個人を保護し、プライバシー保護方式で感染した人々のための詳細な情報収集を可能にするとともに、接触追跡と、よりきめ細かな地理的スケールでのアウトブレイクホットスポットの早期検出を可能にする。 私たちの推薦は2倍です。 まず、既存の分散化されたアーキテクチャをライトタッチで拡張し、デバイス上のロケーションデータの収集をローカルに管理し、ユーザが必要に応じて、特定の目的のために、例えばヘルス当局と時空間の集約を共有できるようにする。 第二に、個人データストアのビジョンを実現し、利用者が望む方法で集団的利益に貢献する機会を与え、自己認識を高め、社会再建のための集団的努力を育む長期的な追求を望んでいる。

The rapid dynamics of COVID-19 calls for quick and effective tracking of virus transmission chains and early detection of outbreaks, especially in the phase 2 of the pandemic, when lockdown and other restriction measures are progressively withdrawn, in order to avoid or minimize contagion resurgence. For this purpose, contact-tracing apps are being proposed for large scale adoption by many countries. A centralized approach, where data sensed by the app are all sent to a nation-wide server, raises concerns about citizens' privacy and needlessly strong digital surveillance, thus alerting us to the need to minimize personal data collection and avoiding location tracking. We advocate the conceptual advantage of a decentralized approach, where both contact and location data are collected exclusively in individual citizens' "personal data stores", to be shared separately and selectively, voluntarily, only when the citizen has tested positive for COVID-19, and with a privacy preserving level of granularity. This approach better protects the personal sphere of citizens and affords multiple benefits: it allows for detailed information gathering for infected people in a privacy-preserving fashion; and, in turn this enables both contact tracing, and, the early detection of outbreak hotspots on more finely-granulated geographic scale. Our recommendation is two-fold. First to extend existing decentralized architectures with a light touch, in order to manage the collection of location data locally on the device, and allow the user to share spatio-temporal aggregates - if and when they want, for specific aims - with health authorities, for instance. Second, we favour a longer-term pursuit of realizing a Personal Data Store vision, giving users the opportunity to contribute to collective good in the measure they want, enhancing self-awareness, and cultivating collective efforts for rebuilding society.
翻訳日:2023-05-25 06:17:02 公開日:2020-04-16
# ファノペンタッドにおける3Qubitコンテキスト構成のクラス

A Class of Three-Qubit Contextual Configurations Located in Fano Pentads ( http://arxiv.org/abs/2004.07517v1 )

ライセンス: Link先を確認
Metod Saniga(参考訳) W(5,2)$ のシンプレクティック極空間が与えられたとき、5つのファノ平面からなる集合をファノペンタッドの1点としてペアで共有する。 W(5,2)$ 63 の点が 63 個の自明な3ビット可観測量によって適切にラベル付けされると、そのようなファノペンタドはメルミンペンタグラムと呼ばれる量子文脈集合を生じる。 ここでは、ファノペンタッドが別の、密接に関連するコンテキスト集合をホストしていることが示され、25の可観測性と30の3要素コンテキストが特徴的である。 25の可観測物のうち10は、それぞれ6つの文脈に置かれ、残りの15の可観測物は2つの文脈にのみ属している。 マーミンペンタグラムの最近の分類(saniga et al., symmetry 12 (2020) 534)により、これらの文脈集合は47の異なる型で構成され、負の文脈の数 (3, 5, 7, \ldots, 17$) に従って8つの家族に分類されることがわかった。

Given the symplectic polar space of type $W(5,2)$, let us call a set of five Fano planes sharing pairwise a single point a Fano pentad. Once 63 points of $W(5,2)$ are appropriately labeled by 63 non-trivial three-qubit observables, any such Fano pentad gives rise to a quantum contextual set known as Mermin pentagram. Here, it is shown that a Fano pentad also hosts another, closely related contextual set, which features 25 observables and 30 three-element contexts. Out of 25 observables, ten are such that each of them is on six contexts, while each of the remaining 15 observables belongs to two contexts only. Making use of the recent classification of Mermin pentagrams (Saniga et al., Symmetry 12 (2020) 534), it was found that 12,096 such contextual sets comprise 47 distinct types, falling into eight families according to the number ($3, 5, 7, \ldots, 17$) of negative contexts.
翻訳日:2023-05-23 07:06:55 公開日:2020-04-16
# アジャイルチームにおける組織構造パターン:産業実証研究

Organisational Structure Patterns in Agile Teams: An Industrial Empirical Study ( http://arxiv.org/abs/2004.07509v1 )

ライセンス: Link先を確認
Damian A. Tamburri, Rick Kazman, Hamed Fahimi(参考訳) 組織のメンバーをコヒーレントなグループやコミュニティに編成することは、特に自己組織化と組織の柔軟性に大きく依存するアジャイルソフトウェア開発チームにおいて、あらゆる大規模ソフトウェアエンジニアリングの努力において重要な問題である。 この問題に対処するために、多くの研究者や実践者が協調作業のコミュニケーションと協調を簡素化するために、システム構造と組織構造をミラーリングする戦略を提唱してきた。 しかし、アジャイルソフトウェアコミュニティで実際に見られる組織のパターンと、それらのパターンはどの程度有効か? 業界における混合メソッド調査、すなわちインタビュー調査、フォーカスグループ、そしてアジャイルチームのデルフィ研究を使って、これらの研究課題に対処する。 30のアジャイルソフトウェア組織を対象とした研究では、データセットにまたがる7つの組織構造パターンのうち、ひとつの組織パターンが37%以上で発生していることが分かりました。 このパターンは (a)若い共同体(1~12ヶ月)を反映する。 (b)確立されたもの(13月以上)に消滅する (c) 報告されているアーキテクチャの問題を最も多く反映している。 最後に,提案する組織的尺度とアーキテクチャの問題との間に負の相関が観察される。 これらの洞察は、アーキテクトがアーキテクチャを設計するだけでなく、コミュニティが共同進化を支援するのに役立つかもしれない。

Forming members of an organization into coherent groups or communities is an important issue in any large-scale software engineering endeavour, especially so in agile software development teams which rely heavily on self-organisation and organisational flexibility. To address this problem, many researchers and practitioners have advocated a strategy of mirroring system structure and organisational structure, to simplify communication and coordination of collaborative work. But what are the patterns of organisation found in practice in agile software communities and how effective are those patterns? We address these research questions using mixed-methods research in industry, that is, interview surveys, focus-groups, and delphi studies of agile teams. In our study of 30 agile software organisations we found that, out of 7 organisational structure patterns that recur across our dataset, a single organisational pattern occurs over 37% of the time. This pattern: (a) reflects young communities (1-12 months old); (b) disappears in established ones (13+ months); (c) reflects the highest number of architecture issues reported. Finally, we observe a negative correlation between a proposed organisational measure and architecture issues. These insights may serve to aid architects in designing not only their architectures but also their communities to best support their co-evolution.
翻訳日:2023-05-23 07:06:31 公開日:2020-04-16
# acdc-tracing: 匿名市民による接触追跡に向けて

ACDC-Tracing: Towards Anonymous Citizen-Driven Contact Tracing ( http://arxiv.org/abs/2004.07463v1 )

ライセンス: Link先を確認
Kristof Roomp and Nuria Oliver(参考訳) 新型コロナウイルス(covid-19)パンデミック(covid-19)のコントロールフェーズに入ると、スマートフォンベースのコンタクト追跡アプリの開発に多くの努力が費やされ、新型コロナウイルスに感染した可能性のある人物を自動的に特定する。 これらのアプリケーションは潜在的に有用であるが、大きな採用、社会的、技術的、プライバシー上の課題がある。 acdc-tracingは、よりシンプルで匿名のvoucherベースのコンタクトトレーシングソリューションで、自分の親密な連絡先に関する人々の知識に依存している。 陽性と診断された人は匿名のvoucherが与えられ、感染する可能性があると考える限られた人数と共有できる。 受取人は、このブーチャーを使って新型コロナウイルス(COVID-19)検査を予約し、自分の身元を明かすことなくテスト結果を受け取ることができる。 ポジティブな結果を受けた人は、感染経路をさらにバックトラックするためにvoucherを与えられる。 これは完全に匿名のソリューションで、位置情報やbluetoothを共有したり、ユーザのモバイルデバイスにアプリをインストールしたりする必要はない。 さらに、ACDC-Tracingは、人口全体による採用を必要とせずに、小規模で有効性をテストすることができるため、その有効性とスケーラビリティに関する迅速な証拠を得ることができる。 最後に、接触追跡の代替アプローチと互換性があり、補完的である。

As we enter the control phase of the COVID-19 pandemic, many efforts have been dedicated to developing smartphone-based contact tracing apps in order to automatically identify people that a person with COVID-19 might have infected. These applications while potentially useful, present significant adoption, societal, technical and privacy challenges. We propose ACDC-Tracing, a simpler, anonymous, voucher-based contact tracing solution that relies on peoples' knowledge of their own close contacts. People who test positive are given an anonymous voucher which they can share with a limited number of people whom they think they might be infected. The recipients can use this voucher to book a COVID-19 test and can receive their test results without ever revealing their identity. People receiving positive result are given vouchers to further backtrack the path of infection. This is a fully anonymous solution which does not require any sharing of location data, Bluetooth, or having an app installed on people's mobile device. Moreover, ACDC-Tracing can be tested for effectiveness at a small scale without requiring adoption by the entire population, which would enable acquiring fast evidence about its efficacy and scalability. Finally, it is compatible with and complementary to alternative approaches to contact tracing.
翻訳日:2023-05-23 07:06:03 公開日:2020-04-16
# 非侵襲的弱測定による「量子チェシャー猫」効果の観察

Observing the "quantum Cheshire cat" effect with noninvasive weak measurement ( http://arxiv.org/abs/2004.07451v1 )

ライセンス: Link先を確認
Yosep Kim, Dong-Gil Im, Yong-Su Kim, Sang-Wook Han, Sung Moon, Yoon-Ho Kim, Young-Wook Cho(参考訳) 自然の一般的な概念の1つは、典型的には古典的なシステムの経験から派生したもので、物質が物質と共存する性質である。 しかし、量子状態においては、量子粒子自身とその物理的性質は、量子チェシャー・キャット効果として知られる空間分離である可能性がある。 量子チェシャイア猫効果の観測に関する報告はいくつかあるが、全ての実験は一階干渉法と破壊投射測定に基づいており、測定による外乱による単純な解釈を可能にし、また古典波に基づく自明な解釈を受けることができる。 本研究では,当初提案していたような非侵襲的弱量子測定によるチェシャイア猫効果の真に実験的に観察する。 弱測定プローブを用いることで、量子干渉計における単一光子の位置と非電子偏光状態の特定が可能となった。 さらに, 量子チェシャー・キャット効果のパラドックスを, 光子の遷移振幅の量子干渉として, 測定結果や弱い値から直接得られる偏光状態として解明する。

One of the common conceptions of nature, typically derived from the experiences with classical systems, is that attributes of the matter coexist with the substance. In the quantum regime, however, the quantum particle itself and its physical property may be in spatial separation, known as the quantum Cheshire cat effect. While there have been several reports to date on the observation of the quantum Cheshire cat effect, all such experiments are based on first-order interferometry and destructive projection measurement, thus allowing simple interpretation due to measurement-induced disturbance and also subject to trivial interpretation based on classical waves. In this work, we report a genuine experimental observation of the quantum Cheshire cat effect with noninvasive weak quantum measurement as originally proposed. The use of the weak-measurement probe has allowed us to identify the location of the single-photon and that of the disembodied polarization state in a quantum interferometer. We furthermore elucidate the paradox of the quantum Cheshire cat effect as quantum interference of the transition amplitudes for the photon and the polarization state which are directly obtained from the measurement outcomes or the weak values.
翻訳日:2023-05-23 07:05:36 公開日:2020-04-16
# 量子コンピュータ上の量子材料の動的シミュレーションのためのドメイン特化コンパイラ

Domain-Specific Compilers for Dynamic Simulations of Quantum Materials on Quantum Computers ( http://arxiv.org/abs/2004.07418v1 )

ライセンス: Link先を確認
Lindsay Bassman, Sahil Gulania, Connor Powers, Rongpeng Li, Thomas Linker, Kuang Liu, T. K. Satish Kumar, Rajiv K. Kalia, Aiichiro Nakano, and Priya Vashishta(参考訳) ノイズの多い中間規模量子コンピュータ(NISQ)の科学的応用として量子材料の力学シミュレーションが登場している。 しかし、高いゲートエラー率と短いデコヒーレンス時間のため、NISQコンピュータは与えられた回路サイズよりも小さい量子回路に対して高忠実性しか得られない。 したがって、動的シミュレーションは、現在のアルゴリズムがその後のシミュレーションの時間ステップごとに成長する回路を生成するため、課題となる。 これは、最小サイズの実行可能な量子回路を生成するために量子回路コンパイラが重要な役割を担っているため、nisq忠実性予算内で研究できる物理現象の範囲を最大化する。 本稿では,リゲッティとibmの量子コンピュータに対して,時間依存ハミルトニアンの特殊クラスでダイナミクスをシミュレートする回路をコンパイルするために設計された2つのドメイン固有量子回路コンパイラを提案する。 コンパイラは、回路サイズを約25~30%削減し、ウォールクロックコンパイル時間を約40%短縮する(システムサイズとシミュレーション時間に依存する)。 人工知能でよく使われるヒューリスティックな技法に基づいて、両方のコンパイラはシミュレーションの時間ステップとシステムサイズでうまくスケールする。 いずれのコンパイラのコードも、将来の研究者の動的シミュレーションの結果を高めるために含まれている。 我々は、我々のドメイン固有コンパイラが、近未来のnisqコンピュータ上で量子物質の動的シミュレーションを可能にすることを期待している。

Simulation of the dynamics of quantum materials is emerging as a promising scientific application for noisy intermediate-scale quantum (NISQ) computers. Due to their high gate-error rates and short decoherence times, however, NISQ computers can only produce high-fidelity results for those quantum circuits smaller than some given circuit size. Dynamic simulations, therefore, pose a challenge as current algorithms produce circuits that grow in size with each subsequent time-step of the simulation. This underscores the crucial role of quantum circuit compilers to produce executable quantum circuits of minimal size, thereby maximizing the range of physical phenomena that can be studied within the NISQ fidelity budget. Here, we present two domain-specific quantum circuit compilers for the Rigetti and IBM quantum computers, specifically designed to compile circuits simulating dynamics under a special class of time-dependent Hamiltonians. The compilers outperform state-of-the-art general-purpose compilers in terms of circuit size reduction by around 25-30% as well as wall-clock compilation time by around 40% (dependent on system size and simulation time-step). Drawing on heuristic techniques commonly used in artificial intelligence, both compilers scale well with simulation time-step and system size. Code for both compilers is included to enhance the results of dynamic simulations for future researchers. We anticipate that our domain-specific compilers will enable dynamic simulations of quantum materials on near-future NISQ computers that would not otherwise be possible with general-purpose compilers.
翻訳日:2023-05-23 07:05:15 公開日:2020-04-16
# 二つのファセットベルの不等式は、ほぼ量子相関によって破られる

All two-party facet Bell inequalities are violated by Almost Quantum correlations ( http://arxiv.org/abs/2004.07673v1 )

ライセンス: Link先を確認
Ravishankar Ramanathan(参考訳) 量子相関の集合の特徴づけは、量子情報の基本的な重要性の問題である。 すべての固有ベルの不等式が量子論で破られているかどうかという問題は、この点において興味深いものである。 ここでは、全ての厳密なベルの不等式が、量子相関の集合の半定プログラミング緩和である'Almost Quantum'相関によって破られることを示した。 その結果、ベルの不等式と、量子違反を認めないマルチアウトカム非局所計算ゲームを含む多くの(クラスの)ベル不等式が、古典的なベルポリトープの面ではないことを示した。 これを実現するために、ベル相関とカベロ・セヴェリーニ・Winter (CSW) によって発見されたグラフ理論 Lov\'{a}sz-theta 集合の間の興味深い関係を利用する。 また、グラフ理論のカットポリトープと古典的相関ベルポリトープの接続を利用して、下位次元相関ポリトープの面を定義する相関ベルの不等式が量子論において破られることを示す。 この手法は、自己テストアプリケーションに独立した関心を持つかもしれない新しい(ほぼ)量子ベルの不等式を導出することを可能にする。

The characterization of the set of quantum correlations is a problem of fundamental importance in quantum information. The question whether every proper (tight) Bell inequality is violated in Quantum theory is an intriguing one in this regard. Here, we make significant progress in answering this question, by showing that every tight Bell inequality is violated by 'Almost Quantum' correlations, a semi-definite programming relaxation of the set of quantum correlations. As a consequence, we show that many (classes of) Bell inequalities including two-party correlation Bell inequalities and multi-outcome non-local computation games, that do not admit quantum violations, are not facets of the classical Bell polytope. To do this, we make use of the intriguing connections between Bell correlations and the graph-theoretic Lov\'{a}sz-theta set, discovered by Cabello-Severini-Winter (CSW). We also exploit connections between the cut polytope of graph theory and the classical correlation Bell polytope, to show that correlation Bell inequalities that define facets of the lower dimensional correlation polytope are violated in quantum theory. The methods also enable us to derive novel (almost) quantum Bell inequalities, which may be of independent interest for self-testing applications.
翻訳日:2023-05-23 07:00:34 公開日:2020-04-16
# シリコン中の3つの量子ドットスピン量子ビットの線形鎖における交換結合

Exchange coupling in a linear chain of three quantum-dot spin qubits in silicon ( http://arxiv.org/abs/2004.07666v1 )

ライセンス: Link先を確認
Kok Wai Chan, Harshad Sahasrabudhe, Wister Huang, Yu Wang, Henry C. Yang, Menno Veldhorst, Jason C. C. Hwang, Fahd A. Mohiyaddin, Fay E. Hudson, Kohei M. Itoh, Andre Saraiva, Andrea Morello, Arne Laucht, Rajib Rahman and Andrew S. Dzurak(参考訳) スピン量子ビット間の量子ゲートは、互いに接触する2つの電子間の自然なハイゼンベルク交換相互作用を利用することができる。 この相互作用は、隣接する点を占有する限り、量子ドット系の電子波動関数間の重なりを電気的に調整することで制御可能である。 別の経路は、量子ドット間の距離を橋渡しする第3アイドル電子によって媒介される、リモートスピン間の超交換結合の探索である。 直接交換結合を実験的に実証し、電子スピン共鳴周波数スペクトルから推定したシリコン中の3つの単一電子スピン量子ビットの線形配列において、第2の隣り合う超交換を示す。 理論的には、デバイス幾何学は近傍のドットに対してしか大きな直接交換結合を許さないが、隣のドット同士の近接結合は、遠隔のドットの電子波動関数の消滅する小さなテールから成り立たず、媒介する場合のみ可能である。

Quantum gates between spin qubits can be implemented leveraging the natural Heisenberg exchange interaction between two electrons in contact with each other. This interaction is controllable by electrically tailoring the overlap between electronic wavefunctions in quantum dot systems, as long as they occupy neighbouring dots. An alternative route is the exploration of superexchange - the coupling between remote spins mediated by a third idle electron that bridges the distance between quantum dots. We experimentally demonstrate direct exchange coupling and provide evidence for second neighbour mediated superexchange in a linear array of three single-electron spin qubits in silicon, inferred from the electron spin resonance frequency spectra. We confirm theoretically through atomistic modeling that the device geometry only allows for sizeable direct exchange coupling for neighbouring dots, while next nearest neighbour coupling cannot stem from the vanishingly small tail of the electronic wavefunction of the remote dots, and is only possible if mediated.
翻訳日:2023-05-23 07:00:10 公開日:2020-04-16
# 公開ブロックチェーンに基づくプライバシ保護サプライチェーンシステムの設計と評価

Short Paper: Design and Evaluation of Privacy-preserved Supply Chain System based on Public Blockchain ( http://arxiv.org/abs/2004.07606v1 )

ライセンス: Link先を確認
Takio Uesugi, Yoshinobu Shijo and Masayuki Murata(参考訳) サプライチェーンにおける製品のトレーサビリティの確保は緊急の問題である。 近年,パブリックブロックチェーン(PBC)を用いたサプライチェーンシステムも提案されている。 これらのシステムでは、PBCはサプライチェーン間で共有される共通のデータベースとして使われ、オーナシップ転送レコードなどの配信情報の整合性と信頼性を確保する。 したがって、これらのシステムはサプライチェーンにおいて高いトレーサビリティを確保する。 しかし、PBCに記録されている情報は誰でも読めるので、プライベート情報である配信情報を公開する。 本稿では,PBCを用いたサプライチェーンシステムにおいて,トレーサビリティを確保しつつプライバシを保護する手法を提案する。 提案手法は,暗号化により配信情報を隠蔽することでプライバシを保護する。 さらに,ゼロ知識証明を用いてブロックチェーンアドレスを隠蔽し,正統なサプライチェーン関係者間の流通を確保する手法を提案する。 Ethereumスマートコントラクトに提案手法を実装し,取引手数料に基づいてコストパフォーマンスを評価する。 その結果、1人あたりの料金は2.6米ドル以上であることが判明した。

Securing the traceability of products in the supply chain is an urgent issue. Recently, supply chain systems that use public blockchain (PBC) have been proposed. In these systems, PBC is used as a common database shared between supply chain parties to secure the integrity and reliability of distribution information such as ownership transfer records. Thus, these systems secure a high level of traceability in the supply chain. However, the distribution information, which can be private information, is made public since the information recorded in PBC can be read by anyone. In this paper, we propose a method for preserving privacy while securing traceability in a supply chain system using PBC. The proposed method preserves privacy by concealing the distribution information via encryption. In addition, the proposed method ensures distribution among legitimate supply chain parties while concealing their blockchain address by using a zero-knowledge proof to prove their authenticity. We implement the proposed method on Ethereum smart contracts and evaluate cost performance based on transaction fees. The results show that the fee per party is at most 2.6 USD.
翻訳日:2023-05-23 06:59:34 公開日:2020-04-16
# スキッパーCCDの低閾値獲得制御

Low Threshold Acquisition controller for Skipper CCDs ( http://arxiv.org/abs/2004.07599v1 )

ライセンス: Link先を確認
Gustavo Cancelo, Claudio Chavez, Fernando Chierchie, Juan Estrada, Guillermo Fernandez Moroni, Eduardo Emilio Paolini, Miguel Sofo Haro, Angel Soto, Leandro Stefanazzi, Javier Tiffenberg, Ken Treptow, Neal Wilcer, Ted Zmuda(参考訳) Skipper Charge Coupled Devices (Skipper-CCDs) の開発は、非常に弱い電離粒子を感知する技術革新である。 このセンサは、単一電子-ホール対イオン化であっても、各セルまたは画素が収集した電荷信号の曖昧な決定により、電荷信号センサとしてのシリコン材料の究極の感度に達することができる。 この技術の広範な使用は、究極の性能でセンサーを操作するための特定の機器の欠如によって制限された。 本研究は,高感度科学応用における検出器の動作を目的とした,単板式スキッパーCCDコントローラについて述べる。 本稿では,Skipper-CCDセンサに接続した場合のLTA(Low Threshold Acquisition)の主な構成要素と機能について,実験結果とともに述べる。 5000ピクセルの測定では、前例のない深いサブ電子ノイズが0.039 e$^-_{rms}$/pixである。

The development of the Skipper Charge Coupled Devices (Skipper-CCDs) has been a major technological breakthrough for sensing very weak ionizing particles. The sensor allows to reach the ultimate sensitivity of silicon material as a charge signal sensor by unambiguous determination of the charge signal collected by each cell or pixel, even for single electron-hole pair ionization. Extensive use of the technology was limited by the lack of specific equipment to operate the sensor at the ultimate performance. In this work a simple, single-board Skipper-CCD controller is presented, aimed for the operation of the detector in high sensitivity scientific applications. The article describes the main components and functionality of the Low Threshold Acquisition (LTA) together with experimental results when connected to a Skipper-CCD sensor. Measurements show unprecedented deep sub-electron noise of 0.039 e$^-_{rms}$/pix for 5000 pixel measurements.
翻訳日:2023-05-23 06:59:19 公開日:2020-04-16
# 超伝導回路における時間周波数相関光子対を持つ2つの非相互作用原子の同時励起

Simultaneous excitation of two noninteracting atoms with time-frequency correlated photon pairs in a superconducting circuit ( http://arxiv.org/abs/2004.07531v1 )

ライセンス: Link先を確認
Wenhui Ren, Wuxin Liu, Chao Song, Hekang Li, Qiujiang Guo, Zhen Wang, Dongning Zheng, Girish S. Agarwal, Marlan O. Scully, Shi-Yao Zhu, H. Wang, and Da-Wei Wang(参考訳) 本稿では,超伝導回路における2つの非相互作用原子の同時励起の時間周波数相関光子による最初の観測を報告する。 この過程の強いカップリング機構により、3体相互作用ハミルトニアンの合成が可能となり、これは三部体のグリーンベルガー=ホルン=ザイリンガー状態が0.95の忠実度を持つ1ステップで生成される。 さらに、第1光子が放出されるかどうかを連続的に測定することで、2原子同時励起を抑制する量子ゼノ効果を示す。 この研究は多体相互作用ハミルトニアンと連接のコヒーレント制御を合成する新しい経路を提供する。

Here we report the first observation of simultaneous excitation of two noninteracting atoms by a pair of time-frequency correlated photons in a superconducting circuit. The strong coupling regime of this process enables the synthesis of a three-body interaction Hamiltonian, which allows the generation of the tripartite Greenberger-Horne-Zeilinger state in a single step with a fidelity as high as 0.95. We further demonstrate the quantum Zeno effect of inhibiting the simultaneous two-atom excitation by continuously measuring whether the first photon is emitted. This work provides a new route in synthesizing many-body interaction Hamiltonian and coherent control of entanglement.
翻訳日:2023-05-23 06:58:34 公開日:2020-04-16
# 学習のためのオープンで文化的なデータゲーム

Open and Cultural Data Games for Learning ( http://arxiv.org/abs/2004.07521v1 )

ライセンス: Link先を確認
Domna Chiotaki, Kostas Karpouzis(参考訳) 教育者は、通常の授業ルーチンを破り、追加の知識で通常のコースカリキュラムを拡張するために、しばしば教室でゲームを導入する方法を模索するが、主に学生を動機付け、コースコンテンツへの関与を高める手段である。 学生の大多数はゲームが魅力的であり、通常の教育実践に歓迎される変化であると考えているが、多くの教育者や親は教育的価値を疑っており、本稿では、オープンデータを用いて、環境問題を教えるためのカードゲームについて論じる。 そこで本研究では,本ゲームが学生の授業に対する興味を増加させ,授業に対する成績や関与度を,従来の授業と他の学生グループに同じ内容を教えるプレジプレゼンテーションと比較して比較検討した。

Educators often seek ways to introduce gaming in the classroom in order to break the usual teaching routine, expand the usual course curriculum with additional knowledge, but mostly as a means to motivate students and increase their engagement with the course content. Even though the vast majority of students find gaming to be appealing and a welcome change to the usual teaching practice, many educators and parents doubt their educational value; in this paper, we discuss a card game designed to teach environmental matters to early elementary school students, using open data. We present a comparative study of how the game increased the students' interest for the subject, as well as their performance and engagement to the course, compared with conventional teaching and a Prezi presentation used to teach the same content to other student groups.
翻訳日:2023-05-23 06:58:21 公開日:2020-04-16
# 誤差緩和$N$-representability条件を用いた量子古典ハイブリッドアルゴリズムによるMott金属絶縁体遷移の計算

Quantum-classical hybrid algorithm using an error-mitigating $N$-representability condition to compute the Mott metal-insulator transition ( http://arxiv.org/abs/2004.07739v1 )

ライセンス: Link先を確認
Scott E. Smart and David A. Mazziotti(参考訳) 分子電子構造のための量子アルゴリズムは、従来のものよりも低い計算スケーリングで開発されてきたが、新しい量子ハードウェアは、実験的な実現に必要なコヒーレンス、接続性、ゲートエラーの能力にはほど遠い。 本稿では、2電子還元密度行列(2-RDM)からエネルギーを計算する量子古典ハイブリッドアルゴリズムのクラスを提案する。 2-RDMは、量子回路からのノイズを緩和する$N$電子波動関数を表す条件である$N$-representability条件によって制約される。 二重項 h$_{3}$ の強相関解離を3つの水素原子に計算する。 ハイブリッド量子古典型コンピュータは、完全な構成相互作用から0.1 kcal/molまでのエネルギーを一致させる。 さらに、計算された1電子RDMの空間的局所性は、量子コンピュータがモット金属絶縁体遷移を正確に予測していることを明らかにする。

Quantum algorithms for molecular electronic structure have been developed with lower computational scaling than their classical counterparts, but emerging quantum hardware is far from being capable of the coherence,connectivity and gate errors required for their experimental realization. Here we propose a class of quantum-classical hybrid algorithms that compute the energy from a two-electron reduced density matrix (2-RDM). The 2-RDM is constrained by $N$-representability conditions, conditions for representing an $N$-electron wavefunction, that mitigates noise from the quantum circuit. We compute the strongly correlated dissociation of doublet H$_{3}$ into three hydrogen atoms. The hybrid quantum-classical computer matches the energies from full configuration interaction to 0.1 kcal/mol, one-tenth of "chemical accuracy," even in the strongly correlated limit of dissociation. Furthermore, the spatial locality of the computed one-electron RDM reveals that the quantum computer accurately predicts the Mott metal-insulator transition.
翻訳日:2023-05-23 06:50:01 公開日:2020-04-16
# 一般化パウリ排他原理を検証した量子コンピュータの実験データ

Experimental Data from a Quantum Computer Verifies the Generalized Pauli Exclusion Principle ( http://arxiv.org/abs/2004.07731v1 )

ライセンス: Link先を確認
Scott E. Smart, David I. Schuster, and David A. Mazziotti(参考訳) 「フェルミ粒子が同じ状態には入らないという結果は何でしょうか。」 r・p・ファインマンはポーリの排他原理について「事実、物質世界のほとんど全ての特異性は、この素晴らしい事実にかかっている」と書いている。 1972年、ボーランドとデニスは、フェルミ粒子の軌道占有に関するパウリの排他原理を超える強力な制約があることを示し、量子相関と絡み合いに関する重要な制限を与えた。 ここでは量子コンピュータ上の計算を用いて、これらの付加的な制約の存在を実験的に検証する。 量子多フェルミオン状態は量子コンピュータ上でランダムに準備され、制約違反のためにテストされる。 測定は違反を示さず、一般化されたパウリ排他原理を1つのクインティリオンの1つの部分の誤差で確認する。

"What are the consequences ... that Fermi particles cannot get into the same state ... " R. P. Feynman wrote of the Pauli exclusion principle, "In fact, almost all the peculiarities of the material world hinge on this wonderful fact." In 1972 Borland and Dennis showed that there exist powerful constraints beyond the Pauli exclusion principle on the orbital occupations of Fermi particles, providing important restrictions on quantum correlation and entanglement. Here we use computations on quantum computers to experimentally verify the existence of these additional constraints. Quantum many-fermion states are randomly prepared on the quantum computer and tested for constraint violations. Measurements show no violation and confirm the generalized Pauli exclusion principle with an error of one part in one quintillion.
翻訳日:2023-05-23 06:49:42 公開日:2020-04-16
# 光子の熱状態における圧縮コヒーレント光子の平均数と数分散

Mean Number and Number Variance of Squeezed Coherent Photons In a Thermal State of Photons ( http://arxiv.org/abs/2004.07724v1 )

ライセンス: Link先を確認
Moorad Alexanian(参考訳) 我々は、光子の平衡熱状態を検討し、スクイーズドコヒーレント光子の平均数と数分散を決定する。 我々は、平衡系と非平衡系の両方に適用可能な電磁放射の積分表現を用いて、放射のスペクトル関数を決定する。 この系は熱平衡状態にあり、圧縮されたコヒーレント光子は光子自身よりも高温であることが判明した。 また、予想通り、圧縮されたコヒーレント光子の平均数は光子のそれよりも大きい。

We consider the equilibrium thermal state of photons and determine the mean number and number variance of squeezed coherent photons. We use an integral representation for electro-magnetic radiation applicable both to systems in equilibrium and to systems in nonequilibrium to determine the spectral function of the radiation. The system considered is in thermal equilibrium and we find that the squeezed coherent photons are at a higher temperature than the photons themselves. Also, as expected, the mean number of squeezed coherent photons is greater than that of photons.
翻訳日:2023-05-23 06:49:16 公開日:2020-04-16
# 変分量子固有解法と二重ユニタリ結合クラスター法による量子コンピュータの資源効率の高い化学

Resource Efficient Chemistry on Quantum Computers with the Variational Quantum Eigensolver and The Double Unitary Coupled-Cluster approach ( http://arxiv.org/abs/2004.07721v1 )

ライセンス: Link先を確認
Mekena Metcalf, Nicholas P. Bauman, Karol Kowalski and Wibe A. de Jong(参考訳) 雑音中規模量子(nisq)デバイス上で分子の電子エネルギーを得るための量子シミュレーションアルゴリズムの応用は、複雑な電子相関効果を記述するリソースを慎重に考慮する必要がある。 二次量子化問題のモデル化において、最大の課題は、キュービットの数が分子基底の大きさと線形にスケールすることである。 これは、基底集合のサイズと化学過程の量子シミュレーションに含まれる相関電子の数に重大な制限を与える。 この問題に対処し,より現実的なnisqコンピュータシミュレーションを実現するために,二重ユニタリ結合クラスター (ducc) 法を用いて,一般のアクティブ空間と呼ばれる小さくなった軌道空間に相関効果を効果的に還元する。 ダウンフォールディング法を用いて、適切に構築された実効ハミルトニアンは、小型の活性空間における全軌道空間の効果を捉えることができることを示した。 ダウンフォールディング前処理技術と変分量子固有解法を組み合わせることで、DUCC還元された活性空間を用いて、cc-pVTZ基底状態エネルギー$\text{H}_2$と$\text{Li}_2$を解く。 これらの結果を完全な構成-相互作用と高レベル結合クラスタ参照計算と比較する。

Applications of quantum simulation algorithms to obtain electronic energies of molecules on noisy intermediate-scale quantum (NISQ) devices require careful consideration of resources describing the complex electron correlation effects. In modeling second-quantized problems, the biggest challenge confronted is that the number of qubits scales linearly with the size of molecular basis. This poses a significant limitation on the size of the basis sets and the number of correlated electrons included in quantum simulations of chemical processes. To address this issue and to enable more realistic simulations on NISQ computers, we employ the double unitary coupled-cluster (DUCC) method to effectively downfold correlation effects into the reduced-size orbital space, commonly referred to as the active space. Using downfolding techniques, we demonstrate that properly constructed effective Hamiltonians can capture the effect of the whole orbital space in small-size active spaces. Combining the downfolding pre-processing technique with the Variational Quantum Eigensolver, we solve for the ground-state energy of $\text{H}_2$ and $\text{Li}_2$ in the cc-pVTZ basis using the DUCC-reduced active spaces. We compare these results to full configuration-interaction and high-level coupled-cluster reference calculations.
翻訳日:2023-05-23 06:49:08 公開日:2020-04-16
# Digital Ariadne: エピデミックコントロールのための市民エンパワーメント

Digital Ariadne: Citizen Empowerment for Epidemic Control ( http://arxiv.org/abs/2004.07717v1 )

ライセンス: Link先を確認
Lorenz Cuno Klopfenstein, Saverio Delpriori, Gian Marco Di Francesco, Riccardo Maldini, Brendan Dominic Paolini, Alessandro Bogliolo(参考訳) 新型コロナウイルス危機は1918年のH1N1インフルエンザ流行以来、公衆衛生にとって最も危険な脅威である。 これまでのところ、sars-cov-2ウイルスによる病気は、流行拡大を抑えようとする全国レベルでの極端な対策に対処されている。 しかし、これらのアプローチはウイルスの拡散を効果的に抑えるために迅速な導入と実施を必要とし、前例のない社会経済的影響を引き起こす可能性がある。 大量監視と規制執行の代替手段は、市民の権限付与によって集団知性を活用することである。 パーソナルデバイス上で動作するモバイルアプリケーションは、コンテキスト/ロケーション認識とデータ収集機能を活用することで、この種のアプローチを著しくサポートする可能性がある。 特に、技術支援による位置追跡と接触追跡は、広く採用されれば、エンドユーザー意識を高め、選択的隔離措置の導入を可能にすることで、感染症の拡散を抑えるのに役立つ。 本稿では,一般的なスマートフォン上で動作している伝染性封じ込めのためのパーソナルアプリケーションに関する一般的な要件と設計原則を概説し,個人デバイス上での自発的な位置情報とbluetoothトラッキングに基づく「ダイアリー」または「デジタルアリアドイン」と呼ばれるツールを提案する。 パンデミック封じ込めのための接触追跡ソリューションに関するコメントやフィードバック、さらなる議論を楽しみにしています。

The COVID-19 crisis represents the most dangerous threat to public health since the H1N1 influenza pandemic of 1918. So far, the disease due to the SARS-CoV-2 virus has been countered with extreme measures at national level that attempt to suppress epidemic growth. However, these approaches require quick adoption and enforcement in order to effectively curb virus spread, and may cause unprecedented socio-economic impact. A viable alternative to mass surveillance and rule enforcement is harnessing collective intelligence by means of citizen empowerment. Mobile applications running on personal devices could significantly support this kind of approach by exploiting context/location awareness and data collection capabilities. In particular, technology-assisted location and contact tracing, if broadly adopted, may help limit the spread of infectious diseases by raising end-user awareness and enabling the adoption of selective quarantine measures. In this paper, we outline general requirements and design principles of personal applications for epidemic containment running on common smartphones, and we present a tool, called 'diAry' or 'digital Ariadne', based on voluntary location and Bluetooth tracking on personal devices, supporting a distributed query system that enables fully anonymous, privacy-preserving contact tracing. We look forward to comments, feedback, and further discussion regarding contact tracing solutions for pandemic containment.
翻訳日:2023-05-23 06:48:43 公開日:2020-04-16
# 継続的ヘルスインターフェースイベント検索

Continuous Health Interface Event Retrieval ( http://arxiv.org/abs/2004.07716v1 )

ライセンス: Link先を確認
Vaibhav Pandey, Nitish Nag, Ramesh Jain(参考訳) 常に私たちの健康状態を知ることは、健康科学の進歩に不可欠です。 エピソードな臨床環境の外で得られたデータを利用することは、継続的健康評価システムを構築するための第一歩である。 本稿では,心血管の容積過負荷などの複雑な生物学的事象を検索するために,異なるソースからのイベントとデータストリームを組み合わせるシステムを提案する。 これらの複雑な事象は、生物医学的な文献で研究され、インターフェイスイベントと呼ばれているが、関連する生物学的システムに直接因果的影響を与える。 ライフスタイルの出来事が私たちの健康に影響を与えるインターフェースです。 イベント演算子言語を用いてドメイン知識を符号化することにより、既存のイベントやデータストリームからインターフェースイベントを検索する。

Knowing the state of our health at every moment in time is critical for advances in health science. Using data obtained outside an episodic clinical setting is the first step towards building a continuous health estimation system. In this paper, we explore a system that allows users to combine events and data streams from different sources to retrieve complex biological events, such as cardiovascular volume overload. These complex events, which have been explored in biomedical literature and which we call interface events, have a direct causal impact on relevant biological systems. They are the interface through which the lifestyle events influence our health. We retrieve the interface events from existing events and data streams by encoding domain knowledge using an event operator language.
翻訳日:2023-05-23 06:48:21 公開日:2020-04-16
# 数値最適化による量子回路の合成

Synthesizing quantum circuits via numerical optimization ( http://arxiv.org/abs/2004.07714v1 )

ライセンス: Link先を確認
Timoth\'ee Goubault de Brugi\`ere, Marc Baboulin, Beno\^it Valiron, Cyril Allouche(参考訳) 数値最適化アルゴリズムに基づく量子回路合成のための簡単なフレームワークを提供する。 このアルゴリズムはトラップイオン技術の文脈で使用される。 量子アルゴリズムを実装するのに必要な量子ゲート数の理論的下界を導出する。 次に、回路の最適パラメータを計算したランダム量子作用素を用いた数値実験を行い、理論下界の正確性を示す。 最終的に,提案手法のスケーラビリティとキュービット数について論じる。

We provide a simple framework for the synthesis of quantum circuits based on a numerical optimization algorithm. This algorithm is used in the context of the trapped-ions technology. We derive theoretical lower bounds for the number of quantum gates required to implement any quantum algorithm. Then we present numerical experiments with random quantum operators where we compute the optimal parameters of the circuits and we illustrate the correctness of the theoretical lower bounds. We finally discuss the scalability of the method with the number of qubits.
翻訳日:2023-05-23 06:48:11 公開日:2020-04-16
# 家計変換を用いた量子回路合成

Quantum circuit synthesis using Householder transformations ( http://arxiv.org/abs/2004.07710v1 )

ライセンス: Link先を確認
Timoth\'ee Goubault de Brugi\`ere, Marc Baboulin, Beno\^it Valiron, Cyril Allouche(参考訳) 量子回路の合成は、ユニタリ行列を一連の基本演算に分解する。 本稿では,家庭変換によるQR分解に基づく回路合成手法を提案する。 最初のステップでは量子演算子の特定の構造を利用してqr因子化を計算し、その後因子化行列を用いて量子回路を生成する。 いくつかのコスト(回路サイズと計算時間)を分析し,既存の手法と比較する。 最善の既存法で得られる2倍の大きさの量子回路では、桁違いに計算を加速する。

The synthesis of a quantum circuit consists in decomposing a unitary matrix into a series of elementary operations. In this paper, we propose a circuit synthesis method based on the QR factorization via Householder transformations. We provide a two-step algorithm: during the first step we exploit the specific structure of a quantum operator to compute its QR factorization, then the factorized matrix is used to produce a quantum circuit. We analyze several costs (circuit size and computational time) and compare them to existing techniques from the literature. For a final quantum circuit twice as large as the one obtained by the best existing method, we accelerate the computation by orders of magnitude.
翻訳日:2023-05-23 06:48:05 公開日:2020-04-16
# 準軸および非偏軸二光子励起下におけるルビジウム原子のS準位転移のスピン選択則

Spin selection rule for {\it S} level transitions in atomic rubidium under paraxial and nonparaxial two-photon excitation ( http://arxiv.org/abs/2004.07685v1 )

ライセンス: Link先を確認
Krishnapriya Subramonian Rajasree, Ratnesh Kumar Gupta, Vandna Gokhroo, Fam Le Kien, Thomas Nieddu, Tridib Ray, S\'ile Nic Chormaic, Georgiy Tkachenko(参考訳) 原子中の2光子遷移に対するスピン選択則の実験実験について報告する。 特に、ルビジウムガス中の5S_{1/2}\to 6S_{1/2}$遷移速度は、励起光の偏光に関連するヘリシティパラメータの二次的依存性に従うことを示した。 熱気セル内の1つのガウスビームまたは2つの逆伝播ビームによる励起では、遷移速度は2乗の線形偏光度としてスケールする。 光が円偏光されると、その速度はゼロになる。 対照的に、光ナノファイバー近傍のエバネッセント場によって励起が実現されると、2光子遷移は(理論的には、我々の実験条件下では最大速度の13倍以下)、ファイバー誘導光の偏光だけを変化させることで完全に消滅することができない。 我々の発見は、強い非同軸光の原子における多光子過程の物理学の深い理解につながる。

We report on an experimental test of the spin selection rule for two-photon transitions in atoms. In particular, we demonstrate that the $5S_{1/2}\to 6S_{1/2}$ transition rate in a rubidium gas follows a quadratic dependency on the helicity parameter linked to the polarization of the excitation light. For excitation via a single Gaussian beam or two counterpropagating beams in a hot vapor cell, the transition rate scales as the squared degree of linear polarization. The rate reaches zero when the light is circularly polarized. In contrast, when the excitation is realized via an evanescent field near an optical nanofiber, the two-photon transition cannot be completely extinguished (theoretically, not lower than 13\% of the maximum rate, under our experimental conditions) by only varying the polarization of the fiber-guided light. Our findings lead to a deeper understanding of the physics of multiphoton processes in atoms in strongly nonparaxial light.
翻訳日:2023-05-23 06:47:55 公開日:2020-04-16
# 時間信号生成における極限

Ultimate limit on time signal generation ( http://arxiv.org/abs/2004.07857v1 )

ライセンス: Link先を確認
Yuxiang Yang and Renato Renner(参考訳) 時間信号の生成は科学の基本的な課題である。 本稿では,時間信号の品質とそれを生成する系の物理との関係について検討する。 量子理論によれば、任意の時間信号は個々の量子分極に分解され、単一の検出イベントに繋がる。 我々の主な結果は、信号発生器の寸法に依存する、これらのイベントの時間的ピークの急激さに縛られている。 この結果は、情報理論、量子時計、プロセスシミュレーションを含む様々な方向の応用を約束する。

The generation of time signals is a fundamental task in science. Here we study the relation between the quality of a time signal and the physics of the system that generates it. According to quantum theory, any time signal can be decomposed into individual quanta that lead to single detection events. Our main result is a bound on how sharply peaked in time these events can be, which depends on the dimension of the signal generator. This result promises applications in various directions, including information theory, quantum clocks, and process simulation.
翻訳日:2023-05-23 06:41:13 公開日:2020-04-16
# 簡単なアプローチと中性子崩壊におけるQZEとize

QZE and IZE in a simple approach and the neutron decay ( http://arxiv.org/abs/2004.07772v1 )

ライセンス: Link先を確認
Francesco Giacosa(参考訳) 本稿では, 量子ゼノ効果(QZE)と逆ゼノ効果(ize)を記述した簡易で解析可能な測定モデルについて論じる。 このモデルでは、不安定な量子状態、例えば不安定な粒子(エネルギーの関数としての減衰幅が$\gamma(\omega)=g^{2}\omega^{\alpha},$)を考えると、非常に一般的な仮定の下で qze は $\alpha\in(0,1)$ で、ize は $\alpha \in(-\infty,0)\cup(1,\infty) となる。 この結果は、この研究で述べられているものよりも現実的な測定モデルにも有効である。 すると、これらの考察を中性子の崩壊に適用し、例えば$\alpha=5.$ なので、中性子の崩壊(および弱い崩壊の大多数)に対するizeの実現は原理的に可能である。 実際、トラップ実験では、ビーム実験よりも8.7\pm2.1$ sの寿命が短いことが判明した。

We discuss a simple and analytically solvable measurement model which describes the famous Quantum Zeno Effect (QZE) and Inverse Zeno Effect (IZE), that correspond to the slow down and to the increase of the decay rate caused by measurements (or, more in general, by the interaction of an unstable state with the detector and the environment). Within this model one can understand quite general features of the QZE and IZE: by considering an unstable quantum state, such as an unstable particle, whose decay width as function of energy is $\Gamma(\omega)=g^{2}\omega^{\alpha},$ then -- under quite general assumptions -- the QZE occurs for $\alpha\in(0,1)$, while the IZE for $\alpha \in(-\infty,0)\cup(1,\infty).$ This result is valid also for more realistic measurement models than the one described in this work. We then apply these considerations to the decay of the neutron, for which $\alpha=5.$ Hence, the realization of the IZE for the neutron decay (and for the majority of weak decays) is in principle possible. Indeed, trap experiments find a lifetime that is $8.7\pm2.1$ s shorter than beam experiments, suggesting that the IZE could have taken place.
翻訳日:2023-05-23 06:40:06 公開日:2020-04-16
# 普遍量子ビットゲートとしての量子$\mathcal{R}$-行列

Quantum $\mathcal{R}$-matrices as universal qubit gates ( http://arxiv.org/abs/2004.07764v1 )

ライセンス: Link先を確認
Nikita Kolganov and Andrey Morozov(参考訳) トポロジカル量子コンピューティングにおけるチャーン・サイモンズアプローチについて検討する。 量子$\mathcal{R}$-行列を普遍的な量子ゲートとして使用し、いくつかの1量子ビット演算の近似を研究する。 我々は、既知のゾロワ・キタエフアルゴリズムを特定の問題に適したものに修正する。

We study the Chern-Simons approach to the topological quantum computing. We use quantum $\mathcal{R}$-matrices as universal quantum gates and study the approximations of some one-qubit operations. We make some modifications to the known Solovay-Kitaev algorithm suitable for our particular problem.
翻訳日:2023-05-23 06:39:24 公開日:2020-04-16
# 量子コンピューティングのための異種mpsocプラットフォーム上での複素制御の高速化

Accelerating complex control schemes on a heterogeneous MPSoC platform for quantum computing ( http://arxiv.org/abs/2004.07755v1 )

ライセンス: Link先を確認
Richard Gebauer, Nick Karcher, Jonas Hurst, Marc Weber, Oliver Sander(参考訳) 超伝導量子ビット(qubits)の制御と読み出しには、ギガヘルツ周波数とナノ秒精度を持つマイクロ波パルスが必要である。 これらのマイクロ波パルスを発生・解析するために,FPGAベースの多用途電子プラットフォームを開発した。 基本的な機能はFPGA内で直接処理され、ナノ秒の時間スケールで高い精度が保証されるが、より複雑な制御方式はハードウェアで実装するには実用的ではない。 決定論的タイミングと低レイテンシを高い柔軟性で提供するために,我々はtaskrunnerフレームワークを開発した。 異種マルチプロセッサシステムオンチップ(MPSoC)のリアルタイム処理ユニット(RPU)上で、複雑な制御スキーム、いわゆるユーザタスクの実行を可能にする。 これらのユーザタスクは標準C言語を使って便利に指定され、RPUにロードされるとMPSoCプラットフォームによって自動的にコンパイルされる。 本稿では、Taskrunnerフレームワークのアーキテクチャとタイミングベンチマークを示し、量子コンピューティングの分野における応用について議論する。

Control and readout of superconducting quantum bits (qubits) require microwave pulses with gigahertz frequencies and nanosecond precision. To generate and analyze these microwave pulses, we developed a versatile FPGA-based electronics platform. While basic functionality is directly handled within the FPGA, guaranteeing highest accuracy on the nanosecond timescale, more complex control schemes render impractical to implement in hardware. To provide deterministic timing and low latency with high flexibility, we developed the Taskrunner framework. It enables the execution of complex control schemes, so-called user tasks, on the real-time processing unit (RPU) of a heterogeneous Multiprocessor System-on-Chip (MPSoC). These user tasks are specified conveniently using standard C language and are compiled automatically by the MPSoC platform when loaded onto the RPU. We present the architecture of the Taskrunner framework as well as timing benchmarks and discuss applications in the field of quantum computing.
翻訳日:2023-05-23 06:39:20 公開日:2020-04-16
# CO.ME.T.A.-19 メディアテキスト分析 メディアモニタリングのためのダッシュボード

CO.ME.T.A. -- covid-19 media textual analysis. A dashboard for media monitoring ( http://arxiv.org/abs/2004.07742v1 )

ライセンス: Link先を確認
Emma Zavarrone, Maria Gabriella Grassia, Marina Marino, Rasanna Cataldo, Rocco Mazza, Nicola Canestrari(参考訳) 本研究の目的は, マスメディア, 特に新聞が, 伝染の封じ込めや疫学進化の解説について, どのように取り組んだのかを追跡することである。 対話型ダッシュボードco.me.t.a.を提案する。 crisesの間は、重要な状況に対応するために、最高のコミュニケーション戦略を形作ることが重要です。 この点に関しては、マスメディアやソーシャルプラットフォームが伝える情報を監視することが重要である。 ダッシュボードは、抽出されたコンテンツのマイニングを探索し、主要なトピックをリンクする語彙構造を研究する。 ダッシュボードはテキストマイニング、感情分析、テキストネットワーク分析、潜在トピックモデルという4つの方法を統合する。 文書のサブセットで得られた結果は、健康に関連する意味的な次元だけでなく、社会経済的な次元にまで及んでいる。

The focus of this paper is to trace how mass media, particularly newspapers, have addressed the issues about the containment of contagion or the explanation of epidemiological evolution. We propose an interactive dashboard: CO.ME.T.A.. During crises it is important to shape the best communication strategies in order to respond to critical situations. In this regard, it is important to monitor the information that mass media and social platforms convey. The dashboard allows to explore the mining of contents extracted and study the lexical structure that links the main discussion topics. The dashboard merges together four methods: text mining, sentiment analysis, textual network analysis and latent topic models. Results obtained on a subset of documents show not only a health-related semantic dimension, but it also extends to social-economic dimensions.
翻訳日:2023-05-23 06:39:04 公開日:2020-04-16
# 6Gコミュニケーション技術 : インテリジェントヘルスケアへの展望

6G Communication Technology: A Vision on Intelligent Healthcare ( http://arxiv.org/abs/2005.07532v1 )

ライセンス: Link先を確認
Sabuzima Nayak and Ripon Patgiri(参考訳) 6Gは、2030年以降の健康市場全体を支配する有望なコミュニケーション技術だ。 医療部門だけでなく多様な部門も支配する。 6Gは医療を含む多くの分野に革命をもたらすと期待されている。 ヘルスケアは、完全にai駆動で、6g通信技術に依存し、ライフスタイルに対する私たちの認識を変えるでしょう。 現在、時間と空間が医療の重要な障壁であり、6Gはこれらの障壁を克服することができる。 また、6gはヘルスケアのゲームチェンジ技術として証明される。 そこで本研究では,6G通信技術の時代の医療システムについて考察する。 また、qol(quality of life)、iwd(intelligent wearable devices)、iomt(intelligent internet of medical things)、h2h( hospital-to-home)サービス、新しいビジネスモデルなど、私たちのライフスタイルを強化するために、さまざまな新しい手法が導入される必要があります。 さらに,遠隔手術,エピデミック,パンデミックにおける6G通信技術の役割を明らかにする。

6G is a promising communication technology that will dominate the entire health market from 2030 onward. It will dominate not only health sector but also diverse sectors. It is expected that 6G will revolutionize many sectors including healthcare. Healthcare will be fully AI-driven and dependent on 6G communication technology, which will change our perception of lifestyle. Currently, time and space are the key barriers to health care and 6G will be able to overcome these barriers. Also, 6G will be proven as a game changing technology for healthcare. Therefore, in this perspective, we envision healthcare system for the era of 6G communication technology. Also, various new methodologies have to be introduced to enhance our lifestyle, which is addressed in this perspective, including Quality of Life (QoL), Intelligent Wearable Devices (IWD), Intelligent Internet of Medical Things (IIoMT), Hospital-to-Home (H2H) services, and new business model. In addition, we expose the role of 6G communication technology in telesurgery, Epidemic and Pandemic.
翻訳日:2023-05-23 06:31:21 公開日:2020-04-16
# 時間-エネルギー不確実性関係の強化

Tightening Time-Energy Uncertainty Relations ( http://arxiv.org/abs/2004.08384v1 )

ライセンス: Link先を確認
Francesco Campaioli(参考訳) 不確実性原理は現代の物理学の基礎であり、その意味は理論と応用量子力学に根本的な影響を与える。 この論文の目的は、量子進化の速度限界として操作的に解釈される時間とエネルギーの不確実性関係を研究し、適用することである。 幾何学的アプローチは、孤立および開系の進化のための改良された境界を導出し、効率的かつ高速な量子駆動のための建設的アプローチを得るために用いられる。 これらの結果は,情報伝達と処理の速度とナノマシンのパワーの限界を設定するために応用される。

The uncertainty principle is a cornerstone of modern physics, and its implications have a fundamental impact on theoretical and applied quantum mechanics. The aim of this thesis is to study and apply the uncertainty relations between time and energy, which are interpreted operationally as the speed limit of quantum evolution. A geometric approach is used to derive improved bounds for the evolution of isolated and open systems and obtain a constructive approach for efficient and fast quantum driving. These results are applied to set the limits for the rate of information transfer and processing, and the power of nanomachines.
翻訳日:2023-05-23 06:30:53 公開日:2020-04-16
# 高強度ベクトルビームによる多極偏波形高調波発生

Multipolar, Polarization Shaped High Harmonic Generation by Intense Vector Beams ( http://arxiv.org/abs/2004.08235v1 )

ライセンス: Link先を確認
Jonas W\"atzel and Jamal Berakdar(参考訳) 高高調波発生(HHG)は、強いレーザー場に対する物質の強い非線形応答の顕在化であり、コヒーレントXUVの基礎には様々な応用がある。 近年, パルスの逆電界成分に基づいて, 位相および偏光構造レーザ中の原子からのHHGを実証し, 解釈している。 ここでは、マクスウェル方程式によって規定されるように、そのような体は、一般的に電荷力学に根本的な影響を与える縦成分を持つ。 例えば、トランスバーサル場成分との相互作用により、放射された放射を円偏光と定義された極性で局所的に内挿することができる。 HHGの偏光状態を定義する時間依存ストークスパラメータは、駆動レーザの長手方向と横方向の電界成分の比を変化させる駆動場のウエストを変化させることで調整できることが示されている。 さらに、生成された高調波の多極展開を用いることで、特定の多極性および駆動場分極状態の空間構造との関係が顕在化する。 ここで提案されたスキームは、1つの駆動レーザで発する高調波の完全な分極制御を可能にする。 駆動パルスのより厳密な焦点は、偶数と奇数両方の空間対称性を持つ調和体の放出を可能にする。 基本的なメカニズムは、レーザーの電磁ベクトルポテンシャルの横および縦成分間の基本的な相互作用によるものである。 これらの成分間の比は、高調波の偏光と極性制御のためのアクセス可能なツールを指して、レーザースポットに焦点を合わせるだけで制御可能である。

High harmonic generation (HHG) is a manifestation of the strongly nonlinear response of matter to intense laser fields and has, as the basis for coherent XUV sources a variety of applications. Recently, HHG from atoms in a phase and polarization structured laser was demonstrated and interpreted based on the transverse electric field component of the driving pulse. Here we point out that as dictated by Maxwell equations, such fields have a longitudinal component which in general has a fundamental influence on the charge dynamics. For instance, its interplay with the transversal field component enables endowing the emitted radiation locally with circular polarization and a defined polarity. It is shown that the time-dependent Stokes parameters defining the polarization state of HHG can be tuned by varying the waist of the driving field which in turn, changes the ratio between the longitudinal and transverse electric-field components of the driving laser. In addition, employing a multipole expansion of the produced harmonics exposes the specific multipolar character and the relation to the spatial structure of the driving field polarization states. The scheme proposed here allows a full polarization control of the emitted harmonics by only one driving laser. A tighter focusing of the driving pulse renders possible the emission of harmonics with both even and odd spatial symmetry. The underlying mechanism is due to the fundamental interplay between the transverse and longitudinal components of the laser's electromagnetic vector potential. The ratio between those components is controllable by just focusing the laser spot, pointing to an accessible tool for polarization and polarity control of the high harmonics.
翻訳日:2023-05-23 06:30:43 公開日:2020-04-16
# 量子情報処理のための光処理可能な分子スピン

Optically addressable molecular spins for quantum information processing ( http://arxiv.org/abs/2004.07998v1 )

ライセンス: Link先を確認
S.L. Bayliss, D.W. Laorenza, P.J. Mintun, B. Diler, D.E. Freedman, D.D. Awschalom(参考訳) スピンを持つ分子は、化学的に調整し、スケーラブルな配列に組み立て、様々なデバイスアーキテクチャに容易に組み込むことができるため、量子技術の構成要素を約束している。 分子システムでは、基底状態のスピンに光学的に対処することで、固体の欠陥が示されるように、量子情報科学の幅広い応用が可能になる。 しかし、この重要な機能は分子に対して解明され続けている。 ここでは, 合成有機金属, クロム(IV)分子の配向性を示す。 これらの化合物は、光を使って初期化し読み出し、電子レンジでコヒーレントに操作できる基底状態スピンを表示する。 さらに、分子構造の原子論的修飾により、これらの化合物のスピンと光学特性をチューニングし、ボトムアップから合成されたデザイナー量子系への道を開く。

Spin-bearing molecules are promising building blocks for quantum technologies as they can be chemically tuned, assembled into scalable arrays, and readily incorporated into diverse device architectures. In molecular systems, optically addressing ground-state spins would enable a wide range of applications in quantum information science, as has been demonstrated for solid-state defects. However, this important functionality has remained elusive for molecules. Here, we demonstrate such optical addressability in a series of synthesized organometallic, chromium(IV) molecules. These compounds display a ground-state spin that can be initialized and read out using light, and coherently manipulated with microwaves. In addition, through atomistic modification of the molecular structure, we tune the spin and optical properties of these compounds, paving the way for designer quantum systems synthesized from the bottom-up.
翻訳日:2023-05-23 06:30:17 公開日:2020-04-16
# 六方晶窒化ホウ素の工学的スピン欠陥

Engineering spin defects in hexagonal boron nitride ( http://arxiv.org/abs/2004.07968v1 )

ライセンス: Link先を確認
Mehran Kianinia, Simon White, Johannes E. Fr\"och, Carlo Bradac and Igor Aharonovich(参考訳) 2次元の六方晶窒化ホウ素は、ナノスケールでの光-物質相互作用の高度な研究、特に量子ナノフォトニクスの実現に興味深い機会を提供する。 ここでは、負電荷のホウ素空孔中心に基づく光順応可能なスピン欠陥の工学を実証する。 これらの中心は、ナノスケールの精度で様々な集束イオンビーム(ニトロゲン、キセノン、アルゴン)を用いて、六方晶窒化ホウ素で形成される。 レーザーと共振マイクロ波励起の組み合わせを用いて、光学的に検出された磁気共鳴分光測定を行い、約3.46GHzの欠陥に対するゼロフィールド基底状態の分裂を明らかにする。 また,光電子励起分光法と温度依存性発光測定を行い,中心の光物理特性を明らかにする。 この結果は、六方晶窒化ホウ素のスピン欠陥の操作と読み出しを含む高度な量子およびナノフォトニクスの実現に重要である。

Two-dimensional hexagonal boron nitride offers intriguing opportunities for advanced studies of light-matter interaction at the nanoscale, specifically for realizations in quantum nanophotonics. Here, we demonstrate the engineering of optically-addressable spin defects based on the negatively-charged boron vacancy center. We show that these centers can be created in exfoliated hexagonal boron nitride using a variety of focused ion beams (nitrogen, xenon and argon), with nanoscale precision. Using a combination of laser and resonant microwave excitation, we carry out optically detected magnetic resonance spectroscopy measurements, which reveal a zero-field ground state splitting for the defect of ~3.46 GHz. We also perform photoluminescence excitation spectroscopy and temperature dependent photoluminescence measurements to elucidate the photophysical properties of the center. Our results are important for advanced quantum and nanophotonics realizations involving manipulation and readout of spin defects in hexagonal boron nitride.
翻訳日:2023-05-23 06:29:54 公開日:2020-04-16
# 高次元展開器を用いた$\sqrt{n}$距離障壁を超える分解可能な量子LDPC符号

Decodable quantum LDPC codes beyond the $\sqrt{n}$ distance barrier using high dimensional expanders ( http://arxiv.org/abs/2004.07935v1 )

ライセンス: Link先を確認
Shai Evra, Tali Kaufman and Gilles Z\'emor(参考訳) 長さの平方根よりも速く成長する最小距離の量子LDPC符号を構成することは、この分野の大きな課題である。 この課題を念頭に置いて,高次元展開器,特にラマヌジャン錯体から生じる構造について検討する。 これらは当然、大きなx$- distanceを持つが、z$- distanceの方がずっと小さい非常にバランスの取れない量子エラー訂正符号をもたらす。 しかし、古典展開器ldpc符号と、ヘイスティングの構成を一般化するテンソル化法と、量子符号のティリッヒ・ゼモール構成法とを合わせて、最小距離が符号長の平方根を超え、その次元が符号長の平方根に近い量子ldpc符号を得る。 成分が3次元ラマヌジャン複体であるとき、その2-シストルは複素サイズの丸太の正方形として振る舞うことが示され、結果として最小距離$n^{1/2}\log n$の量子符号となり、量子LDPC符号の新たな記録を樹立する。 2次元ラマヌジャン錯体や3次元ラマヌジャン錯体の2-骨格を用いると、最小距離$n^{1/2}\log^{1/2}n$の量子ldpc符号が得られる。 次に、量子LDPC符号の平方根障壁の上をデコードする最初の多項式時間アルゴリズムを考案するために、複素体の膨張特性を利用する。

Constructing quantum LDPC codes with a minimum distance that grows faster than a square root of the length has been a major challenge of the field. With this challenge in mind, we investigate constructions that come from high-dimensional expanders, in particular Ramanujan complexes. These naturally give rise to very unbalanced quantum error correcting codes that have a large $X$-distance but a much smaller $Z$-distance. However, together with a classical expander LDPC code and a tensoring method that generalises a construction of Hastings and also the Tillich-Zemor construction of quantum codes, we obtain quantum LDPC codes whose minimum distance exceeds the square root of the code length and whose dimension comes close to a square root of the code length. When the ingredient is a 3-dimensional Ramanujan complex, we show that its 2-systole behaves like a square of the log of the complex size, which results in an overall quantum code of minimum distance $n^{1/2}\log n$, and sets a new record for quantum LDPC codes. When we use a 2-dimensional Ramanujan complex, or the 2-skeleton of a 3-dimensional Ramanujan complex, we obtain a quantum LDPC code of minimum distance $n^{1/2}\log^{1/2}n$. We then exploit the expansion properties of the complex to devise the first polynomial time algorithm that decodes above the square root barrier for quantum LDPC codes.
翻訳日:2023-05-23 06:29:37 公開日:2020-04-16
# 知識科学者: データ駆動型組織を解き放つ

Knowledge Scientists: Unlocking the data-driven organization ( http://arxiv.org/abs/2004.07917v1 )

ライセンス: Link先を確認
George Fletcher, Paul Groth, Juan Sequeda(参考訳) あらゆる分野の組織は、データ駆動型オペレーションへの深い変革と再構築をますます進めている。 データの中心的な役割は、信頼性とクリーンなデータの必要性を強調する。 信頼できない、誤った、不完全なデータは、パイプラインの処理と、最終的にはサービス障害に重大なボトルネックをもたらします。 その中心的な重要性を考えると、信頼できるデータの必要性を認識して対応する組織は、今後10年で有利になるでしょう。 信頼できるデータのための技術は、データサイエンティストとデータエンジニアの関心を補完する、異なる関心事と専門知識によって駆動されると主張する。 意味のある、説明可能な、再現可能な、保守可能なデータの重要さを識別する組織は、信頼できるデータの民主化の最前線にいる。 我々は、この重要なニーズを満たすために開発されなければならない新しい役割を知識科学者と呼んでいる。 知識科学者の仕事を支援するための組織構造、ツール、方法論、技術は、まだ初期段階にある。 組織はデータを使うだけでなく、ますますデータに頼るようになるので、この変革の中心にいる人々を力づける時が来たのです。

Organizations across all sectors are increasingly undergoing deep transformation and restructuring towards data-driven operations. The central role of data highlights the need for reliable and clean data. Unreliable, erroneous, and incomplete data lead to critical bottlenecks in processing pipelines and, ultimately, service failures, which are disastrous for the competitive performance of the organization. Given its central importance, those organizations which recognize and react to the need for reliable data will have the advantage in the coming decade. We argue that the technologies for reliable data are driven by distinct concerns and expertise which complement those of the data scientist and the data engineer. Those organizations which identify the central importance of meaningful, explainable, reproducible, and maintainable data will be at the forefront of the democratization of reliable data. We call the new role which must be developed to fill this critical need the Knowledge Scientist. The organizational structures, tools, methodologies and techniques to support and make possible the work of knowledge scientists are still in their infancy. As organizations not only use data but increasingly rely on data, it is time to empower the people who are central to this transformation.
翻訳日:2023-05-23 06:29:10 公開日:2020-04-16
# 量子特性試験におけるエンタングルメントの必要性

Entanglement is Necessary for Optimal Quantum Property Testing ( http://arxiv.org/abs/2004.07869v1 )

ライセンス: Link先を確認
Sebastien Bubeck, Sitan Chen, Jerry Li(参考訳) 近年、最適なコピー複雑性を達成する量子状態のテストと学習のためのアルゴリズムの開発が進んでいる。 残念なことに、それらは基底状態の多くのコピーに絡み合った測定を使わなければならないため、現在実験可能な領域の外にとどまる。 自然な疑問は、独立した-しかし、おそらく適応的に選択された-- 個々のコピーを計測することで、そのようなアルゴリズムのコピー複雑性にマッチできるかどうかである。 与えられた$d$次元の量子状態が最大混合状態からトレース距離において$\epsilon$-farと等しいかどうかを決定する。 エンタングル測定を用いて最適な$O(d/\epsilon^2)$コピー複雑性を実現する方法が知られているが、独立測定では、$\Omega(d^{4/3}/\epsilon^2)$が適応的に選択されても必要であることを示す。 これはライトの問題を解く。 この下限を得るために、パニンスキーの古典的一様性テストに対する下限のチェーンルル型証明を含むいくつかの新しい手法を開発した。

There has been a surge of progress in recent years in developing algorithms for testing and learning quantum states that achieve optimal copy complexity. Unfortunately, they require the use of entangled measurements across many copies of the underlying state and thus remain outside the realm of what is currently experimentally feasible. A natural question is whether one can match the copy complexity of such algorithms using only independent---but possibly adaptively chosen---measurements on individual copies. We answer this in the negative for arguably the most basic quantum testing problem: deciding whether a given $d$-dimensional quantum state is equal to or $\epsilon$-far in trace distance from the maximally mixed state. While it is known how to achieve optimal $O(d/\epsilon^2)$ copy complexity using entangled measurements, we show that with independent measurements, $\Omega(d^{4/3}/\epsilon^2)$ is necessary, even if the measurements are chosen adaptively. This resolves a question of Wright. To obtain this lower bound, we develop several new techniques, including a chain-rule style proof of Paninski's lower bound for classical uniformity testing, which may be of independent interest.
翻訳日:2023-05-23 06:28:41 公開日:2020-04-16
# ファノ共鳴導波路における光子輸送

Few-photon Transport in Fano-resonance waveguide geometries ( http://arxiv.org/abs/2001.05773v2 )

ライセンス: Link先を確認
Kristoffer B. Joanesarson, Jake Iles-Smith, Mikkel Heuck, and Jesper M{\o}rk(参考訳) 数光子輸送におけるファノ干渉効果の理論的研究について述べる。 適切な条件下では、光導波路の局所的な欠陥はファノ干渉の特徴である高度に非対称な伝送線路形状を誘導する。 このような欠陥に隣接して配置された2レベルエミッタに対して,ここでは部分伝達素子としてモデル化し,単一光子波束の全時間発展とエミッタ励起確率の解析式を求める。 部分伝達素子がエミッタ寿命にどのように影響し、有効系共鳴のスペクトル位置をシフトするかを示す。 入力出力形式を用いて、2レベルエミッタとキャビティエミッタの両方の導波路と部分伝達素子を結合した単一および2光子$ s$-行列を決定する。 本研究は,ホン・ウー・マンデルスイッチの実装にファノ干渉効果を応用し,可変線形・非線形ビームスプリッタを例示する。

We present a theoretical study of Fano interference effects in few-photon transport. Under appropriate conditions, a local defect in an optical waveguide induces a highly asymmetric transmission lineshape, characteristic of Fano interference. For a two-level emitter placed adjacent to such a defect, here modeled as a partially transmitting element, we find an analytical expression for the full time evolution of single-photon wavepackets and the emitter excitation probability. We show how the partially transmitting element affects the emitter lifetime and shifts the spectral position of the effective system resonances. Using input-output formalism, we determine the single and two-photon $ S $-matrices for both a two-level emitter and a cavity-emitter system coupled to a waveguide with a partially transmitting element. We show how the Fano interference effect can be exploited for the implementation of a Hong-Ou-Mandel switch in analogy with a tunable linear or nonlinear beam splitter.
翻訳日:2023-01-11 00:29:36 公開日:2020-04-16
# データサイエンスワーカーはどのように協力するか? 役割、ワークフロー、ツール

How do Data Science Workers Collaborate? Roles, Workflows, and Tools ( http://arxiv.org/abs/2001.06684v3 )

ライセンス: Link先を確認
Amy X. Zhang, Michael Muller, Dakuo Wang(参考訳) 今日、組織内のデータサイエンスの優位性は、個々のデータ科学者が単独で働くのとは対照的に、データから洞察を取り出すために協力するデータサイエンスワーカーのチームを生み出している。 しかし、データサイエンスワーカーが実際にどのように協力するかについては、まだ深く理解されていない。 本研究では,データサイエンスの様々な側面で働く183人の参加者を対象に,オンライン調査を行った。 私たちは、報告された相互の相互作用(エンジニアを持つマネージャなど)と、さまざまなツール(例えばJupyter Notebook)に焦点を当てました。 データサイエンスチームは極めて協力的であり、データサイエンスワークフロー(クリーンデータやトレインモデルなど)の6つの一般的なステップにおいて、さまざまな利害関係者やツールと連携しています。 また、ドキュメンテーションなどの作業者が採用するコラボレーティブなプラクティスは、使用するツールの種類によって異なることも分かりました。 これらの知見に基づいて,データサイエンスチームのコラボレーションを支援する設計の意味と今後の研究方向性について議論する。

Today, the prominence of data science within organizations has given rise to teams of data science workers collaborating on extracting insights from data, as opposed to individual data scientists working alone. However, we still lack a deep understanding of how data science workers collaborate in practice. In this work, we conducted an online survey with 183 participants who work in various aspects of data science. We focused on their reported interactions with each other (e.g., managers with engineers) and with different tools (e.g., Jupyter Notebook). We found that data science teams are extremely collaborative and work with a variety of stakeholders and tools during the six common steps of a data science workflow (e.g., clean data and train model). We also found that the collaborative practices workers employ, such as documentation, vary according to the kinds of tools they use. Based on these findings, we discuss design implications for supporting data science team collaborations and future research directions.
翻訳日:2023-01-10 04:54:13 公開日:2020-04-16
# 建物における短期負荷予測のためのネットワークアーキテクチャ

Stacked Boosters Network Architecture for Short Term Load Forecasting in Buildings ( http://arxiv.org/abs/2001.08406v2 )

ライセンス: Link先を確認
Tuukka Salmi, Jussi Kiljander and Daniel Pakkala(参考訳) 本稿では,建築エネルギー負荷の短期負荷予測のための新しいディープラーニングアーキテクチャを提案する。 このアーキテクチャは、単純なベース学習システムと、単一のディープニューラルネットワークとしてモデル化された複数のブースティングシステムに基づいている。 アーキテクチャは、元の多変量時系列を多重カスケーディング単変量時系列に変換する。 スパース相互作用、パラメータ共有、同変表現と共に、このアプローチは、ディープネットワークアーキテクチャで優れたプレゼンテーションパワーを達成しつつ、過剰フィッティングと戦えるようにする。 このアーキテクチャは、フィンランドのオフィスビルのエネルギーデータを用いて、短期負荷予測タスクで評価される。 提案するアーキテクチャは,すべてのタスクにおいて最先端の負荷予測モデルを上回る。

This paper presents a novel deep learning architecture for short term load forecasting of building energy loads. The architecture is based on a simple base learner and multiple boosting systems that are modelled as a single deep neural network. The architecture transforms the original multivariate time series into multiple cascading univariate time series. Together with sparse interactions, parameter sharing and equivariant representations, this approach makes it possible to combat against overfitting while still achieving good presentation power with a deep network architecture. The architecture is evaluated in several short-term load forecasting tasks with energy data from an office building in Finland. The proposed architecture outperforms state-of-the-art load forecasting model in all the tasks.
翻訳日:2023-01-07 10:10:32 公開日:2020-04-16
# 混合機能な超次元ランダム場言語モデルによる離散・ニューラル特徴の統合

Integrating Discrete and Neural Features via Mixed-feature Trans-dimensional Random Field Language Models ( http://arxiv.org/abs/2002.05967v2 )

ライセンス: Link先を確認
Silin Gao, Zhijian Ou, Wei Yang and Huifang Xu(参考訳) 離散的特徴(n-gram特徴)とニューラルネットワークに基づく特徴が言語モデル(lms)に補完的な強みを持つことが長年認識されてきた。 モデル補間によって性能が向上するが、これは離散的および神経的特徴の最適化された2段階統合である。 半次元ランダム場(TRF)フレームワークは、よりリッチな特徴セットを柔軟に統合できる潜在的な利点を持つ。 しかし、離散的特徴または神経的特徴は、以前のTRF LMでのみ使用される。 本稿では,混合機能TRF LMを開発し,離散的特徴とニューラル特徴を統合する上での利点を示す。 PTBとGoogleのワンビリオンワードデータセットを使って様々なLMをトレーニングし、音声認識のためのN-bestリスト再構成実験で評価する。 全ての単一LM(すなわちモデル補間無し)の中で、混合機能TRF LMは、離散性TRF LMと神経性TRF LMの両方よりも優れており、LSTM LMよりも大幅に優れている。 個別に訓練された2つのモデルと神経特性の補間と比較して、混合機能TRF LMの性能は最高の補間モデルと一致し、ワンステップトレーニングプロセスの簡略化とトレーニング時間を短縮した。

There has been a long recognition that discrete features (n-gram features) and neural network based features have complementary strengths for language models (LMs). Improved performance can be obtained by model interpolation, which is, however, a suboptimal two-step integration of discrete and neural features. The trans-dimensional random field (TRF) framework has the potential advantage of being able to flexibly integrate a richer set of features. However, either discrete or neural features are used alone in previous TRF LMs. This paper develops a mixed-feature TRF LM and demonstrates its advantage in integrating discrete and neural features. Various LMs are trained over PTB and Google one-billion-word datasets, and evaluated in N-best list rescoring experiments for speech recognition. Among all single LMs (i.e. without model interpolation), the mixed-feature TRF LMs perform the best, improving over both discrete TRF LMs and neural TRF LMs alone, and also being significantly better than LSTM LMs. Compared to interpolating two separately trained models with discrete and neural features respectively, the performance of mixed-feature TRF LMs matches the best interpolated model, and with simplified one-step training process and reduced training time.
翻訳日:2023-01-01 04:12:43 公開日:2020-04-16
# ニューラルシーケンスモデルの計算量と品質の制御

Controlling Computation versus Quality for Neural Sequence Models ( http://arxiv.org/abs/2002.07106v2 )

ライセンス: Link先を確認
Ankur Bapna, Naveen Arivazhagan, Orhan Firat(参考訳) ほとんどのニューラルネットワークは、入力の固有の複雑さとは無関係に、すべての例で同じ計算量を使用する。 さらに、計算量を例に当てはめる方法は、例ごとに固定された推論時間計算グラフを見つけ、外部の計算予算を無視したり、様々な推論時間制限を無視することに焦点を当てる。 本研究では、条件計算を用いて、推論中にニューラルネットワークモデル(Transformer)をより効率的かつ計算に適応させる。 我々はまずTransformerアーキテクチャを変更し、学習した制御ネットワークの出力に応じて各操作セットを条件付き実行可能にした。 次に、各タスクが特定の計算予算に対応するマルチタスク設定でこのモデルをトレーニングします。 これにより、推論時に利用可能な計算予算に応じて、計算品質のトレードオフ曲線の異なる点で動作するように制御できる単一のモデルを訓練することができる。 アプローチを2つのタスクで評価します (i)wmt英仏訳、及び (II)教師なし表現学習(BERT) 提案する条件計算トランスフォーマ (cct) は, 計算予算を十分に活用できる場合にはバニラトランスと競合するが, より小さな計算予算で動作した場合は, 計算等価なベースラインよりも大幅に性能が向上する。

Most neural networks utilize the same amount of compute for every example independent of the inherent complexity of the input. Further, methods that adapt the amount of computation to the example focus on finding a fixed inference-time computational graph per example, ignoring any external computational budgets or varying inference time limitations. In this work, we utilize conditional computation to make neural sequence models (Transformer) more efficient and computation-aware during inference. We first modify the Transformer architecture, making each set of operations conditionally executable depending on the output of a learned control network. We then train this model in a multi-task setting, where each task corresponds to a particular computation budget. This allows us to train a single model that can be controlled to operate on different points of the computation-quality trade-off curve, depending on the available computation budget at inference time. We evaluate our approach on two tasks: (i) WMT English-French Translation and (ii) Unsupervised representation learning (BERT). Our experiments demonstrate that the proposed Conditional Computation Transformer (CCT) is competitive with vanilla Transformers when allowed to utilize its full computational budget, while improving significantly over computationally equivalent baselines when operating on smaller computational budgets.
翻訳日:2022-12-31 11:42:06 公開日:2020-04-16
# 感情制御理論を用いた対話における感情適応応答の生成

Generating Emotionally Aligned Responses in Dialogues using Affect Control Theory ( http://arxiv.org/abs/2003.03645v2 )

ライセンス: Link先を確認
Nabiha Asghar, Ivan Kobyzev, Jesse Hoey, Pascal Poupart, and Muhammad Bilal Sheikh(参考訳) 最先端のニューラル対話システムは、言語の構文的および意味的モデリングに優れているが、会話中に人間の対話者との感情的連携を確立するのに苦労している。 本研究では,人間と人間のインタラクションに対する感情の社会・数学モデルであるimpact control theory(act)を,神経対話生成環境に導入する。 actは、社会状況における感情的な刺激に対する人間の反応の予測を行う。 この性質のため、ACTとその派生確率モデルは、共感型チュータリングシステム、補助医療機器、および2対のソーシャルジレンマゲームなど、ヒューマン・コンピュータインタラクションのいくつかの応用に成功している。 本研究は,actを用いて感情認識型ニューラル・会話エージェントの開発を行い,プロンプトに対する感情協調反応を生成し,対話者の感情的同一性を検討する。

State-of-the-art neural dialogue systems excel at syntactic and semantic modelling of language, but often have a hard time establishing emotional alignment with the human interactant during a conversation. In this work, we bring Affect Control Theory (ACT), a socio-mathematical model of emotions for human-human interactions, to the neural dialogue generation setting. ACT makes predictions about how humans respond to emotional stimuli in social situations. Due to this property, ACT and its derivative probabilistic models have been successfully deployed in several applications of Human-Computer Interaction, including empathetic tutoring systems, assistive healthcare devices and two-person social dilemma games. We investigate how ACT can be used to develop affect-aware neural conversational agents, which produce emotionally aligned responses to prompts and take into consideration the affective identities of the interactants.
翻訳日:2022-12-25 19:14:16 公開日:2020-04-16
# トロント3D:都市道路のセマンティックセグメンテーションのための大規模モバイルLiDARデータセット

Toronto-3D: A Large-scale Mobile LiDAR Dataset for Semantic Segmentation of Urban Roadways ( http://arxiv.org/abs/2003.08284v3 )

ライセンス: Link先を確認
Weikai Tan, Nannan Qin, Lingfei Ma, Ying Li, Jing Du, Guorong Cai, Ke Yang, Jonathan Li(参考訳) 大規模屋外点雲のセマンティックセグメンテーションは、様々な応用、特に自律運転と都市ハイデフィニション(HD)マッピングにおける都市景観理解に不可欠である。 モバイルレーザースキャン(MLS)システムの急速な発展に伴い、シーン理解に巨大な点雲が利用できるが、学習ベースの手法開発に不可欠な大規模ラベル付きデータセットは依然として限られている。 本稿では,カナダ・トロントのmlsシステムによって,意味的セグメンテーションのために取得された大規模都市アウトドアポイントクラウドデータセットであるトロント3dを紹介する。 このデータセットは約1kmの点雲を含み、8つのラベル付きオブジェクトクラスを持つ約78.3百万点からなる。 セマンティックセグメンテーションのためのベースライン実験を行い、このデータセットがディープラーニングモデルを効果的に訓練する能力を確認した。 トロント3Dは新たな研究を促進するためにリリースされ、ラベルは研究コミュニティからのフィードバックで改善および更新される予定である。

Semantic segmentation of large-scale outdoor point clouds is essential for urban scene understanding in various applications, especially autonomous driving and urban high-definition (HD) mapping. With rapid developments of mobile laser scanning (MLS) systems, massive point clouds are available for scene understanding, but publicly accessible large-scale labeled datasets, which are essential for developing learning-based methods, are still limited. This paper introduces Toronto-3D, a large-scale urban outdoor point cloud dataset acquired by a MLS system in Toronto, Canada for semantic segmentation. This dataset covers approximately 1 km of point clouds and consists of about 78.3 million points with 8 labeled object classes. Baseline experiments for semantic segmentation were conducted and the results confirmed the capability of this dataset to train deep learning models effectively. Toronto-3D is released to encourage new research, and the labels will be improved and updated with feedback from the research community.
翻訳日:2022-12-22 12:51:23 公開日:2020-04-16
# 新型コロナウイルスの最適化アルゴリズム:covid-19伝播モデルに基づくバイオインスパイアメタヒューリスティック

Coronavirus Optimization Algorithm: A bioinspired metaheuristic based on the COVID-19 propagation model ( http://arxiv.org/abs/2003.13633v2 )

ライセンス: Link先を確認
F. Mart\'inez-\'Alvarez, G. Asencio-Cort\'es, J. F. Torres, D. Guti\'errez-Avil\'es, L. Melgar-Garc\'ia, R. P\'erez-Chac\'on, C. Rubio-Escudero, J. C. Riquelme, A. Troncoso(参考訳) この研究は、新型コロナウイルスが健康な人々にどのように拡散し感染するかをシミュレートする、新しいバイオインスパイアされたメタヒューリスティックが提案されている。 最初の患者(患者ゼロ)から、新型コロナウイルスは既知の頻度で新しい患者に感染し、新しい人口を創出する。 すべての個体が死亡または感染し、その後、回復した個体群に送られる。 再発確率、超感染率、旅行率などの関連用語をモデルに導入し、ウイルス活動の正確なシミュレートを行う。 コロナウイルス最適化アルゴリズムは、他の類似の戦略と比較して2つの大きな利点がある。 まず、入力パラメータは疾患統計に従ってすでに設定されており、研究者が任意の値で初期化するのを防ぐ。 第二に、このアプローチには、この値を設定することなく、数回のイテレーションで終了する能力があります。 感染した人口は、当初は指数関数的に増加するが、いくつかのイテレーションの後、社会的隔離措置と高い回復率と死者数を考えると、感染した人の数はその後のイテレーションで減少し始める。 さらに、複数のコロナウイルス株が時間とともに進化し、より少ないイテレーションでより広い探索空間領域を探索する並列型マルチウイルスバージョンも提案されている。 最後に、メタヒューリスティックはトレーニングフェーズ中に最適なハイパーパラメータを見つけるために、ディープラーニングモデルと組み合わせられています。 応用として、電力負荷時系列予測の問題に対処し、非常に優れた性能を示した。

A novel bioinspired metaheuristic is proposed in this work, simulating how the coronavirus spreads and infects healthy people. From an initial individual (the patient zero), the coronavirus infects new patients at known rates, creating new populations of infected people. Every individual can either die or infect and, afterwards, be sent to the recovered population. Relevant terms such as re-infection probability, super-spreading rate or traveling rate are introduced in the model in order to simulate as accurately as possible the coronavirus activity. The Coronavirus Optimization Algorithm has two major advantages compared to other similar strategies. First, the input parameters are already set according to the disease statistics, preventing researchers from initializing them with arbitrary values. Second, the approach has the ability of ending after several iterations, without setting this value either. Infected population initially grows at an exponential rate but after some iterations, when considering social isolation measures and the high number recovered and dead people, the number of infected people starts decreasing in subsequent iterations. Furthermore, a parallel multi-virus version is proposed in which several coronavirus strains evolve over time and explore wider search space areas in less iterations. Finally, the metaheuristic has been combined with deep learning models, in order to find optimal hyperparameters during the training phase. As application case, the problem of electricity load time series forecasting has been addressed, showing quite remarkable performance.
翻訳日:2022-12-18 07:47:32 公開日:2020-04-16
# セマンティクスシーン補完のための注意型マルチモーダル融合ネットワーク

Attention-based Multi-modal Fusion Network for Semantic Scene Completion ( http://arxiv.org/abs/2003.13910v2 )

ライセンス: Link先を確認
Siqi Li, Changqing Zou, Yipeng Li, Xibin Zhao and Yue Gao(参考訳) 本稿では,単一ビューRGB-D画像からボリューム3Dシーンの占有状況とセマンティックラベルを推定するセマンティックシーン完了(SSC)タスクに対して,アテンションベースマルチモーダルフュージョンネットワーク(AMFNet)と呼ばれるエンドツーエンドの3D畳み込みネットワークを提案する。 提案手法は,rgb-d画像から抽出した意味的特徴のみを用いる従来の手法と比較し,rgb-d画像から2次元意味的セグメンテーションを推定する経験と空間次元の信頼性の高い奥行き手がかりを活かして,効果的な3次元シーン補完と意味セグメンテーションを同時に行うことを学習する。 2次元セマンティックセグメンテーションと、3次元セマンティックコンプリートネットワークにより強化されたマルチモーダルフュージョンアーキテクチャを用いて実現されている。 本手法は,合成SUNCG-RGBDデータセットと実NYUv2データセットの両方で検証し,合成SUNCG-RGBDデータセットと実NYUv2データセットでそれぞれ2.5%と2.6%のゲインが得られることを示した。

This paper presents an end-to-end 3D convolutional network named attention-based multi-modal fusion network (AMFNet) for the semantic scene completion (SSC) task of inferring the occupancy and semantic labels of a volumetric 3D scene from single-view RGB-D images. Compared with previous methods which use only the semantic features extracted from RGB-D images, the proposed AMFNet learns to perform effective 3D scene completion and semantic segmentation simultaneously via leveraging the experience of inferring 2D semantic segmentation from RGB-D images as well as the reliable depth cues in spatial dimension. It is achieved by employing a multi-modal fusion architecture boosted from 2D semantic segmentation and a 3D semantic completion network empowered by residual attention blocks. We validate our method on both the synthetic SUNCG-RGBD dataset and the real NYUv2 dataset and the results show that our method respectively achieves the gains of 2.5% and 2.6% on the synthetic SUNCG-RGBD dataset and the real NYUv2 dataset against the state-of-the-art method.
翻訳日:2022-12-18 01:06:34 公開日:2020-04-16
# 進行中の作業:時間的に拡張された補助作業

Work in Progress: Temporally Extended Auxiliary Tasks ( http://arxiv.org/abs/2004.00600v3 )

ライセンス: Link先を確認
Craig Sherstan, Bilal Kartal, Pablo Hernandez-Leal, and Matthew E. Taylor(参考訳) 予測補助タスクは、多くの強化学習作業でパフォーマンスを向上させることが示されているが、この効果はまだよく分かっていない。 本研究の主な目的は,補助作業の予測タイムスケールがエージェントの政策パフォーマンスに与える影響を調査することである。 時間差学習を用いて政治予測を行う補助タスクについて検討する。 本研究では,入力画像が予測対象として使用される特定のタスクの形式を用いて,時間差オートエンコーダ(TD-AE)と呼ばれる予測時間スケールの影響を検証した。 我々は、異なる予測時間尺度を用いて、VizDoom環境におけるA2Cアルゴリズムに対するTD-AEの効果を実証的に評価した。 予測時間スケールと性能の関係は明確には観察されていないが、以下の観察を行う。 1)補助的タスクを用いることで,A2Cアルゴリズムの軌道長を削減できる。 2) 時間的に拡張されたTD-AEは, ストレートオートエンコーダよりも優れていた。 3)補助的作業による性能は、補助的損失の重みに敏感である。 4) この感度にもかかわらず, 補助タスクは, ハイパーパラメータチューニングを伴わずに性能が向上した。 総合的な結論として,td-aeはa2cアルゴリズムのロバスト性を軌道長に向上させ,有望でありながら,補助タスク予測時間スケールとエージェントの性能との関係を十分に理解する必要がある。

Predictive auxiliary tasks have been shown to improve performance in numerous reinforcement learning works, however, this effect is still not well understood. The primary purpose of the work presented here is to investigate the impact that an auxiliary task's prediction timescale has on the agent's policy performance. We consider auxiliary tasks which learn to make on-policy predictions using temporal difference learning. We test the impact of prediction timescale using a specific form of auxiliary task in which the input image is used as the prediction target, which we refer to as temporal difference autoencoders (TD-AE). We empirically evaluate the effect of TD-AE on the A2C algorithm in the VizDoom environment using different prediction timescales. While we do not observe a clear relationship between the prediction timescale on performance, we make the following observations: 1) using auxiliary tasks allows us to reduce the trajectory length of the A2C algorithm, 2) in some cases temporally extended TD-AE performs better than a straight autoencoder, 3) performance with auxiliary tasks is sensitive to the weight placed on the auxiliary loss, 4) despite this sensitivity, auxiliary tasks improved performance without extensive hyper-parameter tuning. Our overall conclusions are that TD-AE increases the robustness of the A2C algorithm to the trajectory length and while promising, further study is required to fully understand the relationship between auxiliary task prediction timescale and the agent's performance.
翻訳日:2022-12-17 17:50:42 公開日:2020-04-16
# COVID-CAPS:X線画像から新型コロナウイルスの患者を識別するためのカプセルネットワークベースのフレームワーク

COVID-CAPS: A Capsule Network-based Framework for Identification of COVID-19 cases from X-ray Images ( http://arxiv.org/abs/2004.02696v2 )

ライセンス: Link先を確認
Parnian Afshar, Shahin Heidarian, Farnoosh Naderkhani, Anastasia Oikonomou, Konstantinos N. Plataniotis, and Arash Mohammadi(参考訳) 新型コロナウイルス(covid-19)は、21世紀の2世紀末に私たちが知っているように、突然、そして間違いなく世界を変えた。 新型コロナウイルス(COVID-19)は極めて感染性が高く、世界規模で急速に普及している。 新型コロナウイルス(covid-19)の早期診断は、医療専門家や政府当局が移行の連鎖を破り、流行曲線を平らにすることができる。 しかし、一般的なタイプの新型コロナウイルス診断検査は、特定の機器を必要とし、比較的感度が低い。 ct(ct)スキャンとx線画像から,この疾患に関連する特異な所見が明らかとなった。 他の肺感染症と重なると、covid-19のヒト中心診断が困難になる。 その結果、新型コロナウイルス感染者の特定を容易にするために、主に畳み込みニューラルネットワーク(CNN)に基づくディープニューラルネットワーク(DNN)ベースの診断ソリューションの開発が急激な関心を集めている。 しかし、CNNは画像インスタンス間の空間情報を失う傾向にあり、大きなデータセットを必要とする。 本稿では、新型コロナウイルスの急激な出現により重要となる小さなデータセットを処理できる、Capsule Networks(COVID-CAPS)に基づく代替モデリングフレームワークを提案する。 X線画像のデータセットに基づく結果から、COVID-CAPSは従来のCNNモデルよりも有利であることが示された。 COVID-CAPSの精度は95.7%、感度は90%、特異度は95.8%、エリア・アンダー・ザ・カーブ(AUC)は0.97だった。 X線画像の外部データセットから構築された新しいデータセットに基づく事前トレーニングにより、COVID-CAPSの診断能力をさらに向上する。 類似のデータセットによる事前トレーニングにより、精度は98.3%、特異性は98.6%向上した。

Novel Coronavirus disease (COVID-19) has abruptly and undoubtedly changed the world as we know it at the end of the 2nd decade of the 21st century. COVID-19 is extremely contagious and quickly spreading globally making its early diagnosis of paramount importance. Early diagnosis of COVID-19 enables health care professionals and government authorities to break the chain of transition and flatten the epidemic curve. The common type of COVID-19 diagnosis test, however, requires specific equipment and has relatively low sensitivity. Computed tomography (CT) scans and X-ray images, on the other hand, reveal specific manifestations associated with this disease. Overlap with other lung infections makes human-centered diagnosis of COVID-19 challenging. Consequently, there has been an urgent surge of interest to develop Deep Neural Network (DNN)-based diagnosis solutions, mainly based on Convolutional Neural Networks (CNNs), to facilitate identification of positive COVID-19 cases. CNNs, however, are prone to lose spatial information between image instances and require large datasets. The paper presents an alternative modeling framework based on Capsule Networks, referred to as the COVID-CAPS, being capable of handling small datasets, which is of significant importance due to sudden and rapid emergence of COVID-19. Our results based on a dataset of X-ray images show that COVID-CAPS has advantage over previous CNN-based models. COVID-CAPS achieved an Accuracy of 95.7%, Sensitivity of 90%, Specificity of 95.8%, and Area Under the Curve (AUC) of 0.97, while having far less number of trainable parameters in comparison to its counterparts. To further improve diagnosis capabilities of the COVID-CAPS, pre-training based on a new dataset constructed from an external dataset of X-ray images. Pre-training with a dataset of similar nature further improved accuracy to 98.3% and specificity to 98.6%.
翻訳日:2022-12-16 06:17:59 公開日:2020-04-16
# D-SRGAN: 生成逆ネットワークを用いたDEM超解法

D-SRGAN: DEM Super-Resolution with Generative Adversarial Networks ( http://arxiv.org/abs/2004.04788v2 )

ライセンス: Link先を確認
Bekir Z Demiray, Muhammed Sit, Ibrahim Demir(参考訳) lidar(light detection and ranging)は、センサと物体の間の距離と物体からの反射エネルギーを測定する光学的リモートセンシング技術である。 長年にわたり、LIDARデータはDEM(Digital Elevation Models)の主要な情報源として使われてきた。 DEMは道路抽出、水文モデリング、洪水マッピング、表面分析など様々な用途で使用されている。 洪水における多くの研究は、アプリケーションのインプットとして高解像度のDEMを使用することで、全体的な信頼性と精度が向上することを示唆している。 高解像度DEMの重要性にもかかわらず、米国や世界の多くの地域では、技術的制限やデータ収集のコストのために高解像度DEMにアクセスできない。 最近のグラフィック処理ユニット(gpu)や新しいアルゴリズムの開発により、ディープラーニング技術は高分解能データセットからの学習機能のパフォーマンスにおいて研究者にとって魅力的なものとなっている。 大規模データセットの修正と拡張を行うインテリジェントモデルを作成するために,GAN(Generative Adversarial Networks)など,数多くの新しい手法が提案されている。 本稿では,単一の画像超解像法にインスパイアされたGANモデルを開発し,データに関する追加情報なしで,与えられたDEMデータセットの空間分解能を最大4倍に向上させる。

LIDAR (light detection and ranging) is an optical remote-sensing technique that measures the distance between sensor and object, and the reflected energy from the object. Over the years, LIDAR data has been used as the primary source of Digital Elevation Models (DEMs). DEMs have been used in a variety of applications like road extraction, hydrological modeling, flood mapping, and surface analysis. A number of studies in flooding suggest the usage of high-resolution DEMs as inputs in the applications improve the overall reliability and accuracy. Despite the importance of high-resolution DEM, many areas in the United States and the world do not have access to high-resolution DEM due to technological limitations or the cost of the data collection. With recent development in Graphical Processing Units (GPU) and novel algorithms, deep learning techniques have become attractive to researchers for their performance in learning features from high-resolution datasets. Numerous new methods have been proposed such as Generative Adversarial Networks (GANs) to create intelligent models that correct and augment large-scale datasets. In this paper, a GAN based model is developed and evaluated, inspired by single image super-resolution methods, to increase the spatial resolution of a given DEM dataset up to 4 times without additional information related to data.
翻訳日:2022-12-15 02:47:00 公開日:2020-04-16
# Dithered Backprop:より効率的なディープニューラルネットワークトレーニングのためのスパースで量子化されたバックプロパゲーションアルゴリズム

Dithered backprop: A sparse and quantized backpropagation algorithm for more efficient deep neural network training ( http://arxiv.org/abs/2004.04729v2 )

ライセンス: Link先を確認
Simon Wiedemann, Temesgen Mehari, Kevin Kepp, Wojciech Samek(参考訳) ディープニューラルネットワークは成功したが、高い計算コストの学習システムである。 時間とエネルギーの流出の主な原因の1つは、トレーニングの計算複雑性の2/3を占めるよく知られたバックプロパゲーション(バックプロップ)アルゴリズムである。 本研究では,逆プロップの計算コストを削減する手法を提案し,これをディザードバックプロップと呼ぶ。 それは、その方法の中間結果に確率的量子化スキームを適用することからなる。 NSD(Non-Subtractive Dither)と呼ばれる特定の量子化スキームは、効率的なスパース行列乗法によって活用できる空間性を誘導する。 一般的な画像分類タスクの実験では、最先端の手法と比較して、広範囲のモデルで平均92%の間隔をゼロまたは無視可能な精度で減少させ、後方パスの計算複雑性を著しく減少させる。 さらに,本手法は,学習のビット精度を8ビットに下げる最先端の訓練手法と完全に互換性があることを示し,計算要求をさらに削減できることを示した。 最後に,分散学習環境におけるディザリングバックプロップの適用による潜在的なメリットについて考察し,参加者ノード数と同時に通信と計算効率が向上する可能性を示す。

Deep Neural Networks are successful but highly computationally expensive learning systems. One of the main sources of time and energy drains is the well known backpropagation (backprop) algorithm, which roughly accounts for 2/3 of the computational complexity of training. In this work we propose a method for reducing the computational cost of backprop, which we named dithered backprop. It consists in applying a stochastic quantization scheme to intermediate results of the method. The particular quantisation scheme, called non-subtractive dither (NSD), induces sparsity which can be exploited by computing efficient sparse matrix multiplications. Experiments on popular image classification tasks show that it induces 92% sparsity on average across a wide set of models at no or negligible accuracy drop in comparison to state-of-the-art approaches, thus significantly reducing the computational complexity of the backward pass. Moreover, we show that our method is fully compatible to state-of-the-art training methods that reduce the bit-precision of training down to 8-bits, as such being able to further reduce the computational requirements. Finally we discuss and show potential benefits of applying dithered backprop in a distributed training setting, where both communication as well as compute efficiency may increase simultaneously with the number of participant nodes.
翻訳日:2022-12-15 02:08:48 公開日:2020-04-16
# 予習変圧器は分散ロバスト性を改善する

Pretrained Transformers Improve Out-of-Distribution Robustness ( http://arxiv.org/abs/2004.06100v2 )

ライセンス: Link先を確認
Dan Hendrycks, Xiaoyuan Liu, Eric Wallace, Adam Dziedzic, Rishabh Krishnan, and Dawn Song(参考訳) BERTのような事前学習されたトランスフォーマーは、分布内例で高い精度を達成するが、それらは新しい分布に一般化するだろうか? 現実的な分布シフトを伴う新しいロバストネスベンチマークを構築することにより、7つのNLPデータセットに対するOOD(out-of-distriion)の一般化を体系的に測定する。 我々は,単語のバッグ・オブ・ワードモデル,ConvNets,LSTMsなどの先行モデルの一般化を測定し,事前学習したトランスフォーマーの性能低下が著しく小さいことを示す。 事前訓練されたトランスフォーマーは異常やOODの検出にも有効であるが、以前のモデルの多くは偶然よりもしばしば悪い。 より大規模なモデルは必ずしも堅牢ではなく、蒸留は有害であり、より多様な事前学習データは堅牢性を高めることができる。 最後に、今後の作業がOODの堅牢性を改善する方法を示す。

Although pretrained Transformers such as BERT achieve high accuracy on in-distribution examples, do they generalize to new distributions? We systematically measure out-of-distribution (OOD) generalization for seven NLP datasets by constructing a new robustness benchmark with realistic distribution shifts. We measure the generalization of previous models including bag-of-words models, ConvNets, and LSTMs, and we show that pretrained Transformers' performance declines are substantially smaller. Pretrained transformers are also more effective at detecting anomalous or OOD examples, while many previous models are frequently worse than chance. We examine which factors affect robustness, finding that larger models are not necessarily more robust, distillation can be harmful, and more diverse pretraining data can enhance robustness. Finally, we show where future work can improve OOD robustness.
翻訳日:2022-12-13 23:18:25 公開日:2020-04-16
# ビデオオブジェクトセグメンテーションのためのトランスダクティブアプローチ

A Transductive Approach for Video Object Segmentation ( http://arxiv.org/abs/2004.07193v2 )

ライセンス: Link先を確認
Yizhuo Zhang, Zhirong Wu, Houwen Peng, and Stephen Lin(参考訳) 半教師付きビデオオブジェクトセグメンテーションは、第1フレームのマスクから対象オブジェクトをビデオシーケンスから分離することを目的としている。 現在の一般的な手法のほとんどは、光学フローやインスタンスセグメンテーションといった他の領域で訓練された追加のモジュールからの情報を利用しており、その結果、他の方法では競合しない。 この問題に対処するために,モジュールやデータセット,専用のアーキテクチャ設計を必要としない,シンプルながら強力なトランスダクティブ手法を提案する。 本手法は,埋め込み空間における特徴類似性に基づいて,画素ラベルを前方に転送するラベル伝搬手法である。 他の伝搬法と異なり、長期的対象の出現を考慮した時間情報を全体論的に拡散する。 さらに、計算オーバーヘッドも少なく、高速で$\sim$37 fpsの速度で動作します。 バニラResNet50バックボーンを備えた1つのモデルは、DAVIS 2017バリデーションセットで72.3、テストセットで63.1のスコアを得る。 この単純で高性能で効率的な方法は、将来の研究を促進するための基盤となる。 コードとモデルは \url{https://github.com/microsoft/transductive-vos.pytorch} で利用可能である。

Semi-supervised video object segmentation aims to separate a target object from a video sequence, given the mask in the first frame. Most of current prevailing methods utilize information from additional modules trained in other domains like optical flow and instance segmentation, and as a result they do not compete with other methods on common ground. To address this issue, we propose a simple yet strong transductive method, in which additional modules, datasets, and dedicated architectural designs are not needed. Our method takes a label propagation approach where pixel labels are passed forward based on feature similarity in an embedding space. Different from other propagation methods, ours diffuses temporal information in a holistic manner which take accounts of long-term object appearance. In addition, our method requires few additional computational overhead, and runs at a fast $\sim$37 fps speed. Our single model with a vanilla ResNet50 backbone achieves an overall score of 72.3 on the DAVIS 2017 validation set and 63.1 on the test set. This simple yet high performing and efficient method can serve as a solid baseline that facilitates future research. Code and models are available at \url{https://github.com/microsoft/transductive-vos.pytorch}.
翻訳日:2022-12-13 03:49:58 公開日:2020-04-16
# GOES-R衛星観測によるニューラルネットワークを用いた合成レーダ反射率推定器の開発と解釈

Development and Interpretation of a Neural Network-Based Synthetic Radar Reflectivity Estimator Using GOES-R Satellite Observations ( http://arxiv.org/abs/2004.07906v1 )

ライセンス: Link先を確認
Kyle A. Hilburn, Imme Ebert-Uphoff, Steven D. Miller(参考訳) 本研究の目的は,降雨時のGOES-Rシリーズ観測を再現する手法を開発し,気象災害の短期的対流予測を改善することである。 ABI(Advanced Baseline Imager)から得られたGOES-Rラディアンスの放射光同化(Radiance Assimilation)は降水シーンで飽和し, GLM(GOES Lightning Mapper)からの光の観測では放射光同化は利用されない。 ここでは畳み込みニューラルネットワーク(cnn)を開発し、gos-r放射と雷を合成レーダ反射率場に変換し、既存のレーダ同化技術を利用する。 このアプリケーションでは,cnnが空間的コンテキストを利用する能力が不可欠であり,従来のピクセル・バイ・ピクセルのアプローチと比較して画期的な技術改善が期待できる。 改良された性能を理解するために,ネットワークの推論に異なる洞察を与える,いくつかの手法を組み合わせた新しい分析手法を用いる。 チャネル保持実験と空間情報保持実験を用いて,光度勾配における情報内容と雷の存在から,CNNが高い反射率で技術を達成することを示す。 帰属法,レイヤワイド関連伝搬は,CNNが放射光と雷情報を相乗的に利用し,雷がCNNが隣り合う場所を最も重要視するのに役立つことを示す。 合成入力は放射率勾配に対する感度を定量化するために用いられ、よりシャープな勾配は予測反射率においてより強い応答をもたらすことを示す。 最後に、静止雷観測は、強いレーダーエコーの位置を特定できる能力にユニークな価値があることが判明した。

The objective of this research is to develop techniques for assimilating GOES-R Series observations in precipitating scenes for the purpose of improving short-term convective-scale forecasts of high impact weather hazards. Whereas one approach is radiance assimilation, the information content of GOES-R radiances from its Advanced Baseline Imager (ABI) saturates in precipitating scenes, and radiance assimilation does not make use of lightning observations from the GOES Lightning Mapper (GLM). Here, a convolutional neural network (CNN) is developed to transform GOES-R radiances and lightning into synthetic radar reflectivity fields to make use of existing radar assimilation techniques. We find that the ability of CNNs to utilize spatial context is essential for this application and offers breakthrough improvement in skill compared to traditional pixel-by-pixel based approaches. To understand the improved performance, we use a novel analysis methodology that combines several techniques, each providing different insights into the network's reasoning. Channel withholding experiments and spatial information withholding experiments are used to show that the CNN achieves skill at high reflectivity values from the information content in radiance gradients and the presence of lightning. The attribution method, layer-wise relevance propagation, demonstrates that the CNN uses radiance and lightning information synergistically, where lightning helps the CNN focus on which neighboring locations are most important. Synthetic inputs are used to quantify the sensitivity to radiance gradients, showing that sharper gradients produce a stronger response in predicted reflectivity. Finally, geostationary lightning observations are found to be uniquely valuable for their ability to pinpoint locations of strong radar echoes.
翻訳日:2022-12-12 22:23:33 公開日:2020-04-16
# boxer: 分類結果のインタラクティブ比較

Boxer: Interactive Comparison of Classifier Results ( http://arxiv.org/abs/2004.07964v1 )

ライセンス: Link先を確認
Michael Gleicher, Aditya Barve, Xinyi Yu, Florian Heimerl(参考訳) 機械学習の実践者は、異なる分類器の結果を比較して、モデルの選択、診断、チューニングを支援する。 このような比較を可能にするシステムであるBoxerを提案する。 モデル入力の共通集合に複数の分類器を適用することにより,実験結果の対話的探索を容易にする。 このアプローチは、ユーザがトレーニングとテストインスタンスの興味深いサブセットを特定し、これらのサブセットにおける分類器のパフォーマンスを比較することに焦点を当てている。 このシステムは、標準視覚設計と集合代数相互作用と比較要素を結合する。 これにより、ビューを作成してコーディネートしてサブセットを指定し、分類器のパフォーマンスを評価することができる。 これらの構成の柔軟性により、ユーザーは分類器の開発と評価の幅広いシナリオに対処できる。 我々は,モデル選択,チューニング,公平性評価,データ品質診断などのユースケースでboxerを実演する。

Machine learning practitioners often compare the results of different classifiers to help select, diagnose and tune models. We present Boxer, a system to enable such comparison. Our system facilitates interactive exploration of the experimental results obtained by applying multiple classifiers to a common set of model inputs. The approach focuses on allowing the user to identify interesting subsets of training and testing instances and comparing performance of the classifiers on these subsets. The system couples standard visual designs with set algebra interactions and comparative elements. This allows the user to compose and coordinate views to specify subsets and assess classifier performance on them. The flexibility of these compositions allow the user to address a wide range of scenarios in developing and assessing classifiers. We demonstrate Boxer in use cases including model selection, tuning, fairness assessment, and data quality diagnosis.
翻訳日:2022-12-12 22:23:01 公開日:2020-04-16
# CNNのアンサンブルによる映像顔操作検出

Video Face Manipulation Detection Through Ensemble of CNNs ( http://arxiv.org/abs/2004.07676v1 )

ライセンス: Link先を確認
Nicol\`o Bonettini, Edoardo Daniele Cannas, Sara Mandelli, Luca Bondi, Paolo Bestagini, Stefano Tubaro(参考訳) ここ数年、ビデオにおける顔操作のためのいくつかの技術が成功し、大衆(FaceSwap、Deepfakeなど)で利用できるようになった。 これらの方法では、誰でも驚くほどリアルな結果とわずかな努力で、ビデオシーケンスで簡単に顔を編集できる。 これらのツールが多くの分野で有用であるにもかかわらず、悪意を持って使用すれば、社会に著しく悪影響を及ぼす可能性がある(例えば、偽ニュース拡散、偽リベンジポルノによるサイバーいじめ)。 ビデオシーケンスで顔が操作されたかどうかを客観的に検出する能力は、最重要課題である。 本稿では,現代の顔操作技術を対象とした映像系列における顔操作検出の問題に取り組む。 特に,様々な訓練された畳み込みニューラルネットワーク(cnn)モデルのセンシングについて検討した。 提案手法では,2つの異なる概念を生かして,ベースネットワーク(すなわち efficientnetb4)から異なるモデルを得る。 (i)注意層 (ii)シャムの訓練。 これらのネットワークを組み合わせると、119000以上のビデオを含む2つの公開データセットで、顔操作検出結果が期待できることがわかった。

In the last few years, several techniques for facial manipulation in videos have been successfully developed and made available to the masses (i.e., FaceSwap, deepfake, etc.). These methods enable anyone to easily edit faces in video sequences with incredibly realistic results and a very little effort. Despite the usefulness of these tools in many fields, if used maliciously, they can have a significantly bad impact on society (e.g., fake news spreading, cyber bullying through fake revenge porn). The ability of objectively detecting whether a face has been manipulated in a video sequence is then a task of utmost importance. In this paper, we tackle the problem of face manipulation detection in video sequences targeting modern facial manipulation techniques. In particular, we study the ensembling of different trained Convolutional Neural Network (CNN) models. In the proposed solution, different models are obtained starting from a base network (i.e., EfficientNetB4) making use of two different concepts: (i) attention layers; (ii) siamese training. We show that combining these networks leads to promising face manipulation detection results on two publicly available datasets with more than 119000 videos.
翻訳日:2022-12-12 22:22:36 公開日:2020-04-16
# GAN生成画像検出におけるベンフォード法則の利用について

On the use of Benford's law to detect GAN-generated images ( http://arxiv.org/abs/2004.07682v1 )

ライセンス: Link先を確認
Nicol\`o Bonettini, Paolo Bestagini, Simone Milani, Stefano Tubaro(参考訳) generative adversarial network (gan) アーキテクチャの出現により、誰もが驚くほどリアルな合成画像を生成することができるようになった。 GAN生成画像の悪意ある拡散は、深刻な社会的・政治的結果(偽ニュース拡散、意見形成など)を引き起こす可能性がある。 したがって, 合成画像の広範分布を, 検出可能なソリューションの開発によって制御することが重要である。 本稿では,ベンフォード法則を用いて自然写真からGAN生成画像を識別する可能性について検討する。 ベンフォードの法則は、量子化された離散コサイン変換(DCT)係数の最も重要な桁の分布を記述する。 この特性を拡張して一般化することにより、画像からコンパクトな特徴ベクトルを抽出できることを示す。 この特徴ベクトルは、GAN生成画像検出目的のために非常に単純な分類器に供給することができる。

The advent of Generative Adversarial Network (GAN) architectures has given anyone the ability of generating incredibly realistic synthetic imagery. The malicious diffusion of GAN-generated images may lead to serious social and political consequences (e.g., fake news spreading, opinion formation, etc.). It is therefore important to regulate the widespread distribution of synthetic imagery by developing solutions able to detect them. In this paper, we study the possibility of using Benford's law to discriminate GAN-generated images from natural photographs. Benford's law describes the distribution of the most significant digit for quantized Discrete Cosine Transform (DCT) coefficients. Extending and generalizing this property, we show that it is possible to extract a compact feature vector from an image. This feature vector can be fed to an extremely simple classifier for GAN-generated image detection purpose.
翻訳日:2022-12-12 22:22:17 公開日:2020-04-16
# reach-sdp:半定義プログラミングによるニューラルネットワークコントローラを用いたクローズドループシステムの到達可能性解析

Reach-SDP: Reachability Analysis of Closed-Loop Systems with Neural Network Controllers via Semidefinite Programming ( http://arxiv.org/abs/2004.07876v1 )

ライセンス: Link先を確認
Haimin Hu, Mahyar Fazlyab, Manfred Morari, George J. Pappas(参考訳) ニューラルネットワークをクローズドループ制御システムで使用することで、パフォーマンスを改善し、オンライン実装の計算コストを削減することへの関心が高まっている。 しかしながら、これらのシステムに対する安全性と安定性の保証は、ニューラルネットワークの非線形構造と構成構造のために困難である。 本稿では,フィードバック相互接続におけるニューラルネットワークを用いた線形時間変化システムの安全性検証のための,新しいフォワードリーチビリティ解析手法を提案する。 我々の技術的アプローチは、二次制約により非線形活性化関数を抽象化し、閉ループ系の前方到達可能集合を近似する。 この近似到達可能集合を半定値計画を用いて計算できることを示す。 本手法は,まず深層ニューラルネットワークを用いて非線形モデル予測制御器を近似し,有限時間到達可能性と閉ループシステムの制約満足度を検証するために解析ツールを適用した。

There has been an increasing interest in using neural networks in closed-loop control systems to improve performance and reduce computational costs for on-line implementation. However, providing safety and stability guarantees for these systems is challenging due to the nonlinear and compositional structure of neural networks. In this paper, we propose a novel forward reachability analysis method for the safety verification of linear time-varying systems with neural networks in feedback interconnection. Our technical approach relies on abstracting the nonlinear activation functions by quadratic constraints, which leads to an outer-approximation of forward reachable sets of the closed-loop system. We show that we can compute these approximate reachable sets using semidefinite programming. We illustrate our method in a quadrotor example, in which we first approximate a nonlinear model predictive controller via a deep neural network and then apply our analysis tool to certify finite-time reachability and constraint satisfaction of the closed-loop system.
翻訳日:2022-12-12 22:20:54 公開日:2020-04-16
# 水/脂肪分離のためのディープニューラルネットワーク(DNN: Supervised Training, Unsupervised Training, No Training)

Deep Neural Network (DNN) for Water/Fat Separation: Supervised Training, Unsupervised Training, and No Training ( http://arxiv.org/abs/2004.07923v1 )

ライセンス: Link先を確認
R. Jafari, P. Spincemaille, J. Zhang, T. D. Nguyen, M. R. Prince, X. Luo, J. Cho, D. Margolis, Y. Wang(参考訳) 目的:水/脂肪分離の最適化問題を解決するためにディープニューラルネットワーク(DNN)を用い,教師なしトレーニングと教師なしトレーニングを比較する。 方法: 脂肪/水の分離を解決する現在のt2*-idealアルゴリズムは初期化に依存する。 近年, 適切な初期化を必要とせずに脂肪/水分離を解決するディープニューラルネットワーク(dnn)が提案されている。 しかし, 本手法では, 基準脂肪/水分離画像を用いたDNN(STD)の教師あり訓練が必要である。 ここでは2つの新しいDNN水/脂肪分離法を提案する。 1)訓練中の費用関数として物理前方問題を用いたDNN(UTD)の教師なし訓練 2) 物理コストとバックプロパゲーションを用いたDNN(NTD)のトレーニングを行わず, 単一データセットを直接再構築する。 STD法,UTD法,NTD法をT2*-IDEAL法と比較した。 結果: すべてのDNN法は, 適切な初期化条件下でT2*-IDEALとよく一致した水/脂肪分離結果を生成する。 結論: 教師なし深層ニューラルネットワークを用いて水・脂肪分離問題を解くことができる。

Purpose: To use a deep neural network (DNN) for solving the optimization problem of water/fat separation and to compare supervised and unsupervised training. Methods: The current T2*-IDEAL algorithm for solving fat/water separation is dependent on initialization. Recently, deep neural networks (DNN) have been proposed to solve fat/water separation without the need for suitable initialization. However, this approach requires supervised training of DNN (STD) using the reference fat/water separation images. Here we propose two novel DNN water/fat separation methods 1) unsupervised training of DNN (UTD) using the physical forward problem as the cost function during training, and 2) no-training of DNN (NTD) using physical cost and backpropagation to directly reconstruct a single dataset. The STD, UTD and NTD methods were compared with the reference T2*-IDEAL. Results: All DNN methods generated consistent water/fat separation results that agreed well with T2*-IDEAL under proper initialization. Conclusion: The water/fat separation problem can be solved using unsupervised deep neural networks.
翻訳日:2022-12-12 22:14:57 公開日:2020-04-16
# 複雑性、データ、モデルに関するランダムな考え

Random thoughts about Complexity, Data and Models ( http://arxiv.org/abs/2005.04729v1 )

ライセンス: Link先を確認
Hykel Hosni and Angelo Vulpiani(参考訳) データサイエンスと機械学習は、過去10年間強く成長してきた。 このエキサイティングな分野を最大限に活用するには、予測を力強いデータ分析に還元できるという誘惑に抵抗すべきだ、と私たちは主張している。 これは、以下に示すようにモデリングには関連する変数を選択する技術を習得する必要があるという事実に起因しています。 より具体的には、アルゴリズムの複雑さが果たす役割に注目して「データとモデル」間の微妙な関係を考察し、経験的現象を理解するための数学的に厳密な考え方は、データ自身よりも「シンプル」な用語でデータを生成する規則を記述することに貢献した。 アルゴリズム複雑性とアルゴリズム学習の関係性を評価する上で重要な課題は、圧縮性、決定性、予測可能性に関する、非常に必要不可欠な概念を明確にすることである。 この目的のために、カオス系の進化法則は圧縮可能であるが、それに対する一般的な初期条件はそうではないことを述べ、カオス系によって生成される時系列は一般には圧縮不可能である。 したがって、経験的現象を支配する規則の知識は、その結果を予測するには不十分である。 逆にこれは、データのみから学ぶことよりも、現象を理解することの方が重要であることを意味します。 これは、“優れたモデリング”が可能な場合にのみ実現できます。 明らかに、アルゴリズムの複雑さの考え方はチューリングの計算の素解析に依拠している。 このことは、類推に基づく抽象モデリングの極めて顕著な例について、我々の発言を動機付けている。

Data Science and Machine learning have been growing strong for the past decade. We argue that to make the most of this exciting field we should resist the temptation of assuming that forecasting can be reduced to brute-force data analytics. This owes to the fact that modelling, as we illustrate below, requires mastering the art of selecting relevant variables. More specifically, we investigate the subtle relation between "data and models" by focussing on the role played by algorithmic complexity, which contributed to making mathematically rigorous the long-standing idea that to understand empirical phenomena is to describe the rules which generate the data in terms which are "simpler" than the data itself. A key issue for the appraisal of the relation between algorithmic complexity and algorithmic learning is to do with a much needed clarification on the related but distinct concepts of compressibility, determinism and predictability. To this end we will illustrate that the evolution law of a chaotic system is compressibile, but a generic initial condition for it is not, making the time series generated by chaotic systems incompressible in general. Hence knowledge of the rules which govern an empirical phenomenon are not sufficient for predicting its outcomes. In turn this implies that there is more to understanding phenomena than learning -- even from data alone -- such rules. This can be achieved only in those cases when we are capable of "good modelling". Clearly, the very idea of algorithmic complexity rests on Turing's seminal analysis of computation. This motivates our remarks on this extremely telling example of analogy-based abstract modelling which is nonetheless heavily informed by empirical facts.
翻訳日:2022-12-12 22:13:46 公開日:2020-04-16
# ガウス過程学習に基づく確率的最適潮流

Gaussian Process Learning-based Probabilistic Optimal Power Flow ( http://arxiv.org/abs/2004.07757v1 )

ライセンス: Link先を確認
Parikshit Pareek and Hung D. Nguyen(参考訳) 本稿では, POPF を再生可能かつ負荷不確実な任意の分布下で解くためのガウスプロセス学習に基づく確率的最適潮流(GP-POPF)を提案する。 提案手法はガウス過程 (GP) と呼ばれる非パラメトリックベイズ推論に基づく不確実性伝播手法に依存する。 また,GP-POPFハイパーパラメータの解釈可能性の観察から,サブスペースワイド感度と呼ばれる新しい感度の指標を提案する。 14-busおよび30-busシステムを用いたシミュレーションの結果,本手法は,不確かさと負荷の不確実さのレベルが異なるモンテカルロシミュレーション (mcs) ソリューションと比較して,より少ないサンプル数と経過時間を必要とする場合に,合理的に正確な解が得られることがわかった。

In this letter, we present a novel Gaussian Process Learning-based Probabilistic Optimal Power Flow (GP-POPF) for solving POPF under renewable and load uncertainties of arbitrary distribution. The proposed method relies on a non-parametric Bayesian inference-based uncertainty propagation approach, called Gaussian Process (GP). We also suggest a new type of sensitivity called Subspace-wise Sensitivity, using observations on the interpretability of GP-POPF hyperparameters. The simulation results on 14-bus and 30-bus systems show that the proposed method provides reasonably accurate solutions when compared with Monte-Carlo Simulations (MCS) solutions at different levels of uncertain renewable penetration as well as load uncertainties, while requiring much less number of samples and elapsed time.
翻訳日:2022-12-12 22:13:09 公開日:2020-04-16
# マトロイド制約下での行列式最大化

Maximizing Determinants under Matroid Constraints ( http://arxiv.org/abs/2004.07886v1 )

ライセンス: Link先を確認
Vivek Madan, Aleksandar Nikolov, Mohit Singh, Uthaipon Tantipongpipat(参考訳) 与えられたベクトル $v_1,\dots,v_n\in\mathbb{r}^d$ とマトロイド $m=([n],i)$ が与えられたとき、$\det(\sum_{i \in s}v_i v_i^\top)$ が最大化される基底 $m$ を求める問題を調べる。 この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。 現在の最良の結果には、ランク $k$の任意のマトロイドに対する$e^{2k}$-推定と、ランク $k\ge d+\frac d\epsilon$の統一マトロイドに対する$(1+\epsilon)^d$近似が含まれる。 我々の主な結果は、ベクトルの次元$d$にのみ依存し、出力集合のサイズ$k$には依存しない近似を保証する新しい近似アルゴリズムである。 特に、任意のマトロイドに対して$(O(d))^{d}$-estimationと$(O(d))^{d^3}$-approximationを示す。 我々の結果は、疎サポートを持つ問題に対する凸プログラミング緩和に対する最適解の存在に依存し、特に、解の$O(d^2)$変数は分数値を持つ。 スパーシリティの結果は、凸プログラムの1階最適条件とマトロイド理論の間の相互作用に依存する。 凸プログラムに対する最適解のスパース性を示すために導入された技法は、独立した関心を持つだろうと信じている。 また、元の問題に対する実現可能な積分解に対してスパース分数解を丸めるランダム化アルゴリズムを与える。 近似保証を示すために, 強対数凸多項式に関する最近の研究を利用して, 異なる凸プログラム間の新たな関係を示す。 最後に、推定アルゴリズムとスパーシティ結果を用いて、次元$d$のみに依存する近似保証付き効率的な決定論的近似アルゴリズムを提供する。

Given vectors $v_1,\dots,v_n\in\mathbb{R}^d$ and a matroid $M=([n],I)$, we study the problem of finding a basis $S$ of $M$ such that $\det(\sum_{i \in S}v_i v_i^\top)$ is maximized. This problem appears in a diverse set of areas such as experimental design, fair allocation of goods, network design, and machine learning. The current best results include an $e^{2k}$-estimation for any matroid of rank $k$ and a $(1+\epsilon)^d$-approximation for a uniform matroid of rank $k\ge d+\frac d\epsilon$, where the rank $k\ge d$ denotes the desired size of the optimal set. Our main result is a new approximation algorithm with an approximation guarantee that depends only on the dimension $d$ of the vectors and not on the size $k$ of the output set. In particular, we show an $(O(d))^{d}$-estimation and an $(O(d))^{d^3}$-approximation for any matroid, giving a significant improvement over prior work when $k\gg d$. Our result relies on the existence of an optimal solution to a convex programming relaxation for the problem which has sparse support; in particular, no more than $O(d^2)$ variables of the solution have fractional values. The sparsity results rely on the interplay between the first-order optimality conditions for the convex program and matroid theory. We believe that the techniques introduced to show sparsity of optimal solutions to convex programs will be of independent interest. We also give a randomized algorithm that rounds a sparse fractional solution to a feasible integral solution to the original problem. To show the approximation guarantee, we utilize recent works on strongly log-concave polynomials and show new relationships between different convex programs studied for the problem. Finally, we use the estimation algorithm and sparsity results to give an efficient deterministic approximation algorithm with an approximation guarantee that depends solely on the dimension $d$.
翻訳日:2022-12-12 22:12:52 公開日:2020-04-16
# 完全分散データセット上の微分プライベート線形回帰

Differentially Private Linear Regression over Fully Decentralized Datasets ( http://arxiv.org/abs/2004.07425v1 )

ライセンス: Link先を確認
Yang Liu, Xiong Zhang, Shuqi Qin, and Xiaoping Lei(参考訳) 本稿では,線形回帰学習を分散的に行うための微分プライベートアルゴリズムを提案する。 このアルゴリズムでは、プライバシーの予算は理論的に導出され、解の誤差は$O(t)$$$O(1/t)$降下ステップサイズと$O(\exp(t^{1-e})$$$$$O(t^{-e})$降下ステップサイズによって制限される。

This paper presents a differentially private algorithm for linear regression learning in a decentralized fashion. Under this algorithm, privacy budget is theoretically derived, in addition to that the solution error is shown to be bounded by $O(t)$ for $O(1/t)$ descent step size and $O(\exp(t^{1-e}))$ for $O(t^{-e})$ descent step size.
翻訳日:2022-12-12 22:12:08 公開日:2020-04-16
# 複雑なnlpとコンテンツキュレーションパイプラインのためのワークフローマネージャ

A Workflow Manager for Complex NLP and Content Curation Pipelines ( http://arxiv.org/abs/2004.14130v1 )

ライセンス: Link先を確認
Juli\'an Moreno-Schneider, Peter Bourgonje, Florian Kintzel, Georg Rehm(参考訳) NLP処理パイプラインの柔軟な作成とカスタマイズのためのワークフローマネージャを提案する。 workflow managerはさまざまなnlpタスクとハードウェアベースのリソース使用における相互運用性の課題に対処する。 汎用性、柔軟性、スケーラビリティ、効率性の4つの重要な原則に基づいて、我々はワークフローマネージャの最初のバージョンを、そのカスタム定義言語の詳細を提供し、コミュニケーションコンポーネントと一般的なシステムアーキテクチャとセットアップを説明する。 我々は現在,いくつかのイノベーション・トランスファープロジェクトにおいて,実業界でのユースケースを基盤とし,モチベーションの高いシステムを実装している。

We present a workflow manager for the flexible creation and customisation of NLP processing pipelines. The workflow manager addresses challenges in interoperability across various different NLP tasks and hardware-based resource usage. Based on the four key principles of generality, flexibility, scalability and efficiency, we present the first version of the workflow manager by providing details on its custom definition language, explaining the communication components and the general system architecture and setup. We currently implement the system, which is grounded and motivated by real-world industry use cases in several innovation and transfer projects.
翻訳日:2022-12-12 22:05:53 公開日:2020-04-16
# 自動車の認知的インターネット(ciov)に基づく道路品質分析

Road Quality Analysis Based on Cognitive Internet of Vehicles (CIoV) ( http://arxiv.org/abs/2004.09287v1 )

ライセンス: Link先を確認
Hamed Rahimi and Dhayananth Dharmalingam(参考訳) 本研究は、新しい技術であるcognitive internet of vehicles (ciov) に基づいて、道路品質の分析に認知的手法を用いることを目的としている。 自動運転車の収集データに対応するビッグデータを利用することで、大量の輸送データに認知分析を適用することができる。 このプロセスは、膨大な量の無意味データから道路品質などの貴重な情報を作成するのに役立つ。 この提案では、様々なビジネスや商業目的の道路の品質に焦点をあてます。 提案するシステムは、自動運転車企業の追加サービスや、通常使用のためのモバイルアプリケーションとして使用できる。 結果として、このシステムは自動運転車のエネルギー消費などの資源の使用を減らすことができる。 さらにこの技術は、次世代の自動運転アプリケーションによりqosを改善する。

This research proposal aims to use cognitive methods to analyze the quality of roads based on the new proposed technology called Cognitive Internet of Vehicles (CIoV). By using Big Data corresponding to the collected data of autonomous vehicles, we can apply cognitive analytics to a huge amount of transportation data. This process can help us to create valuable information such as road quality from an immense volume of meaningless data. In this proposal, we are going to focus on the quality of roads for various business and commercial purposes. The proposed system can be used as an additional service of autonomous car companies or as a mobile application for ordinary usages. As a result, this system can reduce the usage of resources such as energy consumption of autonomous vehicles. Moreover, this technology benefits the next-generation of self-driving applications to improve their QoS.
翻訳日:2022-12-12 22:05:42 公開日:2020-04-16
# サッカー場でのリアルタイム選手検出のためのマルチモーダル・マルチビュー蒸留

Multimodal and multiview distillation for real-time player detection on a football field ( http://arxiv.org/abs/2004.07544v1 )

ライセンス: Link先を確認
Anthony Cioppa, Adrien Deli\`ege, Noor Ul Huda, Rikke Gade, Marc Van Droogenbroeck, Thomas B. Moeslund(参考訳) 公共スポーツ施設の占有状況のモニタリングは、その利用を評価し、新しい場所での建設を動機付けるために不可欠である。 サッカー場の場合、カバーするエリアは大きいため、いくつかの通常のカメラを使用する必要があるため、セットアップは高価で複雑である。 その代替として,1つの狭角サーマルカメラを用いて,安価で広角の魚眼カメラからプレイヤーを検出するシステムを開発した。 本研究では,学生と教師が異なるモダリティを持ち,同じ場面の異なる視点を持つ知識蒸留アプローチでネットワークを訓練する。 特に,サーマルカメラでカバーされていない魚眼カメラの領域でのトレーニングを処理するために,モーション検出アルゴリズムと組み合わせたカスタムデータ拡張の設計を行う。 本手法は,魚眼カメラで撮影されたフィールド全体のプレイヤー検出に有効であることを示す。 オンライン蒸留において,生徒が最新の映像環境に継続的に適応しながらリアルタイムでプレイヤーを検出する場合,定量的・質的に評価する。

Monitoring the occupancy of public sports facilities is essential to assess their use and to motivate their construction in new places. In the case of a football field, the area to cover is large, thus several regular cameras should be used, which makes the setup expensive and complex. As an alternative, we developed a system that detects players from a unique cheap and wide-angle fisheye camera assisted by a single narrow-angle thermal camera. In this work, we train a network in a knowledge distillation approach in which the student and the teacher have different modalities and a different view of the same scene. In particular, we design a custom data augmentation combined with a motion detection algorithm to handle the training in the region of the fisheye camera not covered by the thermal one. We show that our solution is effective in detecting players on the whole field filmed by the fisheye camera. We evaluate it quantitatively and qualitatively in the case of an online distillation, where the student detects players in real time while being continuously adapted to the latest video conditions.
翻訳日:2022-12-12 22:03:38 公開日:2020-04-16
# 多焦点複眼カメラのブラーアウェア校正

Blur Aware Calibration of Multi-Focus Plenoptic Camera ( http://arxiv.org/abs/2004.07745v1 )

ライセンス: Link先を確認
Mathieu Labussi\`ere, C\'eline Teuli\`ere, Fr\'ed\'eric Bernardin, Omar Ait-Aider(参考訳) 本稿では,MFPC(Multi-Focus Plenoptic Cameras)の原画像のみを用いたキャリブレーションアルゴリズムを提案する。 このようなカメラの設計は通常複雑で、光学素子の正確な配置に依存している。 カメラパラメータの取得にはいくつかのキャリブレーション手順が提案されているが、単純化されたモデル、特徴抽出のための再構成画像、複数種類のマイクロレンズを使用する場合の複数のキャリブレーションに頼っている。 ぼやけた情報を考慮して,Blur Aware Plenoptic (BAP) 機能を提案する。 第一に、初期カメラパラメータを抽出する事前校正ステップで利用し、第二に、我々の単一最適化プロセスのための新しいコスト関数を表現する。 キャリブレーション法の有効性を定量的および定性的実験により検証した。

This paper presents a novel calibration algorithm for Multi-Focus Plenoptic Cameras (MFPCs) using raw images only. The design of such cameras is usually complex and relies on precise placement of optic elements. Several calibration procedures have been proposed to retrieve the camera parameters but relying on simplified models, reconstructed images to extract features, or multiple calibrations when several types of micro-lens are used. Considering blur information, we propose a new Blur Aware Plenoptic (BAP) feature. It is first exploited in a pre-calibration step that retrieves initial camera parameters, and secondly to express a new cost function for our single optimization process. The effectiveness of our calibration method is validated by quantitative and qualitative experiments.
翻訳日:2022-12-12 22:03:23 公開日:2020-04-16
# Gaze-Net:カプセルネットワークを用いた外観に基づく視線推定

Gaze-Net: Appearance-Based Gaze Estimation using Capsule Networks ( http://arxiv.org/abs/2004.07777v1 )

ライセンス: Link先を確認
Bhanuka Mahanama, Yasith Jayawardana and Sampath Jayarathna(参考訳) 外観に基づく視線推定の最近の研究は、ポーズ情報を含む顔画像から視線情報をデコードするニューラルネットワークの能力を示している。 本稿では,眼領域画像から視線情報をデコードし,表現し,推定できるカプセルネットワークである gaze-net を提案する。 提案システムは,MPIIGaze(野生で20万枚以上の画像)とColumbia Gaze(5つのカメラ角度/位置で21の視線方向を持つユーザの5000枚以上の画像)の2つの公開データセットを用いて評価した。 本モデルでは,mpi-igazeデータセットのデータセット内で平均絶対誤差(mae)を2.84$^\circ$で推定する。 さらに、10.04$^\circ$でデータセットの視線推定誤差をコロンビアの視線データに対して達成する。 転送学習により、誤差は5.9$^\circ$に低減される。 その結果,コモディティウェブカメラによる低コストマルチユーザー視線追跡システムの開発が期待できることがわかった。

Recent studies on appearance based gaze estimation indicate the ability of Neural Networks to decode gaze information from facial images encompassing pose information. In this paper, we propose Gaze-Net: A capsule network capable of decoding, representing, and estimating gaze information from ocular region images. We evaluate our proposed system using two publicly available datasets, MPIIGaze (200,000+ images in the wild) and Columbia Gaze (5000+ images of users with 21 gaze directions observed at 5 camera angles/positions). Our model achieves a Mean Absolute Error (MAE) of 2.84$^\circ$ for Combined angle error estimate within dataset for MPI-IGaze dataset. Further, model achieves a MAE of 10.04$^\circ$ for across dataset gaze estimation error for Columbia gaze dataset. Through transfer learning, the error is reduced to 5.9$^\circ$. The results show this approach is promising with implications towards using commodity webcams to develop low-cost multi-user gaze tracking systems.
翻訳日:2022-12-12 22:03:11 公開日:2020-04-16
# SCOUT: 自己認識型差別的対実的説明

SCOUT: Self-aware Discriminant Counterfactual Explanations ( http://arxiv.org/abs/2004.07769v1 )

ライセンス: Link先を確認
Pei Wang, Nuno Vasconcelos(参考訳) 対物的な視覚的な説明の問題は考慮される。 新しい差別的な説明の族が紹介される。 これらのヒートマップは、分類器の予測を知らせるがカウンタクラスではない画像領域に高得点を付与する。 彼らは一つの熱マップに基づく帰属的な説明を、予測されたクラスとカウンタークラスの両方を説明する反実的な説明に結びつける。 後者は2つの区別された説明と逆クラス対の組み合わせで計算可能である。 自己認識、すなわち分類信頼度スコアを生成する能力は、予測とカウンタークラスの区別が容易な領域を識別しようとする差別的説明の計算において重要であると論じている。 これは、3つの帰属写像の組み合わせによる差別的説明の計算を示唆する。 結果として生じる反事実的説明は最適化の自由であり、従って以前の方法よりもはるかに高速である。 評価の難しさに対処するために,プロキシタスクと定量的指標のセットも提案されている。 このプロトコルによる実験により、提案手法は、一般的なネットワークにおいて、より高速な動作を実現しつつ、技術状況よりも優れていることが示された。 また,人間学習機械による学習実験では,平均学生の精度を確率レベルから95%に向上させた。

The problem of counterfactual visual explanations is considered. A new family of discriminant explanations is introduced. These produce heatmaps that attribute high scores to image regions informative of a classifier prediction but not of a counter class. They connect attributive explanations, which are based on a single heat map, to counterfactual explanations, which account for both predicted class and counter class. The latter are shown to be computable by combination of two discriminant explanations, with reversed class pairs. It is argued that self-awareness, namely the ability to produce classification confidence scores, is important for the computation of discriminant explanations, which seek to identify regions where it is easy to discriminate between prediction and counter class. This suggests the computation of discriminant explanations by the combination of three attribution maps. The resulting counterfactual explanations are optimization free and thus much faster than previous methods. To address the difficulty of their evaluation, a proxy task and set of quantitative metrics are also proposed. Experiments under this protocol show that the proposed counterfactual explanations outperform the state of the art while achieving much higher speeds, for popular networks. In a human-learning machine teaching experiment, they are also shown to improve mean student accuracy from chance level to 95\%.
翻訳日:2022-12-12 21:56:22 公開日:2020-04-16
# シームズトラックRCNNによる多対象追跡

Multi-Object Tracking with Siamese Track-RCNN ( http://arxiv.org/abs/2004.07786v1 )

ライセンス: Link先を確認
Bing Shuai, Andrew G. Berneshawi, Davide Modolo, Joseph Tighe(参考訳) マルチオブジェクト追跡システムは、しばしば検出器、短期リンカ、再識別特徴抽出器、およびこれらの分離されたコンポーネントから出力を取得し、最終的な予測を行うソルバの組み合わせから構成される。 この作業は、これらすべてを単一のトラッキングシステムに統合することを目的としている。 本研究では,(1)検出ブランチがオブジェクトインスタンスをローカライズする,(2)シアームベースのトラックブランチがオブジェクトの動きを推定する,(3)オブジェクト再識別ブランチが以前停止したトラックを再活性化する,という3つの機能的ブランチからなる2段階検出・追跡フレームワークであるsiamese track-rcnnを提案する。 我々はmotchallengeの2つの人気のあるデータセットで追跡システムをテストする。 siamese track-rcnnは最新技術よりもかなり高い性能を発揮するが、統一設計のおかげではるかに効率的である。

Multi-object tracking systems often consist of a combination of a detector, a short term linker, a re-identification feature extractor and a solver that takes the output from these separate components and makes a final prediction. Differently, this work aims to unify all these in a single tracking system. Towards this, we propose Siamese Track-RCNN, a two stage detect-and-track framework which consists of three functional branches: (1) the detection branch localizes object instances; (2) the Siamese-based track branch estimates the object motion and (3) the object re-identification branch re-activates the previously terminated tracks when they re-emerge. We test our tracking system on two popular datasets of the MOTChallenge. Siamese Track-RCNN achieves significantly higher results than the state-of-the-art, while also being much more efficient, thanks to its unified design.
翻訳日:2022-12-12 21:56:00 公開日:2020-04-16
# RGBD-Dog:RGBDセンサーからイヌのポスを予測

RGBD-Dog: Predicting Canine Pose from RGBD Sensors ( http://arxiv.org/abs/2004.07788v1 )

ライセンス: Link先を確認
Sinead Kearney, Wenbin Li, Martin Parsons, Kwang In Kim, Darren Cosker(参考訳) マーカーのない画像から動物 \reb{3D} の自動抽出は、様々な科学分野に関心がある。 現在までのほとんどの研究は、関節位置の2Dラベル付けに基づいて、RGB画像から動物のポーズを予測する。 しかし, トレーニングデータを得るのが難しいため, これらの手法を定量的に評価するには, 3次元動物運動の真実データセットは使用できない。 さらに,3次元動物のポーズデータが欠如していることから,身長予測の一般的な分野と同様の3次元ポーズ予測法を訓練することが困難になる。 本研究は,RGBD画像から3次元犬のポーズ推定の問題に着目し,複数のMicrosoft Kinect v2で様々な種類の犬種を記録し,同時にモーションキャプチャシステムを用いて3次元地上真実骨格を得る。 このデータから合成rgbd画像のデータセットを生成する。 積み重ねられた砂時計ネットワークは、3dジョイントの位置を予測するように訓練され、以前の形状とポーズのモデルを使って制約される。 合成RGBD画像と実RGBD画像の両方でモデルを評価し,犬歯モデルと画像との適合性について検討した。 最後に、私たちのトレーニングセットは犬データのみで構成されているが、視覚検査は、トレーニングセットに含まれるものに似たポーズの場合、我々のネットワークが他の四足動物(例えば馬や猫)の画像に対して良い予測をすることができることを意味している。

The automatic extraction of animal \reb{3D} pose from images without markers is of interest in a range of scientific fields. Most work to date predicts animal pose from RGB images, based on 2D labelling of joint positions. However, due to the difficult nature of obtaining training data, no ground truth dataset of 3D animal motion is available to quantitatively evaluate these approaches. In addition, a lack of 3D animal pose data also makes it difficult to train 3D pose-prediction methods in a similar manner to the popular field of body-pose prediction. In our work, we focus on the problem of 3D canine pose estimation from RGBD images, recording a diverse range of dog breeds with several Microsoft Kinect v2s, simultaneously obtaining the 3D ground truth skeleton via a motion capture system. We generate a dataset of synthetic RGBD images from this data. A stacked hourglass network is trained to predict 3D joint locations, which is then constrained using prior models of shape and pose. We evaluate our model on both synthetic and real RGBD images and compare our results to previously published work fitting canine models to images. Finally, despite our training set consisting only of dog data, visual inspection implies that our network can produce good predictions for images of other quadrupeds -- e.g. horses or cats -- when their pose is similar to that contained in our training set.
翻訳日:2022-12-12 21:55:43 公開日:2020-04-16
# 問合せ文からの映像検索のためのマルチビジュアル・セマンティクス埋め込み

Multiple Visual-Semantic Embedding for Video Retrieval from Query Sentence ( http://arxiv.org/abs/2004.07967v1 )

ライセンス: Link先を確認
Huy Manh Nguyen, Tomo Miyazaki, Yoshihiro Sugaya, Shinichiro Omachi(参考訳) ビジュアル・セマンティック・埋め込みは、関連ビデオと文のインスタンスが互いに近接している共同埋め込み空間を学習することを目的としている。 ほとんどの既存メソッドは、インスタンスを単一の埋め込み空間に配置する。 しかし、ビデオの視覚的なダイナミクスと文章のテキスト的特徴とのマッチングが難しいため、インスタンスの埋め込みに苦労している。 ひとつのスペースだけでは、さまざまなビデオや文に対応できない。 本稿では,インスタンスを複数の個別埋め込み空間にマッピングすることで,複数のインスタンス間の関係をキャプチャし,魅力的なビデオ検索を実現する新しいフレームワークを提案する。 重み付き和戦略を用いて各埋め込み空間で測定された類似性を用いてインスタンス間の最終類似性を生成する。 文によって重みを決定する。 したがって、埋め込み空間を柔軟に強調することができる。 ベンチマークデータセット上で文間検索実験を行った。 提案手法は高い性能を達成し,その結果は最先端の手法と競合する。 これらの実験結果は,既存手法と比較して,提案手法の有効性を示した。

Visual-semantic embedding aims to learn a joint embedding space where related video and sentence instances are located close to each other. Most existing methods put instances in a single embedding space. However, they struggle to embed instances due to the difficulty of matching visual dynamics in videos to textual features in sentences. A single space is not enough to accommodate various videos and sentences. In this paper, we propose a novel framework that maps instances into multiple individual embedding spaces so that we can capture multiple relationships between instances, leading to compelling video retrieval. We propose to produce a final similarity between instances by fusing similarities measured in each embedding space using a weighted sum strategy. We determine the weights according to a sentence. Therefore, we can flexibly emphasize an embedding space. We conducted sentence-to-video retrieval experiments on a benchmark dataset. The proposed method achieved superior performance, and the results are competitive to state-of-the-art methods. These experimental results demonstrated the effectiveness of the proposed multiple embedding approach compared to existing methods.
翻訳日:2022-12-12 21:55:04 公開日:2020-04-16
# 半教師型医用画像分割のための汎用アンサンブルに基づく深部畳み込みニューラルネットワーク

A generic ensemble based deep convolutional neural network for semi-supervised medical image segmentation ( http://arxiv.org/abs/2004.07995v1 )

ライセンス: Link先を確認
Ruizhe Li, Dorothee Auer, Christian Wagner, Xin Chen(参考訳) 深層学習に基づくイメージセグメンテーションは、病変の定量化や臓器検出など、多くの医学応用において最先端のパフォーマンスを達成した。 しかし、ほとんどの手法は教師あり学習に依存しており、大量の高品質なラベル付きデータを必要とする。 データアノテーションは一般的に非常に時間を要するプロセスです。 そこで本研究では,深層畳み込みニューラルネットワーク(dcnn)に基づく画像分割のための半教師付き学習フレームワークを提案する。 エンコーダ-デコーダベースのDCNNは、最初は注釈付きトレーニングサンプルを使用してトレーニングされる。 この初期トレーニングされたモデルはサブモデルにコピーされ、前回のイテレーションでトレーニングされたモデルから生成された擬似ラベルを含むラベルなしデータのランダムサブセットを使用して反復的に改善される。 サブモデルの数は、最終イテレーションで徐々に1つに減らされる。 皮膚病変分類のためのパブリックグランドシャレンジデータセットを用いて提案手法の評価を行った。 本手法はラベルなしデータを用いることで,教師なしモデル学習よりも大幅に改善することができる。

Deep learning based image segmentation has achieved the state-of-the-art performance in many medical applications such as lesion quantification, organ detection, etc. However, most of the methods rely on supervised learning, which require a large set of high-quality labeled data. Data annotation is generally an extremely time-consuming process. To address this problem, we propose a generic semi-supervised learning framework for image segmentation based on a deep convolutional neural network (DCNN). An encoder-decoder based DCNN is initially trained using a few annotated training samples. This initially trained model is then copied into sub-models and improved iteratively using random subsets of unlabeled data with pseudo labels generated from models trained in the previous iteration. The number of sub-models is gradually decreased to one in the final iteration. We evaluate the proposed method on a public grand-challenge dataset for skin lesion segmentation. Our method is able to significantly improve beyond fully supervised model learning by incorporating unlabeled data.
翻訳日:2022-12-12 21:54:50 公開日:2020-04-16
# 近代社会ネットワークにおけるグルーミングの大規模分析

Large-scale analysis of grooming in modern social networks ( http://arxiv.org/abs/2004.08205v1 )

ライセンス: Link先を確認
Nikolaos Lykousas, Constantinos Patsakis(参考訳) ソーシャルネットワークは、より多くの機能を提供することによって、ユーザーをもっと巻き込むように進化している。 最も注目を集めているのがストリーミングだ。 ユーザーは毎日の生活の一部を世界中に配信し、リアルタイムで交流することができる。 残念なことに、この機能はグルーミングに利用されている。 本研究では,ソーシャルライブストリーミングサービスにおけるこの問題の詳細な分析を行う。 より正確には、私たちが収集したデータセットを使用して、調査中のサービスであるlivemeのモデレーションメカニズムをバイパスしたチャットの捕食行動やグルーミングを特定します。 従来のテキストアプローチ以外にも,この文脈における絵文字の関連性や,LiveMeのギフトメカニズムによるユーザインタラクションについても検討する。 最後に,未成年者に対するグルーミングの可能性を示し,そのようなプラットフォームにおける問題の程度を示す。

Social networks are evolving to engage their users more by providing them with more functionalities. One of the most attracting ones is streaming. Users may broadcast part of their daily lives to thousands of others world-wide and interact with them in real-time. Unfortunately, this feature is reportedly exploited for grooming. In this work, we provide the first in-depth analysis of this problem for social live streaming services. More precisely, using a dataset that we collected, we identify predatory behaviours and grooming on chats that bypassed the moderation mechanisms of the LiveMe, the service under investigation. Beyond the traditional text approaches, we also investigate the relevance of emojis in this context, as well as the user interactions through the gift mechanisms of LiveMe. Finally, our analysis indicates the possibility of grooming towards minors, showing the extent of the problem in such platforms.
翻訳日:2022-12-12 21:53:56 公開日:2020-04-16
# 行動検出のための非同期インタラクションアグリゲーション

Asynchronous Interaction Aggregation for Action Detection ( http://arxiv.org/abs/2004.07485v1 )

ライセンス: Link先を確認
Jiajun Tang, Jin Xia, Xinzhi Mu, Bo Pang, Cewu Lu(参考訳) インタラクションを理解することは、ビデオアクション検出の重要な部分である。 本稿では,異なるインタラクションを活用して動作検出を促進する非同期インタラクション集約ネットワーク(AIA)を提案する。 一つは相互作用集約構造 (IA) で、一つは複数の相互作用をモデル化し統合するための一様パラダイムを採用し、もう一つは非同期メモリ更新アルゴリズム (AMU) で、大きな計算コストを伴わずに、非常に長期の相互作用を動的にモデル化することで、より良いパフォーマンスを実現する。 ネットワークが統合的相互作用から顕著な精度を得ることができ、エンドツーエンドのトレーニングが容易であることを示す実証的な証拠を提供する。 提案手法では,AVAデータセット上での新たな最先端性能を報告し,高いベースラインと比較した場合の検証分割で3.7mAP(相対改善率12.6%)を得た。 UCF101-24とEPIC-Kitchensのデータセットの結果は、我々のアプローチの有効性をさらに示している。 ソースコードは、https://github.com/MVIG-SJTU/AlphAction で公開されます。

Understanding interaction is an essential part of video action detection. We propose the Asynchronous Interaction Aggregation network (AIA) that leverages different interactions to boost action detection. There are two key designs in it: one is the Interaction Aggregation structure (IA) adopting a uniform paradigm to model and integrate multiple types of interaction; the other is the Asynchronous Memory Update algorithm (AMU) that enables us to achieve better performance by modeling very long-term interaction dynamically without huge computation cost. We provide empirical evidence to show that our network can gain notable accuracy from the integrative interactions and is easy to train end-to-end. Our method reports the new state-of-the-art performance on AVA dataset, with 3.7 mAP gain (12.6% relative improvement) on validation split comparing to our strong baseline. The results on dataset UCF101-24 and EPIC-Kitchens further illustrate the effectiveness of our approach. Source code will be made public at: https://github.com/MVIG-SJTU/AlphAction .
翻訳日:2022-12-12 21:48:27 公開日:2020-04-16
# 指静脈認識のための生理特性を持つ局所記述子

A Local Descriptor with Physiological Characteristic for Finger Vein Recognition ( http://arxiv.org/abs/2004.07489v1 )

ライセンス: Link先を確認
Liping Zhang, Weijun Li, Xin Ning(参考訳) 局所特徴ディスクリプタは,局所的な画像変化に対する安定性とロバスト性により,指静脈認識に優れる。 しかし、これらの多くは指静脈特異な特徴を考慮しない汎用記述子を用いている。 そこで本研究では,指静脈パターンの生理的特徴,すなわち,指静脈認識のための向き付けgabor応答のヒストグラム(hopgr)に基づく指静脈特異的局所特徴記述子を提案する。 まず、指静脈パターンの方向特性に先立って教師なしの方法で取得する。 そして、先行情報に基づいて生理的ガボルフィルタバンクを設定し、生理的応答と向きを抽出する。 最後に、画像の局所的な変化に対して、特徴を堅牢にするために、画像が重複しないセルと重なり合うブロックに分割することで、ヒストグラムを出力として生成する。 複数のデータベース上での大規模な実験結果から,提案手法が現在最先端の指静脈認識法よりも優れていることが示された。

Local feature descriptors exhibit great superiority in finger vein recognition due to their stability and robustness against local changes in images. However, most of these are methods use general-purpose descriptors that do not consider finger vein-specific features. In this work, we propose a finger vein-specific local feature descriptors based physiological characteristic of finger vein patterns, i.e., histogram of oriented physiological Gabor responses (HOPGR), for finger vein recognition. First, prior of directional characteristic of finger vein patterns is obtained in an unsupervised manner. Then the physiological Gabor filter banks are set up based on the prior information to extract the physiological responses and orientation. Finally, to make feature has robustness against local changes in images, histogram is generated as output by dividing the image into non-overlapping cells and overlapping blocks. Extensive experimental results on several databases clearly demonstrate that the proposed method outperforms most current state-of-the-art finger vein recognition methods.
翻訳日:2022-12-12 21:48:08 公開日:2020-04-16
# 時間的接地のためのローカル・グローバルビデオテキストインタラクション

Local-Global Video-Text Interactions for Temporal Grounding ( http://arxiv.org/abs/2004.07514v1 )

ライセンス: Link先を確認
Jonghwan Mun, Minsu Cho, Bohyung Han(参考訳) 本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。 本稿では,クエリに記述された重要な意味的エンティティ(アクター,オブジェクト,アクションなど)に対応するテキストクエリにおける意味的フレーズの中間的な特徴の集合を抽出し,クエリの言語的特徴とビデオの視覚的特徴との間のバイモーダルな相互作用を複数のレベルで反映する,新たな回帰モデルを用いてこの問題に対処する。 提案手法は,バイモーダル相互作用中に局所からグローバルへの文脈情報を活用し,目標時間間隔を効果的に予測する。 深部アブレーション研究により,映像とテキストの相互作用に局所的・グローバル的文脈を取り入れることが,正確な接地に不可欠であることが判明した。 提案手法は,Charades-STA と ActivityNet Captions のデータセットに対して,Recall@tIoU=0.5 の7.44 %,4.61 % の値でそれぞれ高い性能を示す。 コードはhttps://github.com/JonghwanMun/LGI4temporalgroundingで入手できる。

This paper addresses the problem of text-to-video temporal grounding, which aims to identify the time interval in a video semantically relevant to a text query. We tackle this problem using a novel regression-based model that learns to extract a collection of mid-level features for semantic phrases in a text query, which corresponds to important semantic entities described in the query (e.g., actors, objects, and actions), and reflect bi-modal interactions between the linguistic features of the query and the visual features of the video in multiple levels. The proposed method effectively predicts the target time interval by exploiting contextual information from local to global during bi-modal interactions. Through in-depth ablation studies, we find out that incorporating both local and global context in video and text interactions is crucial to the accurate grounding. Our experiment shows that the proposed method outperforms the state of the arts on Charades-STA and ActivityNet Captions datasets by large margins, 7.44\% and 4.61\% points at Recall@tIoU=0.5 metric, respectively. Code is available in https://github.com/JonghwanMun/LGI4temporalgrounding.
翻訳日:2022-12-12 21:47:53 公開日:2020-04-16
# ビデオオブジェクト追跡とセグメンテーションのための高速テンプレートマッチングと更新

Fast Template Matching and Update for Video Object Tracking and Segmentation ( http://arxiv.org/abs/2004.07538v1 )

ライセンス: Link先を確認
Mingjie Sun, Jimin Xiao, Eng Gee Lim, Bingfeng Zhang, Yao Zhao(参考訳) 本稿では,第1フレームのボックスレベルの接地構造のみを提供するフレーム列にまたがる,マルチインスタンスの半教師付きビデオオブジェクトセグメンテーションを課題とする。 検出に基づくアルゴリズムはこのタスクを処理するために広く採用されており、マッチング手法の選択による結果の予測や、新たに予測された結果を用いてターゲットテンプレートを更新するかどうかの決定に課題がある。 しかし、既存の方法はこれらの選択を粗く柔軟性のない方法で行い、性能を損なう。 この制限を克服するために,強化学習を用いてこれら2つの決定を同時に行う新しい手法を提案する。 具体的には、強化学習エージェントは、予測結果の品質に応じて、目標テンプレートを更新するかどうかを判断する。 マッチング手法の選択は、強化学習エージェントの動作履歴に基づいて同時に決定される。 実験の結果,本手法は従来の最先端手法の約10倍の精度で精度が向上した(DAVIS 2017データセットでは69.1%)。

In this paper, the main task we aim to tackle is the multi-instance semi-supervised video object segmentation across a sequence of frames where only the first-frame box-level ground-truth is provided. Detection-based algorithms are widely adopted to handle this task, and the challenges lie in the selection of the matching method to predict the result as well as to decide whether to update the target template using the newly predicted result. The existing methods, however, make these selections in a rough and inflexible way, compromising their performance. To overcome this limitation, we propose a novel approach which utilizes reinforcement learning to make these two decisions at the same time. Specifically, the reinforcement learning agent learns to decide whether to update the target template according to the quality of the predicted result. The choice of the matching method will be determined at the same time, based on the action history of the reinforcement learning agent. Experiments show that our method is almost 10 times faster than the previous state-of-the-art method with even higher accuracy (region similarity of 69.1% on DAVIS 2017 dataset).
翻訳日:2022-12-12 21:47:28 公開日:2020-04-16
# 半教師付き重要人物検出のための非標識画像における重要人物検出の学習

Learning to Detect Important People in Unlabelled Images for Semi-supervised Important People Detection ( http://arxiv.org/abs/2004.07568v1 )

ライセンス: Link先を確認
Fa-Ting Hong, Wei-Hong Li, Wei-Shi Zheng(参考訳) 重要な人物検出は、社会的イベントイメージにおいて最も重要な役割を演じる個人を自動的に検出することであり、高いレベルのパターンを理解するためにデザインされたモデルが必要である。 しかし,既存の手法は大量の注釈付き画像サンプルを用いた教師あり学習に大きく依存しており,個人認識(オブジェクト認識など)よりも重要人物の検出に費用がかかる。 そこで本研究では,一部注釈付き画像を用いた重要人物検出学習を提案する。 提案手法は,無注釈画像の個人に擬似ラベルを割り当てることを繰り返し,ラベルと擬似ラベルの両方のデータに基づいて重要人物検出モデルを更新することを学ぶ。 疑似ラベル不均衡問題を解決するために,疑似ラベル推定のためのランキング戦略を導入し,また,個人が重要人物であるという自信を重み付けて重要人物の学習を強化し,無音画像(重要人物のいない画像)を無視する2つの重み付け戦略を導入する。 評価のために2つの大規模データセットを収集した。 実験結果から,重要人物検出の性能向上のために,未ラベル画像を活用することにより,本手法の有効性が明らかとなった。

Important people detection is to automatically detect the individuals who play the most important roles in a social event image, which requires the designed model to understand a high-level pattern. However, existing methods rely heavily on supervised learning using large quantities of annotated image samples, which are more costly to collect for important people detection than for individual entity recognition (eg, object recognition). To overcome this problem, we propose learning important people detection on partially annotated images. Our approach iteratively learns to assign pseudo-labels to individuals in un-annotated images and learns to update the important people detection model based on data with both labels and pseudo-labels. To alleviate the pseudo-labelling imbalance problem, we introduce a ranking strategy for pseudo-label estimation, and also introduce two weighting strategies: one for weighting the confidence that individuals are important people to strengthen the learning on important people and the other for neglecting noisy unlabelled images (ie, images without any important people). We have collected two large-scale datasets for evaluation. The extensive experimental results clearly confirm the efficacy of our method attained by leveraging unlabelled images for improving the performance of important people detection.
翻訳日:2022-12-12 21:47:10 公開日:2020-04-16
# 画像分類のための空間的注意出力層

Spatially Attentive Output Layer for Image Classification ( http://arxiv.org/abs/2004.07570v1 )

ライセンス: Link先を確認
Ildoo Kim, Woonhyuk Baek, Sungwoong Kim(参考訳) 画像分類のためのほとんどの畳み込みニューラルネットワーク(CNN)は、グローバル平均プーリング(GAP)と、出力ロジットのための完全連結(FC)層を使用する。 しかし、この空間集約処理は本質的に出力層における位置情報の利用を制限するが、この空間情報は分類に有用である。 本稿では,既存の畳み込み特徴マップ上に新たな空間出力層を配置し,位置特異的な出力情報を明示的に活用する。 具体的には、空間的特徴写像を考慮し、空間ロジットに注意マスクを用いることで、以前のGAP-FC層を空間的注意出力層(SAOL)に置き換える。 提案手法は,目標領域内の空間ロジットを選択的に集約することで,性能向上だけでなく,空間的に解釈可能な出力も実現する。 さらに,提案する saol では, 訓練中の一般化能力を高めるために, 位置特異的な自己スーパービジョンと自己蒸留を十分に活用することができる。 自己スーパービジョンと自己蒸留を備えたSAOLは既存のCNNに簡単に接続できる。 代表アーキテクチャを用いた各種分類タスクの実験結果は、ほぼ同じ計算コストでSAOLによる一貫した性能向上を示す。

Most convolutional neural networks (CNNs) for image classification use a global average pooling (GAP) followed by a fully-connected (FC) layer for output logits. However, this spatial aggregation procedure inherently restricts the utilization of location-specific information at the output layer, although this spatial information can be beneficial for classification. In this paper, we propose a novel spatial output layer on top of the existing convolutional feature maps to explicitly exploit the location-specific output information. In specific, given the spatial feature maps, we replace the previous GAP-FC layer with a spatially attentive output layer (SAOL) by employing a attention mask on spatial logits. The proposed location-specific attention selectively aggregates spatial logits within a target region, which leads to not only the performance improvement but also spatially interpretable outputs. Moreover, the proposed SAOL also permits to fully exploit location-specific self-supervision as well as self-distillation to enhance the generalization ability during training. The proposed SAOL with self-supervision and self-distillation can be easily plugged into existing CNNs. Experimental results on various classification tasks with representative architectures show consistent performance improvements by SAOL at almost the same computational cost.
翻訳日:2022-12-12 21:46:49 公開日:2020-04-16
# ピラミッド状残留変形場推定による教師なし変形型医用画像登録

Unsupervised Deformable Medical Image Registration via Pyramidal Residual Deformation Fields Estimation ( http://arxiv.org/abs/2004.07624v1 )

ライセンス: Link先を確認
Yujia Zhou, Shumao Pang, Jun Cheng, Yuhang Sun, Yi Wu, Lei Zhao, Yaqin Liu, Zhentai Lu, Wei Yang, and Qianjin Feng(参考訳) 変形場推定は多くの医用画像登録アプリケーションにおいて重要かつ困難な問題である。 近年, 深層学習技術は, 登録問題を単純化するための有望なアプローチとなり, 医用画像登録に徐々に応用されてきた。 しかし、既存のディープラーニング登録では、移動画像と固定画像の対応する特徴を受容場がカバーできない場合、正確な変位値を出力できないという問題を考慮していない。 実際、受容野の制限のため、3x3カーネルは対応する特徴を高解像度/高解像度でカバーすることが困難である。 マルチレゾリューションとマルチコンボリューションの技術は改善するが、この問題は回避できない。 本研究では, 移動画像と固定画像のピラミッド型特徴集合を構築し, 反りのある移動画像と固定画像を用いて, ピラミッド型残留変形場推定モジュール (prdfe-module) と呼ばれる各スケールの変形場を推定した。 各スケールの「トータル」変形場は、前回のすべてのスケールで全ての「再現」変形場をアップサンプリングして重み付けして計算され、効果的かつ正確に変形場を低分解能から高分解能に移すことができ、各スケールでの移動特性を乱すのに使用される。 シミュレーションと実脳データの結果から,本手法は変形場の登録精度と合理性を向上することが示された。

Deformation field estimation is an important and challenging issue in many medical image registration applications. In recent years, deep learning technique has become a promising approach for simplifying registration problems, and has been gradually applied to medical image registration. However, most existing deep learning registrations do not consider the problem that when the receptive field cannot cover the corresponding features in the moving image and the fixed image, it cannot output accurate displacement values. In fact, due to the limitation of the receptive field, the 3 x 3 kernel has difficulty in covering the corresponding features at high/original resolution. Multi-resolution and multi-convolution techniques can improve but fail to avoid this problem. In this study, we constructed pyramidal feature sets on moving and fixed images and used the warped moving and fixed features to estimate their "residual" deformation field at each scale, called the Pyramidal Residual Deformation Field Estimation module (PRDFE-Module). The "total" deformation field at each scale was computed by upsampling and weighted summing all the "residual" deformation fields at all its previous scales, which can effectively and accurately transfer the deformation fields from low resolution to high resolution and is used for warping the moving features at each scale. Simulation and real brain data results show that our method improves the accuracy of the registration and the rationality of the deformation field.
翻訳日:2022-12-12 21:46:32 公開日:2020-04-16
# 反復ピラミッドコンテキストを用いた統合意味セグメンテーションと境界検出

Joint Semantic Segmentation and Boundary Detection using Iterative Pyramid Contexts ( http://arxiv.org/abs/2004.07684v1 )

ライセンス: Link先を確認
Mingmin Zhen, Jinglu Wang, Lei Zhou, Shiwei Li, Tianwei Shen, Jiaxiang Shang, Tian Fang, Quan Long(参考訳) 本稿では,意味セグメンテーションと境界検出のための統合マルチタスク学習フレームワークを提案する。 フレームワークの重要なコンポーネントは反復ピラミッドコンテキストモジュール(PCM)である。これは2つのタスクを結合し、2つのタスク間で相互作用するために共有された潜在意味を格納する。 セマンティクス境界検出のために,非セマンティクスエッジを抑圧する新しい空間勾配融合を提案する。 セマンティクス境界検出はセマンティクスセグメンテーションの2つのタスクであるため、セマンティクスセグメンテーションにおける境界画素精度を向上させるために、境界一貫性制約付き損失関数を導入する。 広範な実験により, 意味セグメンテーションだけでなく, 意味境界検出においても, 最先端の作業よりも優れた性能を示すことができた。 特に、Cityscapesテストセットの平均IoUスコアは81:8%で、粗いデータやセマンティックセグメンテーションのための外部データを使用しない。 セマンティクス境界検出では、前回の最先端作品よりもapで9.9%、mf(ods)で6:8%改善している。

In this paper, we present a joint multi-task learning framework for semantic segmentation and boundary detection. The critical component in the framework is the iterative pyramid context module (PCM), which couples two tasks and stores the shared latent semantics to interact between the two tasks. For semantic boundary detection, we propose the novel spatial gradient fusion to suppress nonsemantic edges. As semantic boundary detection is the dual task of semantic segmentation, we introduce a loss function with boundary consistency constraint to improve the boundary pixel accuracy for semantic segmentation. Our extensive experiments demonstrate superior performance over state-of-the-art works, not only in semantic segmentation but also in semantic boundary detection. In particular, a mean IoU score of 81:8% on Cityscapes test set is achieved without using coarse data or any external data for semantic segmentation. For semantic boundary detection, we improve over previous state-of-the-art works by 9.9% in terms of AP and 6:8% in terms of MF(ODS).
翻訳日:2022-12-12 21:45:19 公開日:2020-04-16
# Kvistur 2.0:アイスランド向けBiLSTM複合スプリッター

Kvistur 2.0: a BiLSTM Compound Splitter for Icelandic ( http://arxiv.org/abs/2004.07776v1 )

ライセンス: Link先を確認
J\'on Fri{\dh}rik Da{\dh}ason, David Erik Mollberg, Hrafn Loftsson, Krist\'in Bjarnad\'ottir(参考訳) 本稿では,アイスランドの複合語を分割するためのキャラクタベースのbilstmモデルを提案する。 アイスランドでは化合物化は高度に生産され、新しい化合物が常に作られる。 その結果、多くの言語外単語(OOV)が生成され、多くのNLPツールのパフォーマンスに悪影響を及ぼす。 我々のモデルはアイスランド語形態データベースから290万のユニークな単語のデータセットとそれらの構成構造に基づいて訓練されている。 このモデルは、複合語を2つの部分に分割する方法を学び、任意の単語形式の構成構造を導出することができる。 単語形式の構成構造を知ることで、例えば、サブワードトークン化のための完全な分割や、音声タグ付けの場合、最も大きな形態素頭が見つかるまでOOV単語を分割するといった、与えられたタスクに対して最適な分割を生成することができる。 このモデルは、手動で分割した単語形式のコーパスで評価した場合、他の公開された手法よりも優れている。 この手法はアイスランドの複合語分析装置であるKvisturに統合されている。

In this paper, we present a character-based BiLSTM model for splitting Icelandic compound words, and show how varying amounts of training data affects the performance of the model. Compounding is highly productive in Icelandic, and new compounds are constantly being created. This results in a large number of out-of-vocabulary (OOV) words, negatively impacting the performance of many NLP tools. Our model is trained on a dataset of 2.9 million unique word forms and their constituent structures from the Database of Icelandic Morphology. The model learns how to split compound words into two parts and can be used to derive the constituent structure of any word form. Knowing the constituent structure of a word form makes it possible to generate the optimal split for a given task, e.g., a full split for subword tokenization, or, in the case of part-of-speech tagging, splitting an OOV word until the largest known morphological head is found. The model outperforms other previously published methods when evaluated on a corpus of manually split word forms. This method has been integrated into Kvistur, an Icelandic compound word analyzer.
翻訳日:2022-12-12 21:38:31 公開日:2020-04-16
# 改良型砂時計網を用いた上肢単足姿勢推定法

Single upper limb pose estimation method based on improved stacked hourglass network ( http://arxiv.org/abs/2004.07456v1 )

ライセンス: Link先を確認
Gang Peng, Yuezhi Zheng, Jianfeng Li, Jin Yang, Zhonghua Deng(参考訳) 現在では, ネットワークモデルの複雑な構造により, 計算複雑性が高く, 実時間性能が不十分である場合が多い。 しかし,高リアルタイム性能のシングルパーソンポーズ推定手法では,ネットワークモデルの単純な構造により精度を向上させる必要がある。 現在、一人称ポーズ推定において高精度かつリアルタイムなパフォーマンスを実現することは困難である。 本稿では,人間と機械の協調作業に利用するために,エンド・ツー・エンドアプローチに基づく一人称上肢ポーズ推定法を提案する。 重ね合わせの砂時計ネットワークモデルを用いて, 1人の上肢骨格キーポイント検出モデルが設計され, 原型モデルにおける砂時計モジュールのアップサンプリング操作を置き換え, 粗い特徴マップの問題を解決するためにデコンボリューションが採用された。 積分回帰は骨格のキーポイントの位置座標を計算し、量子化誤差と計算を減らすために用いられた。 実験により, 開発した一対一上肢骨格キーポイント検出モデルは高精度であり, エンドツーエンドアプローチに基づくポーズ推定手法により, 高精度かつリアルタイムな性能が得られることがわかった。

At present, most high-accuracy single-person pose estimation methods have high computational complexity and insufficient real-time performance due to the complex structure of the network model. However, a single-person pose estimation method with high real-time performance also needs to improve its accuracy due to the simple structure of the network model. It is currently difficult to achieve both high accuracy and real-time performance in single-person pose estimation. For use in human-machine cooperative operations, this paper proposes a single-person upper limb pose estimation method based on an end-to-end approach for accurate and real-time limb pose estimation. Using the stacked hourglass network model, a single-person upper limb skeleton key point detection model was designed.Deconvolution was employed to replace the up-sampling operation of the hourglass module in the original model, solving the problem of rough feature maps. Integral regression was used to calculate the position coordinates of key points of the skeleton, reducing quantization errors and calculations. Experiments showed that the developed single-person upper limb skeleton key point detection model achieves high accuracy and that the pose estimation method based on the end-to-end approach provides high accuracy and real-time performance.
翻訳日:2022-12-12 21:36:58 公開日:2020-04-16
# SQE:多目的追跡におけるパラメータ最適化のための自己品質評価指標

SQE: a Self Quality Evaluation Metric for Parameters Optimization in Multi-Object Tracking ( http://arxiv.org/abs/2004.07472v1 )

ライセンス: Link先を確認
Yanru Huang, Feiyu Zhu, Zheni Zeng, Xi Qiu, Yuan Shen, Jianan Wu(参考訳) 本稿では,マルチオブジェクト追跡課題におけるパラメータ最適化のための,新しい自己品質評価指標sqeを提案する。 現在の評価基準はすべて注釈付き基底真理を必要とするため、テスト環境やトレーニング後のさらなる最適化を禁止する現実的な状況では失敗する。 対照的に,本尺度は軌道仮説の内部特性を反映し,基礎的真理をもたない追従性能を測定した。 異なる性質の軌跡が特徴距離分布に対して異なるピークあるいは複数のピークを示すことを実証し、2クラスガウス混合モデルを用いて軌跡の質を評価するための単純かつ効果的な手法を設計するよう促した。 主にMOT16 Challengeデータセットを用いた実験により,既存のメトリクスと相関し,パラメータを自己最適化することで,より優れた性能を実現することができる。 我々の結論と手法は、将来的な多目的追跡に刺激を与えていると信じている。

We present a novel self quality evaluation metric SQE for parameters optimization in the challenging yet critical multi-object tracking task. Current evaluation metrics all require annotated ground truth, thus will fail in the test environment and realistic circumstances prohibiting further optimization after training. By contrast, our metric reflects the internal characteristics of trajectory hypotheses and measures tracking performance without ground truth. We demonstrate that trajectories with different qualities exhibit different single or multiple peaks over feature distance distribution, inspiring us to design a simple yet effective method to assess the quality of trajectories using a two-class Gaussian mixture model. Experiments mainly on MOT16 Challenge data sets verify the effectiveness of our method in both correlating with existing metrics and enabling parameters self-optimization to achieve better performance. We believe that our conclusions and method are inspiring for future multi-object tracking in practice.
翻訳日:2022-12-12 21:36:17 公開日:2020-04-16
# ArTIST: トラッキングのための自動回帰軌道塗装とスコーリング

ArTIST: Autoregressive Trajectory Inpainting and Scoring for Tracking ( http://arxiv.org/abs/2004.07482v1 )

ライセンス: Link先を確認
Fatemeh Saleh, Sadegh Aliakbarian, Mathieu Salzmann, Stephen Gould(参考訳) オンラインマルチオブジェクトトラッキング(mot)フレームワークの中核となるコンポーネントのひとつは、既存のトラックレットと新たな検出を関連付けることである。 MOTの大幅な進歩にもかかわらず、信頼性の高いスコアリング機能を設計することは依然として困難である。 本稿では,トラックレットが自然運動を表わす確率を直接測定することにより,トラックレットの提案をスコアする確率的自己回帰生成モデルを提案する。 我々のモデルの重要な特性の1つは、部分的な観測によってトラックレットの複数の潜在的未来を生成する能力である。 これにより、トラックレットをスコアリングするだけでなく、検知器が長い時間も物体を検知できない場合、例えば、軌道をサンプリングして誤検出によるギャップを埋めることによって、既存のトラックレットを効果的に維持することができる。 実験では,複数のMOTベンチマークデータセット上でのトラックレットのスコアリングとインペインティングに対するアプローチの有効性を実証した。 また, 人間の動作予測の課題において, 将来的な表現を創出するために, 生成モデルの汎用性を示す。

One of the core components in online multiple object tracking (MOT) frameworks is associating new detections with existing tracklets, typically done via a scoring function. Despite the great advances in MOT, designing a reliable scoring function remains a challenge. In this paper, we introduce a probabilistic autoregressive generative model to score tracklet proposals by directly measuring the likelihood that a tracklet represents natural motion. One key property of our model is its ability to generate multiple likely futures of a tracklet given partial observations. This allows us to not only score tracklets but also effectively maintain existing tracklets when the detector fails to detect some objects even for a long time, e.g., due to occlusion, by sampling trajectories so as to inpaint the gaps caused by misdetection. Our experiments demonstrate the effectiveness of our approach to scoring and inpainting tracklets on several MOT benchmark datasets. We additionally show the generality of our generative model by using it to produce future representations in the challenging task of human motion prediction.
翻訳日:2022-12-12 21:36:03 公開日:2020-04-16
# 患者特定モデルチューニングによるウェアラブルデバイスの呼吸音分類のための深層ニューラルネットワーク

Deep Neural Network for Respiratory Sound Classification in Wearable Devices Enabled by Patient Specific Model Tuning ( http://arxiv.org/abs/2004.08287v1 )

ライセンス: Link先を確認
Jyotibdha Acharya, Arindam Basu(参考訳) 本研究の目的は,呼吸・肺疾患の自動診断のための呼吸音異常(Wheeze, crackle)を識別するための分類モデルと戦略を構築することである。 本研究では,メル・スペクトログラムに基づく呼吸音を分類する深層CNN-RNNモデルを提案する。 また,患者固有のモデルチューニング戦略を実装し,まず呼吸器患者をスクリーニングし,患者固有の分類モデルを構築し,信頼性の高い異常検出を行う。 さらに,モデル重み付けのための局所的ログ量子化戦略を考案し,ウェアラブルデバイスなどのメモリ制約付きシステムにおけるメモリフットプリントを削減する。 提案するハイブリッドcnn-rnnモデルは,icbhi'17のscientific challenge respiratory sound databaseにおいて,呼吸サイクルの4クラス分類において66.31%のスコアを得た。 モデルが患者固有のデータで再トレーニングされた場合、リセットワンアウトバリデーションのためにスコアが71.81%になる。 提案する重み量子化手法は性能を損なうことなく総メモリコストを約4倍削減する。 論文の主な貢献は以下の通りである。 まず、提案されたモデルは、IABHI'17データセット上で、アートスコアの状態を達成できる。 第二に、深層学習モデルは呼吸データで事前学習した際にドメイン固有の知識をうまく学習し、一般化されたモデルよりも優れたパフォーマンスを生み出すことが示される。 最後に、トレーニングされた重みの局所的ログ量子化は、メモリ要件を大幅に削減できることが示されている。 このような患者固有の再トレーニング戦略は、特にウェアラブルヘルスケアソリューションにおいて、信頼性の高い遠隔患者監視システムを開発する上で非常に有用である。

The primary objective of this paper is to build classification models and strategies to identify breathing sound anomalies (wheeze, crackle) for automated diagnosis of respiratory and pulmonary diseases. In this work we propose a deep CNN-RNN model that classifies respiratory sounds based on Mel-spectrograms. We also implement a patient specific model tuning strategy that first screens respiratory patients and then builds patient specific classification models using limited patient data for reliable anomaly detection. Moreover, we devise a local log quantization strategy for model weights to reduce the memory footprint for deployment in memory constrained systems such as wearable devices. The proposed hybrid CNN-RNN model achieves a score of 66.31% on four-class classification of breathing cycles for ICBHI'17 scientific challenge respiratory sound database. When the model is re-trained with patient specific data, it produces a score of 71.81% for leave-one-out validation. The proposed weight quantization technique achieves ~4X reduction in total memory cost without loss of performance. The main contribution of the paper is as follows: Firstly, the proposed model is able to achieve state of the art score on the ICBHI'17 dataset. Secondly, deep learning models are shown to successfully learn domain specific knowledge when pre-trained with breathing data and produce significantly superior performance compared to generalized models. Finally, local log quantization of trained weights is shown to be able to reduce the memory requirement significantly. This type of patient-specific re-training strategy can be very useful in developing reliable long-term automated patient monitoring systems particularly in wearable healthcare solutions.
翻訳日:2022-12-12 21:30:40 公開日:2020-04-16
# TensorOpt: 分散DNNトレーニングにおけるトレードオフを探る

TensorOpt: Exploring the Tradeoffs in Distributed DNN Training with Auto-Parallelism ( http://arxiv.org/abs/2004.10856v1 )

ライセンス: Link先を確認
Zhenkun Cai, Kaihao Ma, Xiao Yan, Yidi Wu, Yuzhen Huang, James Cheng, Teng Su, Fan Yu(参考訳) 優れた並列化戦略は、ディープニューラルネットワーク(DNN)の分散トレーニングの効率を大幅に改善したり、コストを削減することができる。 近年、効率的な並列化戦略を見つけるためにいくつかの手法が提案されているが、それらはすべて単一の目的(実行時間、メモリ消費など)を最適化し、1つの戦略のみを生成する。 我々は,異なる目的間のトレードオフを可能にするために,最適な並列化戦略を探索する効率的なアルゴリズムFTを提案する。 FTは、デバイス数が制限されている場合のメモリ消費を最小限に抑え、実行時間を短縮するために追加リソースを十分に活用することで、異なるシナリオに適応することができる。 一般的なdnnモデル(視覚、言語など)では、異なる目的間のトレードオフとその並列化戦略への影響を理解するために、詳細な分析が行われる。 また、並列化戦略の詳細を気にせずに分散DNNトレーニングジョブを実行できるTensorOptというユーザフレンドリーなシステムも開発しています。 実験の結果、FTは効率的に動作し、ランタイムコストを正確に見積もっていることが示され、TensorOptは既存のフレームワークと比較してリソースの可用性に適応する上でより柔軟である。

A good parallelization strategy can significantly improve the efficiency or reduce the cost for the distributed training of deep neural networks (DNNs). Recently, several methods have been proposed to find efficient parallelization strategies but they all optimize a single objective (e.g., execution time, memory consumption) and produce only one strategy. We propose FT, an efficient algorithm that searches for an optimal set of parallelization strategies to allow the trade-off among different objectives. FT can adapt to different scenarios by minimizing the memory consumption when the number of devices is limited and fully utilize additional resources to reduce the execution time. For popular DNN models (e.g., vision, language), an in-depth analysis is conducted to understand the trade-offs among different objectives and their influence on the parallelization strategies. We also develop a user-friendly system, called TensorOpt, which allows users to run their distributed DNN training jobs without caring the details of parallelization strategies. Experimental results show that FT runs efficiently and provides accurate estimation of runtime costs, and TensorOpt is more flexible in adapting to resource availability compared with existing frameworks.
翻訳日:2022-12-12 21:30:13 公開日:2020-04-16
# ディテール指向カプセルネットワークを用いたctスキャンを用いた放射線科医レベルのcovid-19検出

Radiologist-Level COVID-19 Detection Using CT Scans with Detail-Oriented Capsule Networks ( http://arxiv.org/abs/2004.07407v1 )

ライセンス: Link先を確認
Aryan Mobiny, Pietro Antonio Cicalese, Samira Zare, Pengyu Yuan, Mohammadsajad Abavisani, Carol C. Wu, Jitesh Ahuja, Patricia M. de Groot, Hien Van Nguyen(参考訳) 放射線画像は、コロナウイルス病2019(COVID-19)患者の迅速スクリーニングとモニタリングのための代替手段を提供する。 このアプローチは、これらの画像をタイムリーに解釈できる放射線専門家の不足によって制限されている。 そこで本研究では,ctスキャンによるcovid-19自動診断のための,ディテール指向カプセルネットワーク(decaps)と呼ばれる新しい学習アーキテクチャを提案する。 我々のネットワークは、分類精度を高めるためのいくつかのアーキテクチャの改善とCapsule Networksの強みを組み合わせる。 第一に、DECAPSは非記述領域からの情報の通過を防止し、モデルの安定性を向上させる反転動的ルーティング機構を使用する。 第二に、DECAPSは2段階のパッチ作物とドロップ戦略を使用して、ターゲットのコンセプト毎にアクティベーションマップを生成するようにネットワークを奨励するPeekabooトレーニング手順を採用している。 ネットワークはアクティベーションマップを使用して、関心のある領域に集中し、データの粗い表現と細かい表現を組み合わせる。 最後に,データ不足問題に対処するために,条件付き生成逆数ネットワークに基づくデータ拡張手法を提案する。 このモデルは84.3%の精度、91.5%のリコール、96.1%のroc曲線下領域を達成した。 我々は, DECAPSモデルの性能を経験豊富な3人の胸部放射線科医と比較し, その構造がそれより優れていることを示す。 この発見を裏付けるためには、より大きなデータセットのさらなる研究が必要であるが、DreCAPSのようなアーキテクチャを用いて、CTスキャンによる新型コロナウイルスの診断を支援することが示唆されている。

Radiographic images offer an alternative method for the rapid screening and monitoring of Coronavirus Disease 2019 (COVID-19) patients. This approach is limited by the shortage of radiology experts who can provide a timely interpretation of these images. Motivated by this challenge, our paper proposes a novel learning architecture, called Detail-Oriented Capsule Networks (DECAPS), for the automatic diagnosis of COVID-19 from Computed Tomography (CT) scans. Our network combines the strength of Capsule Networks with several architecture improvements meant to boost classification accuracies. First, DECAPS uses an Inverted Dynamic Routing mechanism which increases model stability by preventing the passage of information from non-descriptive regions. Second, DECAPS employs a Peekaboo training procedure which uses a two-stage patch crop and drop strategy to encourage the network to generate activation maps for every target concept. The network then uses the activation maps to focus on regions of interest and combines both coarse and fine-grained representations of the data. Finally, we use a data augmentation method based on conditional generative adversarial networks to deal with the issue of data scarcity. Our model achieves 84.3% precision, 91.5% recall, and 96.1% area under the ROC curve, significantly outperforming state-of-the-art methods. We compare the performance of the DECAPS model with three experienced, well-trained thoracic radiologists and show that the architecture significantly outperforms them. While further studies on larger datasets are required to confirm this finding, our results imply that architectures like DECAPS can be used to assist radiologists in the CT scan mediated diagnosis of COVID-19.
翻訳日:2022-12-12 21:29:37 公開日:2020-04-16
# 景観理解のための都市景観-パノプティカル・パートとPASCAL-パノプティカル・パート・データセット

Cityscapes-Panoptic-Parts and PASCAL-Panoptic-Parts datasets for Scene Understanding ( http://arxiv.org/abs/2004.07944v1 )

ライセンス: Link先を確認
Panagiotis Meletis, Xiaoxiao Wen, Chenyang Lu, Daan de Geus, Gijs Dubbelman(参考訳) 本稿では,画像シーン理解のための2つの新しいデータセットを提案する。 どちらのデータセットも、panopticセグメンテーションと互換性のあるアノテーションを持ち、さらに選択したセマンティクスクラスのための部分レベルのラベルを持っている。 本報告では,2つのデータセットの形式,アノテーションプロトコル,マージ戦略,データセット統計の提示について述べる。 データセットラベルと処理と視覚化のためのコードとがhttps://github.com/tue-mps/panoptic_partsで公開される。

In this technical report, we present two novel datasets for image scene understanding. Both datasets have annotations compatible with panoptic segmentation and additionally they have part-level labels for selected semantic classes. This report describes the format of the two datasets, the annotation protocols, the merging strategies, and presents the datasets statistics. The datasets labels together with code for processing and visualization will be published at https://github.com/tue-mps/panoptic_parts.
翻訳日:2022-12-12 21:28:30 公開日:2020-04-16
# 係り受けパーサの言語間伝達のためのインスタンスレベルパーサー選択に向けて

Towards Instance-Level Parser Selection for Cross-Lingual Transfer of Dependency Parsers ( http://arxiv.org/abs/2004.07642v1 )

ライセンス: Link先を確認
Robert Litschko, Ivan Vuli\'c, \v{Z}eljko Agi\'c, Goran Glava\v{s}(参考訳) 言語間パーサ転送の現在の手法は、世界の低リソースターゲット言語、すなわち"ツリーバンクレベル"のパーサの予測に重点を置いている。 本稿では,新しい言語間伝達パラダイムであるインスタンスレベルパーサ選択(ilps)の提案と議論を行い,語彙化パーサ転送の枠組みにおけるインスタンスレベル選択に着目した概念実証研究を提案する。 まず、異なるソースパーサがターゲット言語における異なるUniversal POSシーケンスの最適選択である、という経験的観察から始める。 次に、インスタンスレベルで最高のパーサを予測することを提案する。 そこで我々は,Transformerアーキテクチャに基づく教師付き回帰モデルをトレーニングし,個々のPOS系列に対するパーサ精度を予測する。 ILPSを2つの強力なシングルベストパーサ選択ベースライン(SBPS)と比較する。(1)ソースとターゲット言語(KL)間のPOS n-gram分布を比較するモデルと(2)手作業で作成した言語ベクトル間の類似性に基づいてソースを選択するモデル(L2V)。 広範な評価の結果,42のソースパーサと20の低リソーステスト言語を結合した結果,13/20と14/20のテスト言語では,ilpがklとl2vよりも優れていることがわかった。 さらに,「ツリーバンクレベル」(SBPS)で最高のパーサを予測し,インスタンスレベルのモデルから予測を集約することにより,17/20と16/20のテスト言語で同じベースラインを上回ります。

Current methods of cross-lingual parser transfer focus on predicting the best parser for a low-resource target language globally, that is, "at treebank level". In this work, we propose and argue for a novel cross-lingual transfer paradigm: instance-level parser selection (ILPS), and present a proof-of-concept study focused on instance-level selection in the framework of delexicalized parser transfer. We start from an empirical observation that different source parsers are the best choice for different Universal POS sequences in the target language. We then propose to predict the best parser at the instance level. To this end, we train a supervised regression model, based on the Transformer architecture, to predict parser accuracies for individual POS-sequences. We compare ILPS against two strong single-best parser selection baselines (SBPS): (1) a model that compares POS n-gram distributions between the source and target languages (KL) and (2) a model that selects the source based on the similarity between manually created language vectors encoding syntactic properties of languages (L2V). The results from our extensive evaluation, coupling 42 source parsers and 20 diverse low-resource test languages, show that ILPS outperforms KL and L2V on 13/20 and 14/20 test languages, respectively. Further, we show that by predicting the best parser "at the treebank level" (SBPS), using the aggregation of predictions from our instance-level model, we outperform the same baselines on 17/20 and 16/20 test languages.
翻訳日:2022-12-12 21:27:35 公開日:2020-04-16
# ディープオートエンコーダの分散進化

Distributed Evolution of Deep Autoencoders ( http://arxiv.org/abs/2004.07607v1 )

ライセンス: Link先を確認
Jeff Hajewski, Suely Oliveira, and Xiaoyu Xing(参考訳) オートエンコーダは機能選択から情報検索まで幅広い領域で成功を収めている。 この成功にもかかわらず、与えられたタスクのためのオートエンコーダの設計は、エンコーダとデコーダのバックニューラルネットワークアーキテクチャがオートエンコーダ全体のパフォーマンスにどのように影響するかという明確な直感が欠如しているため、依然として困難な作業である。 本稿では,モジュラーオートエンコーダの設計に効率的な進化アルゴリズムを用いた分散システムを提案する。 本システムの有効性を,多様体学習と画像復調の課題に適用した。 このシステムは、2つのタスクでランダム検索をほぼ1桁上回り、さらにワーカノードを追加してリニア水平スケーリングを実現している。

Autoencoders have seen wide success in domains ranging from feature selection to information retrieval. Despite this success, designing an autoencoder for a given task remains a challenging undertaking due to the lack of firm intuition on how the backing neural network architectures of the encoder and decoder impact the overall performance of the autoencoder. In this work we present a distributed system that uses an efficient evolutionary algorithm to design a modular autoencoder. We demonstrate the effectiveness of this system on the tasks of manifold learning and image denoising. The system beats random search by nearly an order of magnitude on both tasks while achieving near linear horizontal scaling as additional worker nodes are added to the system.
翻訳日:2022-12-12 21:22:01 公開日:2020-04-16
# 強化学習を用いたデータ駆動ロバスト制御

Data-Driven Robust Control Using Reinforcement Learning ( http://arxiv.org/abs/2004.07690v1 )

ライセンス: Link先を確認
Phuong D. Ngo, Fred Godtliebsen(参考訳) 本稿では,不確実条件下での部分的未知力学系を制御するための強化学習を用いたロバストな制御設計手法を提案する。 本手法は,ロバスト制御理論に基づく新しい学習手法を用いて,最適強化学習アルゴリズムを拡張する。 データから学習することで、データから推定された不確実性の中で閉ループシステムの安定性を保証するアクションを提案する。 制御ポリシーは、一連の線形行列不等式を解いて計算される。 コントロールは1型糖尿病患者に対する血糖モデルを用いたシミュレーションを用いて評価した。 シミュレーションの結果, 提案手法は測定およびプロセスノイズの影響を受け, 健康なレベルで血糖を安全に調節できることがわかった。 また、コントロールは血糖値の食事後の変動を著しく低減した。 提案アルゴリズムと既存の最適強化学習アルゴリズムとの比較により,本手法による閉ループシステムの堅牢性の向上が示された。

This paper proposes a robust control design method using reinforcement-learning for controlling partially-unknown dynamical systems under uncertain conditions. The method extends the optimal reinforcement-learning algorithm with a new learning technique that is based on the robust control theory. By learning from the data, the algorithm proposed actions that guarantees the stability of the closed loop system within the uncertainties estimated from the data. Control policies are calculated by solving a set of linear matrix inequalities. The controller was evaluated using simulations on a blood glucose model for patients with type-1 diabetes. Simulation results show that the proposed methodology is capable of safely regulates the blood glucose within a healthy level under the influence of measurement and process noises. The controller has also significantly reduced the post-meal fluctuation of the blood glucose. A comparison between the proposed algorithm and the existing optimal reinforcement learning algorithm shows the improved robustness of the closed loop system using our method.
翻訳日:2022-12-12 21:21:47 公開日:2020-04-16
# 深い可逆ネットワークによるパラメータ化の不確実性 : 貯留層評価への応用

Parameterizing uncertainty by deep invertible networks, an application to reservoir characterization ( http://arxiv.org/abs/2004.07871v1 )

ライセンス: Link先を確認
Gabrio Rizzuti and Ali Siahkoohi and Philipp A. Witte and Felix J. Herrmann(参考訳) フルウェーブフォームインバージョンに対する不確かさの定量化は、開始モデルとデータノイズに対する解の感度を含む問題の条件付けの確率論的特徴を与える。 この分析により、候補解の信頼性と、画像化後に通常行われるタスク(例えば、貯水池のキャラクタリゼーションに続く層図のセグメンテーション)にどのように反映されるかを評価することができる。 古典的には、不確実性はベイズ原理から定式化された確率分布の形で現れ、そこからサンプルを得る。 一般的な解決策はモンテカルロサンプリングである。 そこで本研究では,ガウスのランダム入力をモデル空間(密度や速度など)に「前進させる」ディープネットワークを,実際の後方分布からサンプリングしたかのように訓練する手法を提案する。 このようなネットワークは、後部とネットワーク出力分布間のKullback-Leibler分散に基づく変分最適化問題を解決するように設計されている。 この研究は、近年の可逆ネットワークの発展に根ざしている。 特殊非可逆アーキテクチャは、従来のネットワークに対する計算上の優位性に加えて、出力密度関数の解析的な計算も可能である。 したがって、トレーニング後、これらのネットワークは関連する反転問題の新たな前処理として容易に使用できる。 これはサンプルのみを生成するモンテカルロ法とは全く対照的である。 これらの概念を, 貯留層キャラクタリゼーションの角度逆パラメータ解析への応用により検証する。

Uncertainty quantification for full-waveform inversion provides a probabilistic characterization of the ill-conditioning of the problem, comprising the sensitivity of the solution with respect to the starting model and data noise. This analysis allows to assess the confidence in the candidate solution and how it is reflected in the tasks that are typically performed after imaging (e.g., stratigraphic segmentation following reservoir characterization). Classically, uncertainty comes in the form of a probability distribution formulated from Bayesian principles, from which we seek to obtain samples. A popular solution involves Monte Carlo sampling. Here, we propose instead an approach characterized by training a deep network that "pushes forward" Gaussian random inputs into the model space (representing, for example, density or velocity) as if they were sampled from the actual posterior distribution. Such network is designed to solve a variational optimization problem based on the Kullback-Leibler divergence between the posterior and the network output distributions. This work is fundamentally rooted in recent developments for invertible networks. Special invertible architectures, besides being computational advantageous with respect to traditional networks, do also enable analytic computation of the output density function. Therefore, after training, these networks can be readily used as a new prior for a related inversion problem. This stands in stark contrast with Monte-Carlo methods, which only produce samples. We validate these ideas with an application to angle-versus-ray parameter analysis for reservoir characterization.
翻訳日:2022-12-12 21:20:24 公開日:2020-04-16
# 平均値$\ell_1$-Norm損失に対する平均列サブセット選択

Average Case Column Subset Selection for Entrywise $\ell_1$-Norm Loss ( http://arxiv.org/abs/2004.07986v1 )

ライセンス: Link先を確認
Zhao Song, David P. Woodruff, Peilin Zhong(参考訳) 我々は、エントリワイズ $\ell_1$-norm 損失に関して列の部分集合選択問題を調べる。 最悪の場合、行列に対する良い階数-$k$近似を得るには、$n \times n$Matrix の最良のエントリーに対して$(1+\epsilon)$-approximation を得るために、任意の大きさの$n^{\Omega(1)}$列数が必要であることが知られている。 それでも、ある最小かつ現実的な分布設定の下では、ほぼ線形な実行時間とpoly$(k/\epsilon)+O(k\log n)$列を持つ$(1+\epsilon)$-approximationが得られる。 すなわち、入力行列 $A$ が $A = B + E$ の形を持つなら、$B$ は任意の階数-$k$ 行列であり、$E$ は任意の分布から引き出された入射を持つ行列であり、$(1+\gamma)$-th moment は任意の小さな定数 $\gamma > 0$ に対して$(1+\epsilon)$-approximate column subset selection to the entrywise $\ell_1$-norm をほぼ線形時間で得ることができる。 逆に、最初のモーメントが存在しない場合、任意の$n^{o(1)}$列を選択しても$(1+\epsilon)$-approximate subset selectionアルゴリズムを得ることはできない。 これは、エントリワイズ$\ell_1$-normロスローランク近似に対して(1+\epsilon)$近似を達成するための、任意の種類の最初のアルゴリズムである。

We study the column subset selection problem with respect to the entrywise $\ell_1$-norm loss. It is known that in the worst case, to obtain a good rank-$k$ approximation to a matrix, one needs an arbitrarily large $n^{\Omega(1)}$ number of columns to obtain a $(1+\epsilon)$-approximation to the best entrywise $\ell_1$-norm low rank approximation of an $n \times n$ matrix. Nevertheless, we show that under certain minimal and realistic distributional settings, it is possible to obtain a $(1+\epsilon)$-approximation with a nearly linear running time and poly$(k/\epsilon)+O(k\log n)$ columns. Namely, we show that if the input matrix $A$ has the form $A = B + E$, where $B$ is an arbitrary rank-$k$ matrix, and $E$ is a matrix with i.i.d. entries drawn from any distribution $\mu$ for which the $(1+\gamma)$-th moment exists, for an arbitrarily small constant $\gamma > 0$, then it is possible to obtain a $(1+\epsilon)$-approximate column subset selection to the entrywise $\ell_1$-norm in nearly linear time. Conversely we show that if the first moment does not exist, then it is not possible to obtain a $(1+\epsilon)$-approximate subset selection algorithm even if one chooses any $n^{o(1)}$ columns. This is the first algorithm of any kind for achieving a $(1+\epsilon)$-approximation for entrywise $\ell_1$-norm loss low rank approximation.
翻訳日:2022-12-12 21:20:02 公開日:2020-04-16
# 全二重ミリ波の学習に基づくハイブリッドビームフォーミング設計

Learning Based Hybrid Beamforming Design for Full-Duplex Millimeter Wave Systems ( http://arxiv.org/abs/2004.08285v1 )

ライセンス: Link先を確認
Shaocheng Huang, Yu Ye, Ming Xiao(参考訳) ミリ波 (mmWave) とフルデュプレックス (FD) の通信は、半デュプレックスの通信に比べてスペクトル効率を高める可能性がある。 しかし、FDからの残差自己干渉(SI)とmmWave信号固有の高パスロスはシステム性能を低下させる可能性がある。 一方、ハイブリッドビームフォーミング(HBF)は、チャネルゲインを高め、干渉を合理的な複雑さで緩和する効率的な技術である。 しかし、従来のFD mmWaveシステムに対するHBFアプローチは、チャネル状態情報の品質(CSI)に強く依存しすぎている最適化プロセスに基づいている。 我々は、FD mmWaveシステムのためのHBF設計のための2つの学習スキーム、すなわち、エクストリームラーニングマシンベースのHBF(ELM-HBF)と畳み込みニューラルネットワークベースのHBF(CNN-HBF)を提案する。 具体的には、まず、SIキャンセルビームフォーミングを実現するための乗算器(ADMM)ベースのアルゴリズムの交互方向法を提案し、次いでHBF最適化のための最大化最小化(MM)ベースのアルゴリズムを用いる。 学習ネットワークを学習するために,ノイズチャネルを入力としてシミュレートし,提案するアルゴリズムで計算したハイブリッドビームフォーマをターゲットとして選択する。 その結果、どちらの学習ベーススキームもより堅牢なHBF性能を実現し、直交マッチング追従(OMP)アルゴリズムと比較して少なくとも22.1%高いスペクトル効率を達成することができた。 さらに,提案手法のオンライン予測時間は,OMP方式の約20倍高速である。 さらに、EMM-HBFの訓練時間は、CNN-HBFの約600倍の速さで、送信アンテナは64である。

Millimeter Wave (mmWave) communications with full-duplex (FD) have the potential of increasing the spectral efficiency, relative to those with half-duplex. However, the residual self-interference (SI) from FD and high pathloss inherent to mmWave signals may degrade the system performance. Meanwhile, hybrid beamforming (HBF) is an efficient technology to enhance the channel gain and mitigate interference with reasonable complexity. However, conventional HBF approaches for FD mmWave systems are based on optimization processes, which are either too complex or strongly rely on the quality of channel state information (CSI). We propose two learning schemes to design HBF for FD mmWave systems, i.e., extreme learning machine based HBF (ELM-HBF) and convolutional neural networks based HBF (CNN-HBF). Specifically, we first propose an alternating direction method of multipliers (ADMM) based algorithm to achieve SI cancellation beamforming, and then use a majorization-minimization (MM) based algorithm for joint transmitting and receiving HBF optimization. To train the learning networks, we simulate noisy channels as input, and select the hybrid beamformers calculated by proposed algorithms as targets. Results show that both learning based schemes can provide more robust HBF performance and achieve at least 22.1% higher spectral efficiency compared to orthogonal matching pursuit (OMP) algorithms. Besides, the online prediction time of proposed learning based schemes is almost 20 times faster than the OMP scheme. Furthermore, the training time of ELM-HBF is about 600 times faster than that of CNN-HBF with 64 transmitting and receiving antennas.
翻訳日:2022-12-12 21:18:59 公開日:2020-04-16
# 離散エネルギー最小化のための二重ブロック座標昇華法の分類

Taxonomy of Dual Block-Coordinate Ascent Methods for Discrete Energy Minimization ( http://arxiv.org/abs/2004.07715v1 )

ライセンス: Link先を確認
Siddharth Tourani, Alexander Shekhovtsov, Carsten Rother, Bogdan Savchynskyy(参考訳) 離散グラフィカルモデルにおける最大ポストエリリ推定問題を考察し,双対ブロック座標昇降則に基づく解法を考察する。 既存のすべてのソルバを単一のフレームワークにマップすることで、設計原則をより理解できるようになります。 理論的には、いくつかのブロック最適化更新はサブ最適化であり、それらを厳密に改善する方法を示す。 様々なグラフ接続の幅広い問題事例について,既存の解法およびフレームワーク内で得られる新しい変法の性能について検討する。 この調査の結果、私たちは新しい最先端のアートソルバを構築し、テストインスタンスの全範囲で均一にパフォーマンスを向上しました。

We consider the maximum-a-posteriori inference problem in discrete graphical models and study solvers based on the dual block-coordinate ascent rule. We map all existing solvers in a single framework, allowing for a better understanding of their design principles. We theoretically show that some block-optimizing updates are sub-optimal and how to strictly improve them. On a wide range of problem instances of varying graph connectivity, we study the performance of existing solvers as well as new variants that can be obtained within the framework. As a result of this exploration we build a new state-of-the art solver, performing uniformly better on the whole range of test instances.
翻訳日:2022-12-12 21:12:33 公開日:2020-04-16
# 行列とテンソルのスペクトル学習

Spectral Learning on Matrices and Tensors ( http://arxiv.org/abs/2004.07984v1 )

ライセンス: Link先を確認
Majid Janzamin, Rong Ge, Jean Kossaifi and Anima Anandkumar(参考訳) スペクトル法は、機械学習や科学計算など、いくつかの領域で主流となっている。 それらは、ある種類のスペクトル分解を見つけ、手元にある問題に対する重要な構造を捉える基礎関数を得る。 最も一般的なスペクトル法は主成分分析(PCA)である。 データの共分散行列の最上位固有ベクトル(例えば、次元の縮小を行う)を利用する。 このデータ前処理ステップは、しばしばノイズから信号を切り離すのに効果的である。 PCAや他のスペクトル技術はいくつかの制限がある。 ペアワイズモーメントのみに制限することで、基礎となるデータに対してガウス近似を効果的に行い、非ガウス性につながる隠れた変数を持つデータに失敗する。 しかし、ほとんどのデータセットでは、文書コーパス内のトピックや疾患の根本原因など、直接観察できない潜伏効果がある。 スペクトル分解法を高次モーメントに拡張することにより,様々な潜在変数モデルを効率的に学習できることを示す。 高階モーメントはテンソルで表現でき、直感的には単にペアワイズモーメント行列よりも多くの情報を符号化できる。 より重要なことに、テンソル分解は行列法で見逃される潜在効果(例えば一意に非直交成分を識別するなど)を拾うことができる。 これらの側面の活用は、幅広い潜在変数モデルの教師なし学習が証明可能な実りあることが判明した。 また,効率的なテンソル分解法を設計するための計算手法について概説する。 テンソル演算を表現するためのシンプルなpythonインターフェースを持つtensorlyを紹介する。 NumPy、PyTorch、TensorFlow、MXNetなどをサポートするフレキシブルなバックエンドシステムを備えており、マルチGPUとCPU操作、ディープラーニング機能とのシームレスな統合を可能にする。

Spectral methods have been the mainstay in several domains such as machine learning and scientific computing. They involve finding a certain kind of spectral decomposition to obtain basis functions that can capture important structures for the problem at hand. The most common spectral method is the principal component analysis (PCA). It utilizes the top eigenvectors of the data covariance matrix, e.g. to carry out dimensionality reduction. This data pre-processing step is often effective in separating signal from noise. PCA and other spectral techniques applied to matrices have several limitations. By limiting to only pairwise moments, they are effectively making a Gaussian approximation on the underlying data and fail on data with hidden variables which lead to non-Gaussianity. However, in most data sets, there are latent effects that cannot be directly observed, e.g., topics in a document corpus, or underlying causes of a disease. By extending the spectral decomposition methods to higher order moments, we demonstrate the ability to learn a wide range of latent variable models efficiently. Higher-order moments can be represented by tensors, and intuitively, they can encode more information than just pairwise moment matrices. More crucially, tensor decomposition can pick up latent effects that are missed by matrix methods, e.g. uniquely identify non-orthogonal components. Exploiting these aspects turns out to be fruitful for provable unsupervised learning of a wide range of latent variable models. We also outline the computational techniques to design efficient tensor decomposition methods. We introduce Tensorly, which has a simple python interface for expressing tensor operations. It has a flexible back-end system supporting NumPy, PyTorch, TensorFlow and MXNet amongst others, allowing multi-GPU and CPU operations and seamless integration with deep-learning functionalities.
翻訳日:2022-12-12 21:11:40 公開日:2020-04-16
# トップダウンネットワーク:CNNの粗大な再想像

Top-Down Networks: A coarse-to-fine reimagination of CNNs ( http://arxiv.org/abs/2004.07629v1 )

ライセンス: Link先を確認
Ioannis Lelekas, Nergis Tomen, Silvia L. Pintea and Jan C. van Gemert(参考訳) 生体視覚は、視覚シーンの突出した特徴の最初の視覚検出と結合から、関連する刺激による強化および優先的な処理まで、粗雑な情報処理経路を採用する。 逆にcnnは、局所的なエッジ検出フィルタから、入力の抽象表現を抽出するよりグローバルな処理へと、細かな対コア処理を採用している。 本稿では,標準ボトムアップアーキテクチャの特徴抽出部分を逆転させ,それらを逆逆転させる:トップダウンネットワークを提案する。 提案手法は,高周波数情報を曖昧にし,後段のみ復元することで,高周波数ノイズを発生させる敵対的攻撃に対する防御線を提供する。 さらに,画像の解像度を奥行きで増やすことで,最終畳み込み層における特徴マップの高分解能がネットワークの意思決定プロセスの説明性に寄与する。 これにより、コンテキスト駆動型よりもオブジェクト駆動決定が好まれるので、ローカライズされたクラスアクティベーションマップがより良く提供されます。 本稿では,複数タスクの既存アーキテクチャに対するトップダウン解像度処理の適用性に関する実証的証拠を提供する。

Biological vision adopts a coarse-to-fine information processing pathway, from initial visual detection and binding of salient features of a visual scene, to the enhanced and preferential processing given relevant stimuli. On the contrary, CNNs employ a fine-to-coarse processing, moving from local, edge-detecting filters to more global ones extracting abstract representations of the input. In this paper we reverse the feature extraction part of standard bottom-up architectures and turn them upside-down: We propose top-down networks. Our proposed coarse-to-fine pathway, by blurring higher frequency information and restoring it only at later stages, offers a line of defence against adversarial attacks that introduce high frequency noise. Moreover, since we increase image resolution with depth, the high resolution of the feature map in the final convolutional layer contributes to the explainability of the network's decision making process. This favors object-driven decisions over context driven ones, and thus provides better localized class activation maps. This paper offers empirical evidence for the applicability of the top-down resolution processing to various existing architectures on multiple visual tasks.
翻訳日:2022-12-12 21:11:13 公開日:2020-04-16
# 半教師付き連続学習のためのラベル伝搬適応共鳴理論

Label Propagation Adaptive Resonance Theory for Semi-supervised Continuous Learning ( http://arxiv.org/abs/2005.02137v1 )

ライセンス: Link先を確認
Taehyeong Kim, Injune Hwang, Gi-Cheon Kang, Won-Seok Choi, Hyunseo Kim, Byoung-Tak Zhang(参考訳) 半教師付き学習と継続的学習は人間レベルの知能の基本的なパラダイムである。 ラベルがほとんど与えられず、同じデータにアクセスする機会が限られている現実世界の問題に対処するには、これら2つのパラダイムを連携して適用する必要がある。 本稿では,半教師付き連続学習のためのラベル伝搬適応共振理論(LPART)を提案する。 LPARTは、オンラインラベル伝搬機構を使用して分類を行い、観測データが蓄積されるにつれて、その精度を徐々に向上させる。 ラベル付きデータとラベルなしデータの比率を調整し,視覚モデル(MNIST,SVHN,CIFAR-10)と音声データセット(NSynth)を比較した。 ラベル付きデータとラベルなしデータの両方を使用する場合、アキュラシーははるかに高く、ラベルが不足している環境ではLPARTの顕著なアドバンテージを示す。

Semi-supervised learning and continuous learning are fundamental paradigms for human-level intelligence. To deal with real-world problems where labels are rarely given and the opportunity to access the same data is limited, it is necessary to apply these two paradigms in a joined fashion. In this paper, we propose Label Propagation Adaptive Resonance Theory (LPART) for semi-supervised continuous learning. LPART uses an online label propagation mechanism to perform classification and gradually improves its accuracy as the observed data accumulates. We evaluated the proposed model on visual (MNIST, SVHN, CIFAR-10) and audio (NSynth) datasets by adjusting the ratio of the labeled and unlabeled data. The accuracies are much higher when both labeled and unlabeled data are used, demonstrating the significant advantage of LPART in environments where the data labels are scarce.
翻訳日:2022-12-12 21:10:35 公開日:2020-04-16
# 幾何学知能の組織化原理としての対称性

Symmetry as an Organizing Principle for Geometric Intelligence ( http://arxiv.org/abs/2004.07879v1 )

ライセンス: Link先を確認
Snejana Sheghava and Ashok Goel(参考訳) 幾何学的パターンの探索は想像力を刺激し、人間の知性の特徴である抽象的推論を促進する。 認知科学において、対称性などのゲシュタルト原理は、しばしば人間の知覚の重要な側面を説明する。 本稿では,Dehaeneの幾何学的知性テストに対処するための組織原理として対称性を用いた人工知能エージェントを構築するための計算手法を提案する。 我々のモデルの性能は、Dehaeneのテストにおける問題解決のAIモデルと同等であり、同じテストにおける人間の振る舞いのいくつかの要素と相関しているように見える。

The exploration of geometrical patterns stimulates imagination and encourages abstract reasoning which is a distinctive feature of human intelligence. In cognitive science, Gestalt principles such as symmetry have often explained significant aspects of human perception. We present a computational technique for building artificial intelligence (AI) agents that use symmetry as the organizing principle for addressing Dehaene's test of geometric intelligence \cite{dehaene2006core}. The performance of our model is on par with extant AI models of problem solving on the Dehaene's test and seems correlated with some elements of human behavior on the same test.
翻訳日:2022-12-12 21:01:48 公開日:2020-04-16
# 医用データにおける特徴選択と離散化技術を用いた学習者のパフォーマンス向上のための多目的進化的アプローチ

Multi-Objective Evolutionary approach for the Performance Improvement of Learners using Ensembling Feature selection and Discretization Technique on Medical data ( http://arxiv.org/abs/2004.07478v1 )

ライセンス: Link先を確認
Deepak Singh, Dilip Singh Sisodia, Pradeep Singh(参考訳) 生物医学的データは連続的な実数値で満たされており、これらの特徴集合の値は、不適合や次元の呪い、分散度が高いため誤分類率の増加といった問題を引き起こす傾向がある。 これに対し、データセットの事前処理技術は副作用を最小限に抑え、適切な精度を維持することに成功した。 特徴の選択と離散化は、バイオメディカルデータのデータの冗長性を扱うために効果的に用いられた2つの前処理ステップである。 しかし、従来の研究では、データ冗長性の問題を解決するために特徴選択と離散化を統合した統一的な努力が欠如しており、不連続で断片化された分野に繋がる。 本稿では,特徴選択と離散化を行うアンサンブルモデルとして,離散化と特徴縮小の両方を組み込んだ,新しい多目的ベース次元低減フレームワークを提案する。 多目的遺伝的アルゴリズム(NSGA-II)により、最適な特徴の選択と特徴サブセットからの識別・非識別特徴の分類が制御される。 2つの目的は、特徴選択中の誤り率を最小化し、離散化をしながら情報ゲインを最大化することである。

Biomedical data is filled with continuous real values; these values in the feature set tend to create problems like underfitting, the curse of dimensionality and increase in misclassification rate because of higher variance. In response, pre-processing techniques on dataset minimizes the side effects and have shown success in maintaining the adequate accuracy. Feature selection and discretization are the two necessary preprocessing steps that were effectively employed to handle the data redundancies in the biomedical data. However, in the previous works, the absence of unified effort by integrating feature selection and discretization together in solving the data redundancy problem leads to the disjoint and fragmented field. This paper proposes a novel multi-objective based dimensionality reduction framework, which incorporates both discretization and feature reduction as an ensemble model for performing feature selection and discretization. Selection of optimal features and the categorization of discretized and non-discretized features from the feature subset is governed by the multi-objective genetic algorithm (NSGA-II). The two objective, minimizing the error rate during the feature selection and maximizing the information gain while discretization is considered as fitness criteria.
翻訳日:2022-12-12 21:01:39 公開日:2020-04-16
# 多カテゴリ分類のための非並列超平面分類器

Nonparallel Hyperplane Classifiers for Multi-category Classification ( http://arxiv.org/abs/2004.07512v1 )

ライセンス: Link先を確認
Pooja Saigal, Reshma Khemchandani(参考訳) サポートベクトルマシン(SVM)は、分類と回帰問題を解決するために広く使われている。 近年,SVMと比較した場合の分類精度に匹敵するが,計算効率が向上する,様々な非並列超平面分類アルゴリズム (NHCA) が提案されている。 これらのNHCAはもともと二項分類問題に対して提案されている。 実世界の分類問題の多くは複数のクラスを扱うため、これらのアルゴリズムは多カテゴリシナリオで拡張される。 本稿では,TWSVM(Twin SVM),GEPSVM(Generalized eigenvalue proximal SVM),正規化GEPSVM(RegGEPSVM),改良GEPSVM(IGEPSVM)の4つのNHCAの比較検討を行った。 nhca分類器のマルチカテゴリ分類アルゴリズムをoneagainst-all(oaa)、bt(binary tree-based)、tds(ternary decision structure)を用いて実装し、ベンチマークuciデータセットを用いて実験を行った。 実験の結果、TDS-TWSVMは分類精度で他の手法よりも優れており、BT-RegGEPSVMは分類器を構築するのに最低時間を要することがわかった。

Support vector machines (SVMs) are widely used for solving classification and regression problems. Recently, various nonparallel hyperplanes classification algorithms (NHCAs) have been proposed, which are comparable in terms of classification accuracy when compared with SVM but are computationally more efficient. All these NHCAs are originally proposed for binary classification problems. Since, most of the real world classification problems deal with multiple classes, these algorithms are extended in multi-category scenario. In this paper, we present a comparative study of four NHCAs i.e. Twin SVM (TWSVM), Generalized eigenvalue proximal SVM (GEPSVM), Regularized GEPSVM (RegGEPSVM) and Improved GEPSVM (IGEPSVM)for multi-category classification. The multi-category classification algorithms for NHCA classifiers are implemented using OneAgainst-All (OAA), binary tree-based (BT) and ternary decision structure (TDS) approaches and the experiments are performed on benchmark UCI datasets. The experimental results show that TDS-TWSVM outperforms other methods in terms of classification accuracy and BT-RegGEPSVM takes the minimum time for building the classifier
翻訳日:2022-12-12 21:01:19 公開日:2020-04-16
# 不均衡データに対する多元的重み付き多数決分類器

Diversity-Aware Weighted Majority Vote Classifier for Imbalanced Data ( http://arxiv.org/abs/2004.07605v1 )

ライセンス: Link先を確認
Anil Goyal and Jihed Khiari(参考訳) 本稿では,不均衡なバイナリ分類タスクを扱うために,damviと呼ばれる多様性を考慮したアンサンブル学習に基づくアルゴリズムを提案する。 特に、ベース分類器を学習した後、アルゴリズムは i) 一様重み付き基底分類器に分類するために「固い」正の例(マイノリティ類)の重みを増すこと。 ii) 分類器間の精度と多様性を考慮したpac-ベイズ c-バウンドを最適化することにより、基本分類器上の重みを学習する。 予測メンテナンスタスク,クレジットカード不正検出,webページ分類,医療応用に関する最先端モデルに関して,提案手法の有効性を示す。

In this paper, we propose a diversity-aware ensemble learning based algorithm, referred to as DAMVI, to deal with imbalanced binary classification tasks. Specifically, after learning base classifiers, the algorithm i) increases the weights of positive examples (minority class) which are "hard" to classify with uniformly weighted base classifiers; and ii) then learns weights over base classifiers by optimizing the PAC-Bayesian C-Bound that takes into account the accuracy and diversity between the classifiers. We show efficiency of the proposed approach with respect to state-of-art models on predictive maintenance task, credit card fraud detection, webpage classification and medical applications.
翻訳日:2022-12-12 21:00:22 公開日:2020-04-16
# ニューラルネットワークのロバスト性を考慮したハイブリッド目的関数 -機械系のパラメータ推定-

A Hybrid Objective Function for Robustness of Artificial Neural Networks -- Estimation of Parameters in a Mechanical System ( http://arxiv.org/abs/2004.07692v1 )

ライセンス: Link先を確認
Jan Sokolowski, Volker Schulz, Udo Schr\"oder, Hans-Peter Beise(参考訳) いくつかの研究で、ハイブリッドニューラルネットワークは、平易なデータ駆動ニューラルネットワークよりもノイズの多い入力データに対してより堅牢であることが証明されている。 本稿では,加速度プロファイルに基づく機械車両モデルのパラメータ推定作業について考察する。 本稿では,未知のパラメータが異なる車種モデルのパラメータを予測可能な畳み込みニューラルネットワークアーキテクチャを提案する。 逐次データによって基礎となるデータのダイナミクスのパラメータを予測できる畳み込みニューラルネットワークアーキテクチャを導入する。 このネットワークは2つの目的関数で訓練される。 第一に、真のパラメータが知られていると仮定するより単純なアプローチを構成する。 第二の目的は、基礎となる力学の知識を取り入れ、それゆえにハイブリッドアプローチと見なされる。 頑健性という意味では,後者がノイズ入力データに対する最初の目標を上回っていることを示す。

In several studies, hybrid neural networks have proven to be more robust against noisy input data compared to plain data driven neural networks. We consider the task of estimating parameters of a mechanical vehicle model based on acceleration profiles. We introduce a convolutional neural network architecture that is capable to predict the parameters for a family of vehicle models that differ in the unknown parameters. We introduce a convolutional neural network architecture that given sequential data predicts the parameters of the underlying data's dynamics. This network is trained with two objective functions. The first one constitutes a more naive approach that assumes that the true parameters are known. The second objective incorporates the knowledge of the underlying dynamics and is therefore considered as hybrid approach. We show that in terms of robustness, the latter outperforms the first objective on noisy input data.
翻訳日:2022-12-12 20:59:50 公開日:2020-04-16
# marleme:マルチエージェント強化学習モデル抽出ライブラリ

MARLeME: A Multi-Agent Reinforcement Learning Model Extraction Library ( http://arxiv.org/abs/2004.07928v1 )

ライセンス: Link先を確認
Dmitry Kazhdan, Zohreh Shams, Pietro Li\`o(参考訳) MARL(Multi-Agent Reinforcement Learning)は、様々な分野に適用された強力な方法論を包含する。 これらの方法論をさらに力づける効果的な方法は、解釈可能性と説明可能性を広げるライブラリやツールを開発することである。 本稿では,marleme: marlモデル抽出ライブラリについて紹介する。marlシステムの説明性を改善するために設計され,それを記号モデルで近似する。 記号モデルは高い解釈可能性、明確に定義された性質、検証可能な振る舞いを提供する。 その結果、基礎となるMARLシステムと対応するMARLエージェントを検査し、よりよく理解することができ、特に安全性とセキュリティに重要なエージェントを置き換えることができる。

Multi-Agent Reinforcement Learning (MARL) encompasses a powerful class of methodologies that have been applied in a wide range of fields. An effective way to further empower these methodologies is to develop libraries and tools that could expand their interpretability and explainability. In this work, we introduce MARLeME: a MARL model extraction library, designed to improve explainability of MARL systems by approximating them with symbolic models. Symbolic models offer a high degree of interpretability, well-defined properties, and verifiable behaviour. Consequently, they can be used to inspect and better understand the underlying MARL system and corresponding MARL agents, as well as to replace all/some of the agents that are particularly safety and security critical.
翻訳日:2022-12-12 20:54:12 公開日:2020-04-16
# Evidence Counterfactualによる説明可能な画像分類

Explainable Image Classification with Evidence Counterfactual ( http://arxiv.org/abs/2004.07511v1 )

ライセンス: Link先を確認
Tom Vermeire, David Martens(参考訳) 画像分類のための最先端モデリング技術の複雑さは、解釈可能な方法でモデル予測を説明する能力を妨げている。 既存の説明方法は一般に、ピクセルまたはピクセルグループの観点から重要度ランキングを作成する。 しかし、得られた説明には最適なサイズがなく、機能依存を考慮せず、1つのクラスにのみ関係している。 反事実的説明法は、高い人間の解釈可能性と関連しているため、複雑なモデル決定を説明するのに有望であると考えられている。 本稿では,画像分類のためのモデル非依存なインスタンスレベル説明法としてsedcを導入した。 ある画像に対して、SEDCは、削除された場合、分類を変更する小さなセグメントの集合を検索する。 画像分類タスクは、通常、マルチクラス問題であるので、SEDC-Tはターゲットの偽物クラスを指定できる代替手法として提案される。 我々は,SEDC(-T) と LRP, LIME, SHAP などの特徴重要度評価手法を比較し, 上記の重要度ランキング問題にどう対処するかを述べる。 さらに,(1)信頼と洞察を得るためのアプローチの可能性,(2)誤分類を説明することによってモデル改善のためのインプットを得るための具体的な例と実験を行った。

The complexity of state-of-the-art modeling techniques for image classification impedes the ability to explain model predictions in an interpretable way. Existing explanation methods generally create importance rankings in terms of pixels or pixel groups. However, the resulting explanations lack an optimal size, do not consider feature dependence and are only related to one class. Counterfactual explanation methods are considered promising to explain complex model decisions, since they are associated with a high degree of human interpretability. In this paper, SEDC is introduced as a model-agnostic instance-level explanation method for image classification to obtain visual counterfactual explanations. For a given image, SEDC searches a small set of segments that, in case of removal, alters the classification. As image classification tasks are typically multiclass problems, SEDC-T is proposed as an alternative method that allows specifying a target counterfactual class. We compare SEDC(-T) with popular feature importance methods such as LRP, LIME and SHAP, and we describe how the mentioned importance ranking issues are addressed. Moreover, concrete examples and experiments illustrate the potential of our approach (1) to obtain trust and insight, and (2) to obtain input for model improvement by explaining misclassifications.
翻訳日:2022-12-12 20:54:00 公開日:2020-04-16
# 拡張Kronecker-factored Approximate Curvatureによる連続学習

Continual Learning with Extended Kronecker-factored Approximate Curvature ( http://arxiv.org/abs/2004.07507v1 )

ライセンス: Link先を確認
Janghyeon Lee, Hyeong Gwon Hong, Donggyu Joo, Junmo Kim(参考訳) 本稿では,バッチ正規化(BN)層を含むニューラルネットワークの連続学習のための2次ペナルティ手法を提案する。 損失関数の Hessian は2次ペナルティ関数の曲率を表し、Kronecker による近似曲率 (K-FAC) はニューラルネットワークの Hessian を実用的に計算するために広く用いられる。 しかし、この近似は、ディープネットワークアーキテクチャにおけるBN層によって引き起こされる例間に依存性がある場合、有効ではない。 我々は、K-FAC法を拡張し、サンプル間関係を考慮し、ディープニューラルネットワークのヘシアンを実用的な仮定で適切に近似することができる。 また、bnとの連続学習において重要な役割を果たすbnの統計パラメータを適切に扱うための重みのマージと再パラメータ化の手法と、ソースタスクデータ無しでハイパーパラメータを選択する手法を提案する。 本手法は,bn層を持つ置換mnistタスクおよびimagenet分類タスクからresnet-50による細粒度分類タスクへの逐次学習において,ハイパーパラメータ選択のためのソースタスクデータや暗黙的な使用をすることなく,ベースラインよりも優れた性能を示す。

We propose a quadratic penalty method for continual learning of neural networks that contain batch normalization (BN) layers. The Hessian of a loss function represents the curvature of the quadratic penalty function, and a Kronecker-factored approximate curvature (K-FAC) is used widely to practically compute the Hessian of a neural network. However, the approximation is not valid if there is dependence between examples, typically caused by BN layers in deep network architectures. We extend the K-FAC method so that the inter-example relations are taken into account and the Hessian of deep neural networks can be properly approximated under practical assumptions. We also propose a method of weight merging and reparameterization to properly handle statistical parameters of BN, which plays a critical role for continual learning with BN, and a method that selects hyperparameters without source task data. Our method shows better performance than baselines in the permuted MNIST task with BN layers and in sequential learning from the ImageNet classification task to fine-grained classification tasks with ResNet-50, without any explicit or implicit use of source task data for hyperparameter selection.
翻訳日:2022-12-12 20:53:05 公開日:2020-04-16
# MPLP++: 複雑なグラフィカルモデルのための高速で並列なデュアルブロック座標

MPLP++: Fast, Parallel Dual Block-Coordinate Ascent for Dense Graphical Models ( http://arxiv.org/abs/2004.08227v1 )

ライセンス: Link先を確認
Siddharth Tourani, Alexander Shekhovtsov, Carsten Rother, Bogdan Savchynskyy(参考訳) ペアワイズポテンシャルを持つ高密度で離散的なグラフィカルモデル(英語版)は、最先端のコンピュータビジョンやバイオイメージングアプリケーションで使用される強力なモデルのクラスである。 本研究は,dual block-coordinate ascent 原理に基づく新しいマップソルバを提案する。 驚いたことに、性能の低い解法であるMPLP(Max Product Linear Programming)アルゴリズムに小さな変更を加えることで、最先端の解法であるTree-Reweighted Sequential(TRWS)メッセージパスアルゴリズムを含む、既存の解法を著しく上回る新しい解法MPLP++を導出する。 さらに、提案したGPUとマルチスレッドCPUの実装によりパフォーマンスがさらに向上するTRWSとは対照的に、当社のソルバは極めて並列である。 我々は,公開ベンチマークの高密度な問題に対するアルゴリズムの優位性を検証し,新しい6次元オブジェクトポース推定ベンチマークを提案する。 また,グラフ密度に関するアブレーション研究も行った。

Dense, discrete Graphical Models with pairwise potentials are a powerful class of models which are employed in state-of-the-art computer vision and bio-imaging applications. This work introduces a new MAP-solver, based on the popular Dual Block-Coordinate Ascent principle. Surprisingly, by making a small change to the low-performing solver, the Max Product Linear Programming (MPLP) algorithm, we derive the new solver MPLP++ that significantly outperforms all existing solvers by a large margin, including the state-of-the-art solver Tree-Reweighted Sequential (TRWS) message-passing algorithm. Additionally, our solver is highly parallel, in contrast to TRWS, which gives a further boost in performance with the proposed GPU and multi-thread CPU implementations. We verify the superiority of our algorithm on dense problems from publicly available benchmarks, as well, as a new benchmark for 6D Object Pose estimation. We also provide an ablation study with respect to graph density.
翻訳日:2022-12-12 20:52:40 公開日:2020-04-16
# ランダム重み推定を用いた強化学習ベンチマークの解析

Analyzing Reinforcement Learning Benchmarks with Random Weight Guessing ( http://arxiv.org/abs/2004.07707v1 )

ライセンス: Link先を確認
Declan Oller, Tobias Glasmachers, Giuseppe Cuccu(参考訳) スコア分布に基づく標準強化学習(RL)ベンチマークの複雑さを解析・可視化する新しい手法を提案する。 パラメータをランダムに推測し、ベンチマークタスクで評価することで、多数のポリシーネットワークが生成される。 本手法は,学習の側方ステップによる評価の客観性を保証する: 確率的重み推定 (rwg) を用いてポリシーネットワークパラメータが生成され, 評価の客観性を保証する。 (i)古典的なRLセットアップ (ii)学習アルゴリズム、及び (iii)ハイパーパラメータチューニング。 このアプローチは, 環境の複雑さを分離し, 課題の種類を強調し, 課題の難易度を統計的に解析するための適切な基盤を提供する。 我々は、OpenAI Gymの様々な古典的な制御ベンチマークでアプローチをテストし、そこでは、訓練されていない小さなネットワークが様々なタスクに対して堅牢なベースラインを提供することを示す。 ネットワークが生成するパフォーマンスは、段階的な学習がなくてもよく、いくつかの人気のあるベンチマークの自明さを強調している。

We propose a novel method for analyzing and visualizing the complexity of standard reinforcement learning (RL) benchmarks based on score distributions. A large number of policy networks are generated by randomly guessing their parameters, and then evaluated on the benchmark task; the study of their aggregated results provide insights into the benchmark complexity. Our method guarantees objectivity of evaluation by sidestepping learning altogether: the policy network parameters are generated using Random Weight Guessing (RWG), making our method agnostic to (i) the classic RL setup, (ii) any learning algorithm, and (iii) hyperparameter tuning. We show that this approach isolates the environment complexity, highlights specific types of challenges, and provides a proper foundation for the statistical analysis of the task's difficulty. We test our approach on a variety of classic control benchmarks from the OpenAI Gym, where we show that small untrained networks can provide a robust baseline for a variety of tasks. The networks generated often show good performance even without gradual learning, incidentally highlighting the triviality of a few popular benchmarks.
翻訳日:2022-12-12 20:44:50 公開日:2020-04-16
# 少数ショット画像分類のためのダイバージェント探索

Divergent Search for Few-Shot Image Classification ( http://arxiv.org/abs/2004.07903v1 )

ライセンス: Link先を確認
Jeremy Tan and Bernhard Kainz(参考訳) データがラベル解除され、対象タスクが事前に分かっていない場合、ダイバージェント検索は幅広いスキルを学ぶための戦略を提供する。 このようなレパートリーを持つことで、システムは新しい予期せぬタスクに適応できる。 ラベルなしの画像データは豊富だが、ダウンストリームタスクにどの機能が必要とされるかは必ずしも分かっていない。 本稿では,小画像分類設定における発散探索法を提案し,omniglotとmini-imagenetを用いて評価する。 この高次元の振る舞い空間は、データを分割するあらゆる可能な方法を含んでいる。 この領域で分岐探索を管理するために、多様なタスクから有用な機能を単一のモデルに統合するメタラーニングフレームワークを利用する。 このモデルの最終的なレイヤは、過去のすべての振る舞いの‘archive’へのインデックスとして使用される。 我々は,現在のアーカイブが到達できない行動空間内の領域を探索する。 予想通り、分岐探索は、評価タスクに対する強いバイアスを持つモデルにより性能が向上する。 しかし、対象とするタスクに対してバイアスが弱いモデルのパフォーマンスをマッチさせ、時には超えます。 これは、高次元の挙動空間においても、発散探索が実現可能なアプローチであることを示している。

When data is unlabelled and the target task is not known a priori, divergent search offers a strategy for learning a wide range of skills. Having such a repertoire allows a system to adapt to new, unforeseen tasks. Unlabelled image data is plentiful, but it is not always known which features will be required for downstream tasks. We propose a method for divergent search in the few-shot image classification setting and evaluate with Omniglot and Mini-ImageNet. This high-dimensional behavior space includes all possible ways of partitioning the data. To manage divergent search in this space, we rely on a meta-learning framework to integrate useful features from diverse tasks into a single model. The final layer of this model is used as an index into the `archive' of all past behaviors. We search for regions in the behavior space that the current archive cannot reach. As expected, divergent search is outperformed by models with a strong bias toward the evaluation tasks. But it is able to match and sometimes exceed the performance of models that have a weak bias toward the target task or none at all. This demonstrates that divergent search is a viable approach, even in high-dimensional behavior spaces.
翻訳日:2022-12-12 20:43:50 公開日:2020-04-16
# LEAN-LIFE:説明から学ぶためのラベル有効アノテーションフレームワーク

LEAN-LIFE: A Label-Efficient Annotation Framework Towards Learning from Explanation ( http://arxiv.org/abs/2004.07499v1 )

ライセンス: Link先を確認
Dong-Ho Lee, Rahul Khanna, Bill Yuchen Lin, Jamin Chen, Seyeon Lee, Qinyuan Ye, Elizabeth Boschee, Leonardo Neves, Xiang Ren(参考訳) ディープニューラルネットワークのトレーニングに成功すると、ラベル付きデータの巨大なコーパスが要求される。 しかし、各ラベルは、必要なラベルの数を収集し学習するための限られた情報しか提供しない。 本研究では,Web ベースでシーケンスラベリングおよび分類タスクのためのラベル効率の良い AnnotatioN フレームワークである LEAN-LIFE を紹介し,アノテータがタスクに必要なラベルを提供するだけでなく,ラベル決定毎にLearningIng From Explanations を可能にする。 このような説明により、ラベルのないインスタンスから有用なラベル付きデータを生成し、利用可能なトレーニングデータのプールを強化することができます。 一般的な3つのNLPタスク(エンティティ認識、関係抽出、感情分析)において、この強化されたインスペクションを使用することで、モデルがラベル付きインスタンスを2倍少なくしながら、競合するベースラインF1スコアを5~10ポイント以上越えることができることがわかった。 私たちのフレームワークは、この強化された監督テクニックを最初に利用し、3つの重要なタスク -- により、ユーザにアノテーションの推奨を改善し、通常の(データ、ラベル、説明)ペアの代わりに(データ、ラベル)トリプルのデータセットを構築する機能を提供します。

Successfully training a deep neural network demands a huge corpus of labeled data. However, each label only provides limited information to learn from and collecting the requisite number of labels involves massive human effort. In this work, we introduce LEAN-LIFE, a web-based, Label-Efficient AnnotatioN framework for sequence labeling and classification tasks, with an easy-to-use UI that not only allows an annotator to provide the needed labels for a task, but also enables LearnIng From Explanations for each labeling decision. Such explanations enable us to generate useful additional labeled data from unlabeled instances, bolstering the pool of available training data. On three popular NLP tasks (named entity recognition, relation extraction, sentiment analysis), we find that using this enhanced supervision allows our models to surpass competitive baseline F1 scores by more than 5-10 percentage points, while using 2X times fewer labeled instances. Our framework is the first to utilize this enhanced supervision technique and does so for three important tasks -- thus providing improved annotation recommendations to users and an ability to build datasets of (data, label, explanation) triples instead of the regular (data, label) pair.
翻訳日:2022-12-12 20:43:35 公開日:2020-04-16
# テキスト分類のための軽量CNN

Light-Weighted CNN for Text Classification ( http://arxiv.org/abs/2004.07922v1 )

ライセンス: Link先を確認
Ritu Yadav(参考訳) 管理には、ドキュメントを特定のカテゴリに分類し、それを行うために、ほとんどの組織は手作業を使用する。 今日の自動化の時代では、そのようなタスクに対する手作業は正当化されておらず、これを避けるために、市場にはたくさんのソフトウェアがあります。 しかし、効率性と資源消費の最小化が、競争の焦点となっている。 このような文書を機械によって特定のクラスに分類することは、優れた助けとなる。 分類手法の1つは畳み込みニューラルネットワーク(textcnn)を用いたテキスト分類である。 TextCNNは、Googlenetで導入された開始層のように、フィルタのサイズを多用している。 ネットワークは高い精度を提供するが、多くのトレーニング可能なパラメータのために高いメモリ消費を引き起こす。 この問題に対する解決策として,分離可能な畳み込みに基づくまったく新しいアーキテクチャを導入しました。 分離可能な畳み込みの概念は、画像分類の分野では既に存在するが、テキスト分類タスクにはまだ導入されていない。 このアーキテクチャの助けを借りれば、トレーニング可能なパラメータを大幅に削減することができます。

For management, documents are categorized into a specific category, and to do these, most of the organizations use manual labor. In today's automation era, manual efforts on such a task are not justified, and to avoid this, we have so many software out there in the market. However, efficiency and minimal resource consumption is the focal point which is also creating a competition. The categorization of such documents into specified classes by machine provides excellent help. One of categorization technique is text classification using a Convolutional neural network(TextCNN). TextCNN uses multiple sizes of filters, as in the case of the inception layer introduced in Googlenet. The network provides good accuracy but causes high memory consumption due to a large number of trainable parameters. As a solution to this problem, we introduced a whole new architecture based on separable convolution. The idea of separable convolution already exists in the field of image classification but not yet introduces to text classification tasks. With the help of this architecture, we can achieve a drastic reduction in trainable parameters.
翻訳日:2022-12-12 20:42:53 公開日:2020-04-16
# 部分軌道データに基づく目的地予測

Destination Prediction Based on Partial Trajectory Data ( http://arxiv.org/abs/2004.07473v1 )

ライセンス: Link先を確認
Patrick Ebel, Ibrahim Emre G\"ol, Christoph Lingenfelder and Andreas Vogelsang(参考訳) 新車を買う人の3分の2は、内蔵のナビゲーションシステムの代わりに代用車を好んでいる。 しかし、多くのアプリケーションでは、ユーザの意図する目的地やルートに関する知識が不可欠である。 例えば、目的地近くで利用可能な駐車場の提案や、沿線での乗り合いの機会の確保などが可能である。 提案手法は,最新の部分軌跡と追加の文脈データに基づいて,車両の行き先や経路を予測する。 まず、$k$-dツリーベースの空間離散化が行われ、GPS位置を離散領域にマッピングする。 次に、リカレントニューラルネットワークをトレーニングし、軌道の部分的なシーケンスに基づいて目的地を予測する。 ニューラルネットワークは目的地スコアを生成し、目的地となる各領域の確率を示す。 最後に、最も確率の高い目的地へのルートを算出する。 提案手法を評価するため,複数のニューラルアーキテクチャを比較し,目的地予測の実験結果を示す。 この実験は、タクシー旅行の非パーソナライズされたタイムスタンプgpsロケーションの2つの公開データセットに基づいている。 最高性能のモデルはそれぞれ1.3kmと1.43kmの誤差で車両の目的地を予測することができた。

Two-thirds of the people who buy a new car prefer to use a substitute instead of the built-in navigation system. However, for many applications, knowledge about a user's intended destination and route is crucial. For example, suggestions for available parking spots close to the destination can be made or ride-sharing opportunities along the route are facilitated. Our approach predicts probable destinations and routes of a vehicle, based on the most recent partial trajectory and additional contextual data. The approach follows a three-step procedure: First, a $k$-d tree-based space discretization is performed, mapping GPS locations to discrete regions. Secondly, a recurrent neural network is trained to predict the destination based on partial sequences of trajectories. The neural network produces destination scores, signifying the probability of each region being the destination. Finally, the routes to the most probable destinations are calculated. To evaluate the method, we compare multiple neural architectures and present the experimental results of the destination prediction. The experiments are based on two public datasets of non-personalized, timestamped GPS locations of taxi trips. The best performing models were able to predict the destination of a vehicle with a mean error of 1.3 km and 1.43 km respectively.
翻訳日:2022-12-12 20:42:41 公開日:2020-04-16
# マルチタイムリプレイによる連続強化学習

Continual Reinforcement Learning with Multi-Timescale Replay ( http://arxiv.org/abs/2004.07530v1 )

ライセンス: Link先を確認
Christos Kaplanis, Claudia Clopath, and Murray Shanahan(参考訳) 本稿では,エージェントに未知の時間スケールで連続的に変化する環境に直面するRLエージェントの連続学習を改善するために,マルチ・タイムスケール・リプレイ(MTR)バッファを提案する。 基本MTRバッファは、異なる時間スケールで経験を蓄積するサブバッファのカスケードを含み、エージェントは新しいデータへの適応と古い知識の保持の間のトレードオフを改善する。 MTRフレームワークを不変リスク最小化と組み合わせることで、エージェントが時間とともに遭遇するさまざまな環境において堅牢なポリシーを学ぶことを奨励する。 MTR法は2つの連続制御タスクにおいて3つの連続学習条件で評価され、多くの場合、ベースラインよりも改善されている。

In this paper, we propose a multi-timescale replay (MTR) buffer for improving continual learning in RL agents faced with environments that are changing continuously over time at timescales that are unknown to the agent. The basic MTR buffer comprises a cascade of sub-buffers that accumulate experiences at different timescales, enabling the agent to improve the trade-off between adaptation to new data and retention of old knowledge. We also combine the MTR framework with invariant risk minimization, with the idea of encouraging the agent to learn a policy that is robust across the various environments it encounters over time. The MTR methods are evaluated in three different continual learning settings on two continuous control tasks and, in many cases, show improvement over the baselines.
翻訳日:2022-12-12 20:42:23 公開日:2020-04-16