このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200424となっている論文です。

PDF登録状況(公開日: 20200424)

TitleAuthorsAbstract論文公表日・翻訳日
# 不動産および不動産権に対するブロックチェーン使用の制約とメリット

Constraints and Benefits of the Blockchain Use for Real Estate and Property Rights ( http://arxiv.org/abs/2001.09745v3 )

ライセンス: Link先を確認
Oleksii Konashevych(参考訳) 最近のソーシャルメディア投稿やニュースは、不動産業界におけるブロックチェーンの利用、土地登録、タイトルと不動産権の保護において大きな成功を収めたと認識する可能性がある。 誤解を招く概念がブロックチェーンの利用の考え方全体を埋める可能性があるからだ。 本論文は,ブロックチェーンおよび他の分散型台帳技術(DLT)の可能性と,不動産,不動産権,公登録の異なる目的での適用性を検討することを目的とする。 権限のあるシステムと区別されるブロックチェーンは、権限を必要としない不変の台帳の技術であり、ガバナンスの新しい言葉である。 しかし、この技術には、状態レベルでの実装を抑制できる主要な特徴があり、そのためさらなる研究と開発が必要である。 ブロックチェーンの適用には、古いデータや誤ったデータの変更、デジタルアイデンティティとプライバシの問題への対処、法的コンプライアンスとスマートコントラクトの実施可能性、台帳のスケーラビリティなどをサポートするために、オーバーレイされたテクノロジの適切なアーキテクチャが必要である。 本稿では、技術上の制限がより具体的な技術資料で知られているにもかかわらず、権利や土地登録の文脈では説明されていない技術の性質の制約について述べる。 既知の利点とともに、非技術者によるDLT機能の誤解釈を避けるのに役立つ。 技術と法律を分析するための多分野のアプローチは、公共の登録や財産権の保護のために何が有益であるかをよりよく理解するのに役立った。 提案された成果は、DLTの問題に対処するための技術的プロトコルと、ブロックチェーンを社会のサービスに配置する公開ポリシーの要件として説明することができる。

Many recent social media posts and news may create a perception of big success in the use of blockchain for the real estate industry, land registration and protection of titles and property rights. A sobering outlook is crucial because misleading concepts may bury the whole idea of blockchain use. The paper aims to research the possibilities of blockchain and other distributed ledger technologies (DLT) and applicability of these technologies for different purposes in real estate, property rights and public registries. Blockchain, which is distinguished from permissioned systems as the technology of the immutable ledger that does not require authorities, is a new word in governance. However, this technology has some principal features that can restrain its implementation at the state level, and thus require further research and development. The application of blockchain requires a proper architecture of overlaid technologies to support changes of outdated and mistaken data, address issues of digital identity and privacy, legal compliance and enforceability of smart contracts and scalability of the ledger. This paper shows the constraints of the technology's properties which were not explained before in the context of title rights and land registration even though technological limits are known in more specific technical sources. Along with the known benefits this meant to help to avoid misinterpretation of some DLT features by non-technical people. A multidisciplinary approach in analysing the technology and laws helped to better understand what can and cannot be beneficial for public registries and the protection of property rights. The presented outcomes can be laid down as requirements for the technical protocols aimed at addressing the issues of DLT and public policies to put blockchain at the service of society.
翻訳日:2023-06-08 22:39:29 公開日:2020-04-24
# 光格子における量子多体傷

Quantum Many-Body Scars in Optical Lattices ( http://arxiv.org/abs/2002.01746v2 )

ライセンス: Link先を確認
Hongzheng Zhao, Joseph Vovrosh, Florian Mintert, and Johannes Knolle(参考訳) 量子多体傷の概念は最近、エルゴディディディティの弱い破壊と固有状態熱化仮説の破滅を記述するためのルートとして提案されている。 低温原子ガス中で容易に実装可能な2重変調ボース・ハバード系において,量子多体傷を発生させる簡単なセットアップを提案する。 ダイナミクスは、高周波膨張における密度補助トンネルによって現れる運動的制約によって制御されていることが示されている。 我々は,恐れる固有状態の小さな孤立部分空間に繋がる速度論的制約付きホッピングの最適駆動パラメータを求める。 駆動周波数の関数としての実験的シグネチャと全熱的挙動への遷移を解析した。

The concept of quantum many-body scars has recently been put forward as a route to describe weak ergodicity breaking and violation of the Eigenstate Thermalization Hypothesis. We propose a simple setup to generate quantum many-body scars in a doubly modulated Bose-Hubbard system which can be readily implemented in cold atomic gases. The dynamics are shown to be governed by kinetic constraints which appear via density assisted tunneling in a high-frequency expansion. We find the optimal driving parameters for the kinetically constrained hopping which leads to small isolated subspaces of scared eigenstates. The experimental signatures and the transition to fully thermalizing behavior as a function of driving frequency are analyzed.
翻訳日:2023-06-04 16:26:42 公開日:2020-04-24
# t$|$ket$\rangle$ : NISQデバイス用の再ターゲット可能なコンパイラ

t$|$ket$\rangle$ : A Retargetable Compiler for NISQ Devices ( http://arxiv.org/abs/2003.10611v3 )

ライセンス: Link先を確認
Seyon Sivarajah and Silas Dilkes and Alexander Cowtan and Will Simmons and Alec Edgington and Ross Duncan(参考訳) 我々はcambridge quantum computing ltdによって開発された量子ソフトウェア開発プラットフォームであるt$|$ket$\rangle$を提示する。 t$|$ket$\rangle$の心臓部は、様々なNISQデバイス向けのコードを生成するために設計された言語に依存しない最適化コンパイラであり、デバイスエラーの影響を最小限に抑えるように設計されている。 コンパイラは広くベンチマークされ、回路最適化とキュービットルーティングの点でほとんどの競合より優れている。

We present t$|$ket$\rangle$, a quantum software development platform produced by Cambridge Quantum Computing Ltd. The heart of t$|$ket$\rangle$ is a language-agnostic optimising compiler designed to generate code for a variety of NISQ devices, which has several features designed to minimise the influence of device error. The compiler has been extensively benchmarked and outperforms most competitors in terms of circuit optimisation and qubit routing.
翻訳日:2023-05-28 01:20:23 公開日:2020-04-24
# 電子スピン共鳴吸収スペクトルに対するフォノンの影響

Effect of phonons on the electron spin resonance absorption spectrum ( http://arxiv.org/abs/2004.10355v2 )

ライセンス: Link先を確認
Ariel Norambuena, Alejandro Jimenez, Christoph Becher and Jer\'onimo R. Maze(参考訳) 固体デバイスにおける振動の避けられない存在は、磁気活性系の期待電子スピン共鳴(ESR)吸収スペクトルを劇的に変更することができる。 本研究では, フォノンと温度が分子系のESR信号に与える影響を, 強い$E \otimes e$ Jahn-Teller (JT) 効果と電子スピン-$1/2$でモデル化する。 我々の微視的モデルは、フォノンモードの連続体との線形JT相互作用、スピン軌道結合、ゼーマン効果、弱い振動磁場下での系の応答を考察する。 我々は, 1-および2-フォノン過程をフォノン誘起緩和に考慮し, ハム還元係数の温度依存性を計算した, 軌道およびスピン自由度に対するリンドブラッドマスター方程式を導出した。 ESR信号の抑制はフォノンの膨張によるものであるが、軌道クエンチングの一般的な仮定に基づくものではない。 本研究は,中性窒素空孔,負電荷シリコン空孔カラーセンタなど,ダイヤモンドの色中心におけるESR信号の欠如を実験的に説明するために応用できる。

The unavoidable presence of vibrations in solid-state devices can drastically modify the expected electron spin resonance (ESR) absorption spectrum in magnetically active systems. In this work, we model the effect of phonons and temperature on the ESR signal in molecular systems with strong $E \otimes e$ Jahn-Teller (JT) effect and an electronic spin-$1/2$. Our microscopic model considers the linear JT interaction with a continuum of phonon modes, the spin-orbit coupling, the Zeeman effect, and the response of the system under a weak oscillating magnetic field. We derive a Lindblad master equation for the orbital and spin degrees of freedom, where one- and two-phonon processes are considered for the phonon-induced relaxation, and the thermal dependence of Ham reduction factors is calculated. We find that the suppression of ESR signals is due to phonon broadening but not based on the common assumption of orbital quenching. Our results can be applied to explain the experimentally observed absence of the ESR signal in color centers in diamond, such as the neutral nitrogen-vacancy and negatively charged silicon-vacancy color centers in diamond.
翻訳日:2023-05-22 11:13:16 公開日:2020-04-24
# 位相シフト解析の新展開

New result on phase shift analysis ( http://arxiv.org/abs/2004.11156v2 )

ライセンス: Link先を確認
Andr\'e Martin (CERN) and Jean-Marc Richard (IP2I, Lyon, France)(参考訳) ある連続性の性質を仮定すると、イジークソンとマーティンの古い結果を用いて、明らかなあいまいさを除いて、与えられたエネルギーで弾性微分断面を再現する少なくとも2つの振幅しか存在しないことが証明される。

Assuming a certain continuity property, we prove, using the old results of Itzykson and Martin, that, except for an obvious ambiguity, there are only at most two amplitudes reproducing an elastic differential cross section at a given energy.
翻訳日:2023-05-22 08:31:01 公開日:2020-04-24
# omic cakeを持って食べる - プライベートでセキュアな健康データ管理と共有にブロックチェーン技術を使用する場合のユーザ応答の評価

Having our omic cake and eating it too: Evaluating User Response to using Blockchain Technology for Private & Secure Health Data Management and Sharing ( http://arxiv.org/abs/2004.11502v1 )

ライセンス: Link先を確認
Victoria L. Lemieux, Darra Hofman, Hoda Hamouda, Danielle Batista, Ravneet Kaur, Wen Pan, Ian Costanzo, Dean Regier, Samantha Pollard, Deirdre Weymann, Rob Fraser(参考訳) 本稿では、個人の健康データ管理と共有をプライベートかつセキュアにするためのブロックチェーンソリューションのプロトタイプの開発と評価について述べる。 このソリューションは、パーソナライズされたヘルスケア研究のコンテキストにおけるブロックチェーンテクノロジの適用に関する社会的、データ、技術的問題を研究する多分野プロジェクトの成果のひとつだ。 このプロジェクトは、自律的な医療データ管理と共有に関する倫理的、法的、社会的、認知的な制約と、そのような制約がブロックチェーンソリューションの注意深いユーザーインターフェース設計によって対処できるかどうかを調査している。

This paper reports on the development and evaluation of a prototype blockchain solution for private and secure individual omics health data management and sharing. This solution is one output of a multidisciplinary project investigating the social, data and technical issues surrounding application of blockchain technology in the context of personalized healthcare research. The project studies potential ethical, legal, social and cognitive constraints of self-sovereign healthcare data management and sharing, and whether such constraints can be addressed through careful user interface design of a blockchain solution.
翻訳日:2023-05-22 06:25:38 公開日:2020-04-24
# 高速大規模トラップイオン量子コンピューティングのための2次元アーキテクチャ

A two-dimensional architecture for fast large-scale trapped-ion quantum computing ( http://arxiv.org/abs/2004.11608v1 )

ライセンス: Link先を確認
Y.-K. Wu and L.-M. Duan(参考訳) 量子コンピュータの構成要素は、小規模から中規模のシステムで実証されている。 主要なプラットフォームの一つとして、閉じ込められたイオンシステムが注目を集めている。 このシステムにおける重要な課題は、高速高忠実度ゲートとイオントラップ製造におけるスケーラビリティと利便性を組み合わせることである。 本稿では,2次元の原子イオン配列を持つ大規模量子コンピューティングのアーキテクチャを提案する。これはイオントラップ製造に便利なが,従来のゲートが遅すぎるため,一般に量子コンピューティングには適さないと考えられている。 ラムダイク領域の外側のゲート操作を用いて,高速かつ頑健な絡み込みゲートを,任意の大きなイオンアレイで実現可能であることを示す。 ゲート操作は本質的に並列であり、熱雑音に頑健であり、提案されたアーキテクチャの高速化と拡張性と共に、このアプローチは大規模量子コンピューティングにとって魅力的なものとなっている。

Building blocks of quantum computers have been demonstrated in small to intermediate-scale systems. As one of the leading platforms, the trapped ion system has attracted wide attention. A significant challenge in this system is to combine fast high-fidelity gates with scalability and convenience in ion trap fabrication. Here we propose an architecture for large-scale quantum computing with a two-dimensional array of atomic ions trapped at such large distance which is convenient for ion-trap fabrication but usually believed to be unsuitable for quantum computing as the conventional gates would be too slow. Using gate operations far outside of the Lamb-Dicke region, we show that fast and robust entangling gates can be realized in any large ion arrays. The gate operations are intrinsically parallel and robust to thermal noise, which, together with their high speed and scalability of the proposed architecture, makes this approach an attractive one for large-scale quantum computing.
翻訳日:2023-05-22 06:23:52 公開日:2020-04-24
# orwellが予測する:電子監視法の段階的変化に関する談話

Predicted by Orwell: A discourse on the gradual shift in electronic surveillance law ( http://arxiv.org/abs/2004.11594v1 )

ライセンス: Link先を確認
Scott McLachlan(参考訳) ほとんどの国の歴史のある時点で、権力者や法執行機関による違法な電子監視の1つ以上の出来事が発生しており、国家が市民に反抗する効果がある。 メディアはこれらの事件を利益のためにセンセーションするが、一般に感じられる懸念を正しく表現することが多い。 この頃、政治家は名声か悪名高きに昇り、国民が言われた新しい法律を提案して、州役人による違法で不当な侵略の将来の事件から彼らを保護した。 これらの保護法が制定されて以来、正当な調査に不満を抱く技術進歩と、児童ポルノのような公的な犯罪の告発や防止を助長する意図があるとして表向きに示される法の変更と、状況上は国に拡大する権限を与え、過去に制定された保護を効果的に弱体化させるという2つのことが生じた。 この報告書は、違法な捜索と押収から得られる保護を比較・対比する立場から始まり、3つの管轄区域における人権法を考察する。 いくつかの形態の電子監視・技術に関する立法上の変化とそれらに繋がる状況を見極めることで、保護の有効なピークを見つけ出し、これら3つの国の法律を徐々に弱体化させていく過程を議論することができる。 我々は、大兄が見ている紫の散文で我々に警告してきた異常者のパラノイアを無視する力を持つ人々から、定期的に遠ざけられている。 しかし、電子監視の分野における最近の立法的変化の影響に注目してみれば、オーウェルのディストピアはすでにここにあり、我々は生きていることがわかる。

At some point in the history of most nations, one or more events of illegal electronic surveillance by those in power or law enforcement has occurred that has the effect of setting State against Citizen. The media sensationalise these incidents for profit, however they more often correctly express the concern felt by the general public. At these times politicians rise, either into fame or infamy, by proposing new legislation which the public is told will protect them by from future incidents of illegal and unwarranted invasion by officers of the state. Two things have occurred since these protective laws were enacted; technological advancement that is claimed has frustrated legitimate investigation, and changes in the law that are ostensibly presented as intending to facilitate the prosecution or prevention of a publicly decried offence, like child pornography, but which in context deliver expanded powers to the State, effectively weakening the protections previously enacted. This report looks at human rights legislation in three jurisdictions, starting from a position of comparing and contrasting the protections that are available from illegal search and seizure. By identifying legislative changes related to several forms of electronic surveillance and technology, and the situations that led to them, we can locate the effective peak of protection and discuss the processes that have led to a gradual yet pervasive weakening of those laws in all three nations. We are regularly diverted by those in power towards disregarding the paranoia of the outliers who have been warning us with their purple prose that big brother is watching. But if we focus on the effect of recent legislative changes in the area of electronic surveillance we can clearly see that the Orwellian dystopia is already here, and we are living it.
翻訳日:2023-05-22 06:23:33 公開日:2020-04-24
# 修正一般化スキュー情報に基づくコヒーレンスと相補性

Coherence and complementarity based on modified generalized skew information ( http://arxiv.org/abs/2004.11586v1 )

ライセンス: Link先を確認
Zhaoqi Wu, Lin Zhang, Shao-Ming Fei, Xianqing Li-Jost(参考訳) 改良型一般化ウィグナー・ヤナーゼ・ダイソン(mgwyd)スキュー情報と改良型一般化ウィグナー・ヤナーゼ・ダイソン(mwgwyd)スキュー情報を導入する。 MGWYDスキュー情報に基づく状態-チャネル相互作用を再考することにより、量子チャネルに対するコヒーレンス尺度の族を提案する。 さらに、これらの量子ビット状態のコヒーレンス測度の明確な解析式は、異なる量子チャネルに対して導かれる。 また,MGWYDスキュー情報とMWGWYDスキュー情報に基づく相補関係についても述べる。 具体的には, 対称性-非対称性相補性と波動-粒子双対性を含む2つの解釈が提案されている。

We introduce modified generalized Wigner-Yanase-Dyson (MGWYD) skew information and modified weighted generalized Wigner-Yanase-Dyson (MWGWYD) skew information. By revisiting state-channel interaction based on MGWYD skew information, a family of coherence measures with respect to quantum channels is proposed. Furthermore, explicit analytical expressions of these coherence measures of qubit states are derived with respect to different quantum channels. Moreover, complementarity relations based on MGWYD skew information and MWGWYD skew information are also presented. Specifically, the conservation relations are investigated, while two interpretations of them including symmetry-asymmetry complementarity and wave-particle duality have been proposed.
翻訳日:2023-05-22 06:23:04 公開日:2020-04-24
# 中性原子に対するグリーンベルガー・ホルン・ザイリンガー状態の散逸エンジニアリング

Dissipative engineering a tripartite Greenberger-Horne-Zeilinger state for neutral atoms ( http://arxiv.org/abs/2004.11570v1 )

ライセンス: Link先を確認
D. X. Li, H. W. Xiao, C. Yang, X. Q. Shao(参考訳) グリーンベルガー・ホーネ・ザイリンガー状態(GHZ)は、様々な量子情報処理タスクに欠かせない要素である。 ここでは、中性原子系において三成分GHZ状態を散逸的に生成する2つの決定論的提案を行った。 最初のスキームは、最近の作品[t]の拡張と見なすことができる。 M. Wintermantel, Y. Wang, G. Lochead, \textit{et al}, {Phys. Rev. Lett. \textbf{124}, 070503 (2020)}]。 多色駆動場と工学的自発発光により、奇数個の原子を有する多成分ghz状態が高効率で生成される。 このスキームは初期状態への依存の問題を効果的に克服するが、リドバーグ状態の崩壊に敏感である。 第2のシナリオでは、Rydberg状態の自然放出を資源として利用し、不定形Rydbergポンプのスイッチング駆動とRydbergアンチブロッカド効果を同時に統合することにより、定常三分極GHZ状態が約9,8 %の忠実度で得られる。

The multipartite Greenberger-Horne-Zeilinger (GHZ) states are indispensable elements for various quantum information processing tasks. Here we put forward two deterministic proposals to dissipatively prepare tripartite GHZ states in a neutral atom system. The first scheme can be considered as an extension of a recent work [T. M. Wintermantel, Y. Wang, G. Lochead, \textit{et al}, {Phys. Rev. Lett. \textbf{124}, 070503 (2020)}]. By virtue of the polychromatic driving fields and the engineered spontaneous emission, a multipartite GHZ state with odd numbers of atoms are generated with a high efficiency. This scheme effectively overcomes the problem of dependence on the initial state but sensitive to the decay of Rydberg state. In the second scenario, we exploit the spontaneous emission of the Rydberg states as a resource, thence a steady tripartite GHZ state with fidelity around $98\%$ can be obtained by simultaneously integrating the switching driving of unconventional Rydberg pumping and the Rydberg antiblockade effect.
翻訳日:2023-05-22 06:22:48 公開日:2020-04-24
# ドックレス自転車シェアリングシステムのリバランス戦略のシミュレーションと評価

Simulating and Evaluating Rebalancing Strategies for Dockless Bike-Sharing Systems ( http://arxiv.org/abs/2004.11565v1 )

ライセンス: Link先を確認
Damian Barabonkov, Samantha D'Alonzo, Joseph Pierre, Daniel Kondor, Xiaohu Zhang, Mai Anh Tien(参考訳) 都市における交通のエコフレンドリーなソリューションとしてのドック型自転車シェアリングシステムの成長に伴い、ドックレスシステムは、利用者に提供される柔軟性の向上のために市場を変革している。 自転車の再分配はサービスを改善するための一般的なアプローチであり、ドックベースのシステムの静的および動的リバランス戦略を考慮に入れる広範な研究がある。 ドッキングレス問題に対して,トリップ開始と終端位置の周波数から抽象的ステーションを定義することでアプローチする。 本稿では,ドッキングレスシステムにおける様々な自転車配置戦略の効果をモデル化するための混合整数プログラムフレームワークを提案する。 2017年9月からシンガポールのドックレス自転車データを30日分処理して、旅行を抽出しています。 処理したデータから構築した需要モデルを用いて混合整数プログラムを適用すれば,運用する再配置戦略に適合する艦隊規模,需要の減少,再配置の大きさの傾向が明らかになる。 また,再配置能力の増大は必ずしもサービス性能の向上につながりません。

Following the growth of dock-based bike sharing systems as an eco-friendly solution for transportation in urban areas, Dockless systems are revolutionizing the market for the increased flexibility they offer to users. Bike redistribution is a common approach to improve service, and there exists extensive research considering static and dynamic rebalancing strategies for dock-based systems. We approach the dockless problem by defining abstract stations from trip start and end location frequency. This paper offers an optimizing Mixed Integer Program framework to model the effects of various bike repositioning strategies for dockless systems. We process 30 days worth of Singapore-based dockless bike data from September 2017 to extract trips. Pairing our mixed integer program with a demand model built from the processed data, we unveil trends between fleet size, lost demand, and magnitude of repositioning proper to the repositioning strategy employed. We also show that increasing repositioning potential does not always improve service performance.
翻訳日:2023-05-22 06:22:15 公開日:2020-04-24
# 大学におけるcapture the flag games活用のメリットと落とし穴

Benefits and Pitfalls of Using Capture the Flag Games in University Courses ( http://arxiv.org/abs/2004.11556v1 )

ライセンス: Link先を確認
Jan Vykopal, Valdemar \v{S}v\'abensk\'y, Ee-Chien Chang(参考訳) サイバーセキュリティスキルを実践するためのcapture the flag(ctf)ゲームの概念は、非公式の教育的設定やレジャータイム競技で広く使われている。 しかし、大学ではあまり使われていない。 本論文は,jeopardy ctfゲームを用いた授業における課題割り当ての経験を概説する。 学生のゲーム内行動とコースパフォーマンスを記述したデータから, CTF の課題に対処すべき4つの側面として, スコア, 足場, 盗作, 学習分析能力について分析した。 論文は推奨事項を共有することでこれらの側面に対処する。 これらの勧告は,大学における評価にctfゲームの利用を検討するサイバーセキュリティインストラクタや,ctfゲームフレームワークの開発者にとって有用であると考えられる。

The concept of Capture the Flag (CTF) games for practicing cybersecurity skills is widespread in informal educational settings and leisure-time competitions. However, it is not much used in university courses. This paper summarizes our experience from using jeopardy CTF games as homework assignments in an introductory undergraduate course. Our analysis of data describing students' in-game actions and course performance revealed four aspects that should be addressed in the design of CTF tasks: scoring, scaffolding, plagiarism, and learning analytics capabilities of the used CTF platform. The paper addresses these aspects by sharing our recommendations. We believe that these recommendations are useful for cybersecurity instructors who consider using CTF games for assessment in university courses and developers of CTF game frameworks.
翻訳日:2023-05-22 06:21:57 公開日:2020-04-24
# 密度行列のブロッホ表現に基づく分離性基準

Separability criteria based on Bloch representation of density matrices ( http://arxiv.org/abs/2004.11525v1 )

ライセンス: Link先を確認
Hui Zhao, Mei-Ming Zhang, Naihuan Jing, Zhi-Xi Wang(参考訳) 密度行列のブロッホ表現を用いた任意の次元の多部量子系の分離性基準について検討する。 まず相関テンソルのノルムを導出し、三成分量子状態と四成分量子状態の分割下での分離性に必要な条件を得る。 さらに,相関テンソルのノルムに基づいて,行列法による分離性基準を求める。 詳細な例を用いて,従来の研究よりもより絡み合った状態を検出することができた。 最後に、多部系に対する分離性に必要な条件は任意の分割の下で与えられる。

We study separability criteria in multipartite quantum systems of arbitrary dimensions by using the Bloch representation of density matrices. We first derive the norms of the correlation tensors and obtain the necessary conditions for separability under partition of tripartite and four-partite quantum states. Moreover, based on the norms of the correlation tensors,we obtain the separability criteria by matrix method. Using detailed examples, our results are seen to be able to detect more entangled states than previous studies. Finally, necessary conditions of separability for multipartite systems are given under arbitrary partition.
翻訳日:2023-05-22 06:21:45 公開日:2020-04-24
# 演算子構造によるワンウェイLOCC識別不能格子状態

One-Way LOCC Indistinguishable Lattice States via Operator Structures ( http://arxiv.org/abs/2004.11777v1 )

ライセンス: Link先を確認
Comfort Mintah, David W. Kribs, Michael Nathanson, Rajesh Pereira(参考訳) 格子状態はベル状態の基本集合を自然に一般化する量子状態のクラスである。 量子誤差補正と一方向局所演算と古典通信(locc)理論は、作用素系と作用素代数の構造理論に基づいて構築され、一方向loccスキームでは区別できない格子状態の比較的小さな集合を構成するための手法を開発した。 また,実例を示し,その構成を一般化されたパウリ状態まで拡張し,その構成を他の最近の研究と比較する。

Lattice states are a class of quantum states that naturally generalize the fundamental set of Bell states. We apply recent results from quantum error correction and from one-way local operations and classical communication (LOCC) theory, that are built on the structure theory of operator systems and operator algebras, to develop a technique for the construction of relatively small sets of lattice states not distinguishable by one-way LOCC schemes. We also present examples, show the construction extends to generalized Pauli states, and compare the construction to other recent work.
翻訳日:2023-05-22 06:12:41 公開日:2020-04-24
# TeleCrowd:Informal to Formal Text Corporaを作るためのクラウドソーシングアプローチ

TeleCrowd: A Crowdsourcing Approach to Create Informal to Formal Text Corpora ( http://arxiv.org/abs/2004.11771v1 )

ライセンス: Link先を確認
Vahid Masoumi, Mostafa Salehi, Hadi Veisi, Golnoush Haddadian, Vahid Ranjbar, Mahsa Sahebdel(参考訳) クラウドソーシングは、コストがかかり、通常は専門家によって行われる従来のアノテーションの代替として、近年広く使われている。 しかし、クラウドソーシングタスクはそれ自体が面白くないため、ゲームとタスクを組み合わせることで、参加者のモチベーションとエンゲージメントが増大する。 本稿では,Telegram MessengerをベースとしたクラウドソーシングプラットフォームTeleCrowdを提案し,そのソーシャルパワーをベースプラットフォームとして活用し,クラウドソーシングプロジェクトを実現する。 さらに,提案するプラットフォームの性能を評価するために,500文の非公式ペルシア語文からなる実験的なクラウドソーシングプロジェクトを実施した。 本研究は,2700人の候補者と21000人の票が提出され,最上位の候補者と上位の候補者と下位の候補者の総和を用いた並列データセットが構築された。 その結果, BLEUスコアは0.54であり, 提案するプラットフォームを用いて大規模コーパスを作成可能であることがわかった。 また、このプラットフォームは、他の関連作品と比較して、時間とコストの面で非常に効率が良く、プロジェクト全体の期間は、40ドルというコストで28日間であった。

Crowdsourcing has been widely used recently as an alternative to traditional annotations that is costly and usually done by experts. However, crowdsourcing tasks are not interesting by themselves, therefore, combining tasks with game will increase both participants motivation and engagement. In this paper, we have proposed a gamified crowdsourcing platform called TeleCrowd based on Telegram Messenger to use its social power as a base platform and facilitator for accomplishing crowdsourcing projects. Furthermore, to evaluate the performance of the proposed platform, we ran an experimental crowdsourcing project consisting of 500 informal Persian sentences in which participants were supposed to provide candidates that were the formal equivalent of sentences or qualify other candidates by upvoting or downvoting them. In this study, 2700 candidates and 21000 votes were submitted by the participants and a parallel dataset using candidates with the highest points, sum of their upvotes and downvotes, as the best candidates was built. As the evaluation, BLEU score of 0.54 was achieved on the collected dataset which shows that our proposed platform can be used to create large corpora. Also, this platform is highly efficient in terms of time period and cost price in comparison with other related works, because the whole duration of the project was 28 days at a cost of 40 dollars.
翻訳日:2023-05-22 06:12:31 公開日:2020-04-24
# 組織のサイバーセキュリティ行動

Cyber Security Behaviour In Organisations ( http://arxiv.org/abs/2004.11768v1 )

ライセンス: Link先を確認
Amy Ertan, Georgia Crossland, Claude Heath, David Denny, Rikke Jensen(参考訳) 本稿では,組織における日々のサイバーセキュリティの文脈における学術・政策文献について考察する。 そうすることで、サイバーセキュリティの実践方法に影響を与える4つの行動セットを特定します。 セキュリティポリシの遵守、グループ間の調整とコミュニケーション、フィッシング/メールの動作、パスワードの動作などだ。 ただし、これらは徹底的なものではなく、単独では存在しない点に注意する必要がある。 さらに、このレビューでは、4つの行動セットを重ね合わせて構成する包括的なテーマとして、セキュリティ文化の概念を探求している。 このレビューの目的は、社会科学における日々のサイバーセキュリティ分野における既存の文献の要約を提供することであり、特に組織的文脈に焦点を当てている。 そこで本研究では,文献の既存のギャップに基づいて,今後の研究方向性を提案する。 このレビューには、既存の研究や幅広い文献の理解に役立つ理論レンズも含まれている。 可能ならば、レビューは日々のサイバーセキュリティに関連して、組織に対して推奨する。

This review explores the academic and policy literature in the context of everyday cyber security in organisations. In so doing, it identifies four behavioural sets that influences how people practice cyber security. These are compliance with security policy, intergroup coordination and communication, phishing/email behaviour, and password behaviour. However, it is important to note that these are not exhaustive and they do not exist in isolation. In addition, the review explores the notion of security culture as an overarching theme that overlaps and frames the four behavioural sets. The aim of this review is therefore to provide a summary of the existing literature in the area of everyday cyber security within the social sciences, with a particular focus on organisational contexts. In doing so, it develops a series of suggestions for future research directions based on existing gaps in the literature. The review also includes a theoretical lens that will aid the understanding of existing studies and wider literatures. Where possible, the review makes recommendations for organisations in relation to everyday cyber security.
翻訳日:2023-05-22 06:12:08 公開日:2020-04-24
# ある2量子状態の量子不協和

Quantum discord of certain two-qubit states ( http://arxiv.org/abs/2004.11668v1 )

ライセンス: Link先を確認
Jianming Zhou, Xiaoli Hu, Naihuan Jing(参考訳) 量子不協和は、オリヴァーとズレックによって導入された量子相関の効果的な尺度である。 非X状態の大きな族に対する量子不協和を解析的に評価する。 量子不和の厳密解は、非x状態の4つのパラメトリック空間から得られる。 量子不協和の動的挙動は、クラウス作用素の作用の下でも探索される。

Quantum discord is an effective measure of quantum correlation introduced by Olliver and Zurek. We evaluate analytically the quantum discord for a large family of non-X-states. Exact solutions of the quantum discord are obtained of the four parametric space for non-X-states. Dynamic behavior of the quantum discord is also explored under the action of the Kraus operator.
翻訳日:2023-05-22 06:11:39 公開日:2020-04-24
# 2次元励起子におけるロスルド・スターク効果とイオン化に対する分析的半古典的アプローチ

Analytical Quantitative Semi-Classical Approach to the LoSurdo-Stark Effect and Ionization in 2D excitons ( http://arxiv.org/abs/2004.11646v1 )

ライセンス: Link先を確認
J. C. G. Henriques, Hogni C. Kamban, Thomas G. Pedersen, N. M. R. Peres(参考訳) 半古典的手法を用いて, 外部静電場による二次元材料中の励起子のイオン化速度の完全解析式を導出し, 複雑な数値計算の必要性を解消した。 本式は複雑なエネルギー固有値を持つ非エルミート固有値問題を解く外的複素スケーリング法に基づくより洗練された数値法と定量的に一致し,虚部がイオン化速度を記述する。 六方晶窒化ホウ素中のエキシトンと遷移金属ジアルコゲナイド中のA-$エキシトンを簡単な例に挙げた。 遷移金属ジアルコゲナイドにおけるスピン軌道分割励起子を含む理論の拡張は自明である。

Using a semi-classical approach, we derive a fully analytical expression for the ionization rate of excitons in two-dimensional materials due to an external static electric field, which eliminates the need for complicated numerical calculations. Our formula shows quantitative agreement with more sophisticated numerical methods based on the exterior complex scaling approach, which solves a non-hermitian eigenvalue problem yielding complex energy eigenvalues, where the imaginary part describes the ionization rate. Results for excitons in hexagonal boron nitride and the $A-$exciton in transition metal dichalcogenides are given as a simple examples. The extension of the theory to include spin-orbit-split excitons in transition metal dichalcogenides is trivial.
翻訳日:2023-05-22 06:11:34 公開日:2020-04-24
# 修正ウィグナー・ヤナーゼ・ダイソンスキュー情報に基づく不確実性関係

Uncertainty Relations Based on Modified Wigner-Yanase-Dyson Skew Information ( http://arxiv.org/abs/2004.11644v1 )

ライセンス: Link先を確認
Zhaoqi Wu, Lin Zhang, Jianhui Wang, Xianqing Li-Jost, Shao-Ming Fei(参考訳) 不確実性関係は、量子力学と量子情報理論における中核的な問題である。 改良された一般化Wigner-Yanase-Dyson(MGWYD)スキュー情報と修正された一般化Wigner-Yanase-Dyson(MWGWYD)スキュー情報を導入し、MGWYDスキュー情報およびMWGWYDスキュー情報の観点から新たな不確実性関係を確立する。

Uncertainty relation is a core issue in quantum mechanics and quantum information theory. We introduce modified generalized Wigner-Yanase-Dyson (MGWYD) skew information and modified weighted generalizedWigner-Yanase-Dyson (MWGWYD) skew information, and establish new uncertainty relations in terms of the MGWYD skew information and MWGWYD skew information.
翻訳日:2023-05-22 06:11:21 公開日:2020-04-24
# 重力$t^3$相を検出するゲージ原理としての等価原理のテスト可能性について

On the testability of the equivalence principle as a gauge principle detecting the gravitational $t^3$ phase ( http://arxiv.org/abs/2004.11616v1 )

ライセンス: Link先を確認
C. Marletto, V. Vedral(参考訳) アインシュタインが当初定式化した同値原理は、弱い重力の下でも量子領域に拡張する場合にいくつかの困難をもたらすという様々な主張がある。 ここでは、他の古典的原理(例えばエネルギーの保存原理)で用いられるのと同じアプローチに従うことで、弱体に対して、その原理の単純量子定式化を得ることができることを指摘する。 この形態で等価原理を検証し、その意味を議論する最近実施されたテストに注意を向ける。

There have been various claims that the Equivalence Principle, as originally formulated by Einstein, presents several difficulties when extended to the quantum domain, even in the regime of weak gravity. Here we point out that by following the same approach as used for other classical principles, e.g. the principle of conservation of energy, one can, for weak fields, obtain a straightforward quantum formulation of the principle. We draw attention to a recently performed test that confirms the Equivalence Principle in this form and discuss its implications.
翻訳日:2023-05-22 06:11:09 公開日:2020-04-24
# 量子誤差補正における量子メトロロジー境界の利用--近似イーサン・クニールの定理の簡単な証明

Using Quantum Metrological Bounds in Quantum Error Correction: A Simple Proof of the Approximate Eastin-Knill Theorem ( http://arxiv.org/abs/2004.11893v1 )

ライセンス: Link先を確認
Aleksander Kubica, Rafal Demkowicz-Dobrzanski(参考訳) 本稿では、量子誤り訂正符号(QECC)の品質と、超越論理ゲートの普遍的な集合を実現する能力とを結びつける、近似イージン・クニル定理の簡単な証明を示す。 我々の導出は、量子フィッシャー情報の量子力学プロトコルにおける強力な境界を利用して、最悪のケースの絡み合いの忠実度で測定されたQECCの性能を特徴づける。 この定理は、独立消去や偏極ノイズを含む大規模な非コヒーレンスモデルに適用できる。 量子メトロジープロトコルにおけるノイズを軽減するためにQECCを利用するという確立された経路に従う代わりに、量子メトロジーの手法を適用してQECCの限界を探索する。

We present a simple proof of the approximate Eastin-Knill theorem, which connects the quality of a quantum error-correcting code (QECC) with its ability to achieve a universal set of transversal logical gates. Our derivation employs powerful bounds on the quantum Fisher information in generic quantum metrological protocols to characterize the QECC performance measured in terms of the worst-case entanglement fidelity. The theorem is applicable to a large class of decoherence models, including independent erasure and depolarizing noise. Our approach is unorthodox, as instead of following the established path of utilizing QECCs to mitigate noise in quantum metrological protocols, we apply methods of quantum metrology to explore the limitations of QECCs.
翻訳日:2023-05-22 06:04:42 公開日:2020-04-24
# プラズモンナノ構造近傍の4レベル量子系における非線形光学現象と空間構造光学効果の制御

Control of nonlinear optical phenomena and spatially structured optical effects in a four-level quantum system near a plasmonic nanostructure ( http://arxiv.org/abs/2004.11891v1 )

ライセンス: Link先を確認
Hamid Reza Hamedi, Vassilios Yannopapas, Emmanuel Paspalakis(参考訳) 金属被覆誘電体ナノスフィアの2次元アレイ近傍で弱プローブ場と相互作用する4レベル二重V型量子系の非線形光学応答について検討した。 このような量子系は、表面プラズモンと相互作用するv型サブシステムと、自由空間真空と相互作用するv型サブシステムを含む。 提案装置の特徴的な特徴は、プラズモニックナノ構造近傍に配置された場合の印加磁場の相対位相に対する感度である。 我々は、プラズモニックナノ構造の存在により、レーザー磁場の1つに対する3次(ケラ型)感受性が、他のプローブ磁場が作用している間に著しく変化できることを実証する。 さらに, 系のKerr非線形性は, プラズモニックナノ構造から量子系の距離を変化させることによって制御・拡張することが可能であり, また, 適用場の相対位相を調節することで, 系のKerr非線形性を制御することができることを示す。 その結果、オンチップのナノスケールフォトニックデバイスに潜在的な応用が期待できる。 また,一方のプローブ場が光渦を持ち,他方のプローブ場が渦を持たない場合の光・物質相互作用についても検討した。 閉ループ二重V型量子系の位相感度により、非渦プローブビームの線形および非線形感受性は渦プローブビームの方位角と軌道角運動量(OAM)に依存することを示した。 この特徴は、自由空間真空と相互作用するオープンな4レベル二重V型量子系では欠落しており、この場合量子干渉は起こらない。 量子系の光感受性の方位依存性を用いて空間構造透過率の領域を決定する。

We investigate the nonlinear optical response of a four-level double-V-type quantum system interacting with a pair of weak probe fields while located near a two-dimensional array of metal-coated dielectric nanospheres. Such a quantum system contains a V-type subsystem interacting with surface plasmons, and another V-type subsystem interacting with the free-space vacuum. A distinctive feature of the proposed setup is its sensitivity to the relative phase of the applied fields when placed near the plasmonic nanostructure. We demonstrate that due to the presence of the plasmonic nanostructure, the third-order (Kerr-type) susceptibility for one of the laser fields can be significantly modified while another probe field is acting. Moreover, the Kerr nonlinearity of the system can be controlled and even enhanced by varying the distance of the quantum system from the plasmonic nanostructure.We also show that the Kerr nonlinearity of such a system can be controlled by adjusting the relative phase of the applied fields. The results obtained may find potential applications in on-chip nanoscale photonic devices. We also study the light-matter interaction in the case where one probe field carries an optical vortex, and another probe field has no vortex. We demonstrate that due to the phase sensitivity of the closed-loop double V-type quantum system, the linear and nonlinear susceptibility of the nonvortex probe beam depends on the azimuthal angle and orbital angular momentum (OAM) of the vortex probe beam. This feature is missing in open four-level double V-type quantum system interacting with free-space vacuum, as no quantum interference occurs in this case. We use the azimuthal dependence of optical susceptibility of the quantum system to determine the regions of spatially-structured transmittance.
翻訳日:2023-05-22 06:04:26 公開日:2020-04-24
# 自由空間量子通信用安定・低エラー・キャリブレーションフリー分極エンコーダ

Stable, low-error and calibration-free polarization encoder for free-space quantum communication ( http://arxiv.org/abs/2004.11877v1 )

ライセンス: Link先を確認
Marco Avesani, Costantino Agnesi, Andrea Stanco, Giuseppe Vallone and Paolo Villoresi(参考訳) 偏光エンコードされた自由空間量子通信は、高速偏光変調、長期安定性、低固有誤差率を備えた量子状態源を必要とする。 ここでは、サニャック干渉計に基づく、偏光維持ファイバ、ファイバ偏光ビームスプリッタ、電気光学位相変調器からなる光源について述べる。 このシステムは、送信機でも受信機でもキャリブレーションを必要としないフリースペースの固定参照フレームで所定の偏光状態を生成する。 このようにして、長期的な安定性と低いエラー率を達成する。 概念実証実験も報告され、デバイスのアクティブな再調整なしに数時間で0.2%未満の量子ビット誤り率を示す。

Polarization-encoded free-space Quantum Communication requires a quantum state source featuring fast polarization modulation, long-term stability and a low intrinsic error rate. Here we present a source based on a Sagnac interferometer and composed of polarization maintaining fibers, a fiber polarization beam splitter and an electro-optic phase modulator. The system generates predetermined polarization states with a fixed reference frame in free-space that does not require calibration neither at the transmitter nor at the receiver. In this way we achieve long-term stability and low error rates. A proof-of-concept experiment is also reported, demonstrating a Quantum Bit Error Rate lower than 0.2% for several hours without any active recalibration of the devices.
翻訳日:2023-05-22 06:03:28 公開日:2020-04-24
# 操作量子非マルコフ性に対する摂動理論

Perturbation theory for operational quantum non-Markovianity ( http://arxiv.org/abs/2004.11813v1 )

ライセンス: Link先を確認
Mariano Bonifacio and Adri\'an A. Budini(参考訳) 量子マルコビアン性に対する操作的アプローチにおけるメモリの定義は、関心の系上で連続した測定プロセスに関連する様々な結果の集合の統計的性質に依存する。 プロジェクタ技術を用いて, 連立確率と結果相関を非摂動系密度行列プロパゲータで表現できる摂動理論を開発した。 このオブジェクトは、測定プロセスのないオープンシステムのダイナミクスを定義する。 系の環境相互作用強度によって拡張される逐次系列項は、高次浴の相関によって重み付けられた系プロパゲータを含む畳み込み構造からなる。 形式主義は、正確な記述を含む異なる力学を研究することで裏付けられる。 摂動的アプローチを用いて、システム環境相互作用と測定過程の相互作用によって引き起こされる異常な記憶効果は、有限温度貯水池で見られる。

The definition of memory in operational approaches to quantum non-Markovianity depends on the statistical properties of different sets of outcomes related to successive measurement processes performed over the system of interest. Using projectors techniques we develop a perturbation theory that enables to expressing both joint probabilities and outcome correlations in terms of the unperturbed system density matrix propagator. This object defines the open system dynamics in absence of measurement processes. Successive series terms, which are scaled by the system-environment interaction strength, consist in a convolution structure involving system propagators weighted by higher order bath correlations. The formalism is corroborated by studying different dynamics that admit an exact description. Using the perturbative approach, unusual memory effects induced by the interplay between the system-environment interaction and measurement processes are found in finite temperature reservoirs.
翻訳日:2023-05-22 06:02:52 公開日:2020-04-24
# 閉系の変分記述のための量子軌道:ガウス状態のケーススタディ

Quantum trajectories for the variational description of closed systems: a case study with Gaussian states ( http://arxiv.org/abs/2004.11806v1 )

ライセンス: Link先を確認
Michiel Wouters(参考訳) 本研究は, 量子系の変分記述の質を向上させるために, 絡みを減少させる難解な散逸を加えて提案する。 この提案は、量子ゆらぎのカオス的挙動と関連する高速な成長を示す小さなBose-Hubbard連鎖に対して実装されている。 適切に選択された散逸には、(選択されたシステムパラメータに対して非常に正確な)切り詰められたウィグナー近似との良好な一致が見つかる。

It is proposed to improve the quality of a variational description of a closed quantum system by adding ficticious dissipation that reduces the entanglement. The proposal is implemented for a small Bose-Hubbard chain, which shows chaotic behavior and associated fast growth of quantum fluctuations. For appropriately chosen dissipation, good agreement with the truncated Wigner approximation (which is very accurate for the chosen system parameters) is found.
翻訳日:2023-05-22 06:02:40 公開日:2020-04-24
# 新しいsiと自然の基本的な定数

The New SI and the Fundamental Constants of Nature ( http://arxiv.org/abs/2005.01428v1 )

ライセンス: Link先を確認
Miguel A. Martin-Delgado(参考訳) 新たな国際単位体系の2019年の立ち上げは、物理学と化学の基本的な法則が私たちの生活、そして基礎研究、産業、商業のあらゆるプロセスにおいて果たす重要な役割を強調する機会である。 これらのノートの主な目的は、新しいSIを広範囲の聴衆にアクセスできる形で提示することである。 自然の基本的な定数とその普遍法則をレビューした後、SI単位の新しい定義は統一原理として、これらの普遍法則におけるエネルギー、物質、情報の離散的性質を用いて提示される。 新しいSIシステムは、技術的改善によって実験的な実現が変わるかもしれないが、定義は影響を受けないままである。 量子計測は第2世代の新しい量子技術を実現する原動力の1つと期待されている。 ナエスタ・アン・マルタ・デ・ヌエボ・システマ・インターナシオナル・デ・ウニダデス・エ・ウナ・オポルトゥニダド・パラ・レサルタル・エル・パペル基本原理 que las leyes fundamentales de la f\'{\i}sica y la qu\'{\i}mica juegan en nuestra vida y en todos los procesos de la investigaci\on fundamental, la industria y el comercio エル・プリンシパル (el principal objetivo de estas notas es presentar el nuevo si de forma accesible para una audiencia amplia) の略。 la naturaleza y sus leyes universales, se presentan las nuevas definiciones de las unidades si usingando como principio unificador la naturaleza discreta de la energ\'{\i}a, la materia y la informaci\'on en esas leyes universales. (英語) El nuevo sistema SI tiene vocaci\'on de futuro: aunque las realizaciones experimentes cambien por mejoras tecnol\'gicas, las definiciones permanecer\'an inalteradas。 la metrolog\'{\i}a cu\'antica est\'a llamada a ser uno de las fuerzas motrices para conseguir nuevas tecnolog\'{\i}as cu\'anticas de segunda generaci\'on

The launch in 2019 of the new international system of units is an opportunity to highlight the key role that the fundamental laws of physics and chemistry play in our lives and in all the processes of basic research, industry and commerce. The main objective of these notes is to present the new SI in an accessible way for a wide audience. After reviewing the fundamental constants of nature and its universal laws, the new definitions of SI units are presented using, as a unifying principle, the discrete nature of energy, matter and information in these universal laws. The new SI system is here to stay: although the experimental realizations may change due to technological improvements, the definitions will remain unaffected. Quantum metrology is expected to be one of the driving forces to achieve new quantum technologies of the second generation. ----- La puesta en marcha en 2019 del nuevo sistema internacional de unidades es una oportunidad para resaltar el papel fundamental que las leyes fundamentales de la F\'{\i}sica y la Qu\'{\i}mica juegan en nuestra vida y en todos los procesos de la investigaci\'on fundamental, la industria y el comercio. El principal objetivo de estas notas es presentar el nuevo SI de forma accesible para una audiencia amplia. Tras repasar las constantes fundamentales de la naturaleza y sus leyes universales, se presentan las nuevas definiciones de las unidades SI utilizando como principio unificador la naturaleza discreta de la energ\'{\i}a, la materia y la informaci\'on en esas leyes universales. El nuevo sistema SI tiene vocaci\'on de futuro: aunque las realizaciones experimentales cambien por mejoras tecnol\'gicas, las definiciones permanecer\'an inalteradas. La Metrolog\'{\i}a cu\'antica est\'a llamada a ser uno de las fuerzas motrices para conseguir nuevas tecnolog\'{\i}as cu\'anticas de segunda generaci\'on.
翻訳日:2023-05-22 05:55:45 公開日:2020-04-24
# 遠隔共振器のダイナミックスとマルチキュービット絡み合い

Dynamics and multiqubit entanglement in distant resonators ( http://arxiv.org/abs/2004.12008v1 )

ライセンス: Link先を確認
Muhammad Waseem, Muhammad Nehal Khan and Shahid Qamar(参考訳) 遠距離共振器における光子状態のダイナミクスを,異なる位置で共振器と結合すると考える。 共通バス共振器からの遠方共振器の周波数は等しく減衰する。 これらの周波数偏差は、共振器と共振器との結合強度よりも大きく保たれ、分散相互作用状態を満たす。 分散状態において、システムの時間ダイナミクスは、様々な相互作用時間において単一のステップで任意のw型状態へと進化することを示す。 その結果、超伝導共振器系において任意のw型状態のワンステップ生成は高い忠実度で達成できることがわかった。

We consider the dynamics of the photon states in distant resonators coupled to a common bus resonator at different positions. The frequencies of distant resonators from a common bus resonator are equally detuned. These frequency detunings are kept larger than the coupling strengths of each resonator to the common bus resonator to satisfy the dispersive interaction regime. In the dispersive regime, we show that the time dynamics of the system evolve to an arbitrary W-type state in a single step at various interaction times. Our results show that a one-step generation of arbitrary W-type states can be achieved with high fidelity in a system of superconducting resonators.
翻訳日:2023-05-22 05:54:25 公開日:2020-04-24
# 解明からユビキタスへ:スマートシティの理解

From elusive to ubiquitous: understanding smart cities ( http://arxiv.org/abs/2004.11943v1 )

ライセンス: Link先を確認
Maria-Alexandra Barina and Gabriel Barina(参考訳) 都市を「スマート」なものに変えることは、都市部の急速な人口増加、すなわち都市化によって生じる問題を緩和する新しい戦略である。 しかし、スマートシティ建築の異なる概念の実施率は非常に高いため、これらの進歩に関する学術研究は単純に追いつくことができない。 スマートシティの概念に関する既存の知識ベースを改善するため,本論文は,関連する研究分野や研究分野の詳細な文献レビューに基づいて,既存の定義とアーキテクチャをレビューする。 さらに、私たちはスマートシティの概念の独自の定義も提供しています。

Converting the city into a "smart" one is the emerging strategy of alleviating the problems generated by the rapid population growth in most urban areas, i.e., urbanisation. However, as the rate in which the different concepts of the smart city architecture are implemented is very high, academic research pertaining these advancements simply can not keep up. To improve the existing knowledge-base regarding the concept of smart cities, this paper reviews the existing definitions, as well as its architectures, based on an in-depth literature review of relevant studies and research fields alike. Additionally, we also provide our own definition of the smart city concept.
翻訳日:2023-05-22 05:52:03 公開日:2020-04-24
# 個人ビッグデータ収集による時間使用量測定の改善 - European Big Data Hackathon 2019の経験から

Improving time use measurement with personal big data collection -- the experience of the European Big Data Hackathon 2019 ( http://arxiv.org/abs/2004.11940v1 )

ライセンス: Link先を確認
Mattia Zeni, Ivano Bison, Britta Gauckler, Fernando Reis Fausto Giunchiglia(参考訳) この記事では、Eurostatが主催するNTTS(New Techniques and Technologies for Statistics)カンファレンスの衛星イベントであるEuropean Big Data Hackathon 2019で、i-Logの経験を評価します。 i-Logは,スマートフォンの内部センサから個人用ビッグデータをキャプチャして,時間の計測に使用するシステムである。 異種データの収集を可能にし、社会学的な都市フィールド研究の新たな可能性を可能にしている。 ユーザの位置や動きに関連するセンサデータは、時刻の日記の回答を調査し、洞察を得て、全体の品質を評価するために使用できる。 鍵となる考え方は、ユーザの回答が機械学習アルゴリズムのトレーニングに使用され、システムのユーザの習慣から学習し、新しいタイムダイアリーの回答を生成することである。 逆に、これらの新しいラベルは、既存のラベルの品質評価や、ユーザが回答を提供していない場合のギャップを埋めるために使用できる。 本研究の目的は,パイロットスタディ,i-Logシステム,および調査中に生じた方法論的証拠を紹介することである。

This article assesses the experience with i-Log at the European Big Data Hackathon 2019, a satellite event of the New Techniques and Technologies for Statistics (NTTS) conference, organised by Eurostat. i-Log is a system that allows to capture personal big data from smartphones' internal sensors to be used for time use measurement. It allows the collection of heterogeneous types of data, enabling new possibilities for sociological urban field studies. Sensor data such as those related to the location or the movements of the user can be used to investigate and have insights on the time diaries' answers and assess their overall quality. The key idea is that the users' answers are used to train machine-learning algorithms, allowing the system to learn from the user's habits and to generate new time diaries' answers. In turn, these new labels can be used to assess the quality of existing ones, or to fill the gaps when the user does not provide an answer. The aim of this paper is to introduce the pilot study, the i-Log system and the methodological evidence that arose during the survey.
翻訳日:2023-05-22 05:51:53 公開日:2020-04-24
# Wang と Blei の "The Blessings of multiple causes" に対する反論

Counterexamples to "The Blessings of Multiple Causes" by Wang and Blei ( http://arxiv.org/abs/2001.06555v3 )

ライセンス: Link先を確認
Elizabeth L. Ogburn, Ilya Shpitser, Eric J. Tchetgen Tchetgen(参考訳) このメモは、Yixin Wang の "Towards Clarifying the Theory of the Deconfounder" に対して David M. Blei (arXiv:2003.04948) によって更新された。 2020年1月に発行されたこの原文は、Wang and Blei (2019)による"The Blessings of Multiple Causes"に関する以前のコメントを補完するものである。 我々は、共同創設者が複数原因の共起を制御していないという事実をより簡潔で透明な説明を提供する。 Wang and Blei (2019) で与えられた議論は、2つの誤りを犯している: (1) 独立条件を異なる無関係な変数の独立条件から推論する試み、(2) 共同独立をペアの独立から推論する試み。 共同ファウンダーの主張に2つの簡単な反例を与える。

This note has been updated (April, 2020) to respond to "Towards Clarifying the Theory of the Deconfounder" by Yixin Wang, David M. Blei (arXiv:2003.04948). This original note, posted in January, 2020, is meant to complement our previous comment on "The Blessings of Multiple Causes" by Wang and Blei (2019). We provide a more succinct and transparent explanation of the fact that the deconfounder does not control for multi-cause confounding. The argument given in Wang and Blei (2019) makes two mistakes: (1) attempting to infer independence conditional on one variable from independence conditional on a different, unrelated variable, and (2) attempting to infer joint independence from pairwise independence. We give two simple counterexamples to the deconfounder claim.
翻訳日:2023-01-10 12:56:06 公開日:2020-04-24
# 平面からコーナーへ:非組織3次元点雲における多目的原始検出

From Planes to Corners: Multi-Purpose Primitive Detection in Unorganized 3D Point Clouds ( http://arxiv.org/abs/2001.07360v2 )

ライセンス: Link先を確認
Christiane Sommer and Yumin Sun and Leonidas Guibas and Daniel Cremers and Tolga Birdal(参考訳) 3つの直交平面の交叉に横たわる直交平面,それらの交叉線,関係グラフ,コーナーの分節自由結合推定法を提案する。 このような直交性の下での統一的なシーン探索は、セマンティックプレーンの検出や局所的およびグローバルなスキャンアライメントなど、さまざまな応用を可能にし、ロボットのローカライゼーションや把握作業を支援する。 2段階のパイプラインは,直交面の粗大かつ共同的な推定と,その直交関係に関する平面パラメータの連続的な改良を含む。 私たちはこれらのプリミティブのグラフを形成し、より信頼できる特徴:線と角の抽出への道を開きます。 本実験は, 壁面検出から6次元追跡まで, 合成データと実データの両方において, 本手法の有効性を実証するものである。

We propose a new method for segmentation-free joint estimation of orthogonal planes, their intersection lines, relationship graph and corners lying at the intersection of three orthogonal planes. Such unified scene exploration under orthogonality allows for multitudes of applications such as semantic plane detection or local and global scan alignment, which in turn can aid robot localization or grasping tasks. Our two-stage pipeline involves a rough yet joint estimation of orthogonal planes followed by a subsequent joint refinement of plane parameters respecting their orthogonality relations. We form a graph of these primitives, paving the way to the extraction of further reliable features: lines and corners. Our experiments demonstrate the validity of our approach in numerous scenarios from wall detection to 6D tracking, both on synthetic and real data.
翻訳日:2023-01-08 00:18:34 公開日:2020-04-24
# コンポジション型ADAM:適応型コンポジション型ソルバー

Compositional ADAM: An Adaptive Compositional Solver ( http://arxiv.org/abs/2002.03755v2 )

ライセンス: Link先を確認
Rasul Tutunov and Minne Li and Alexander I. Cowen-Rivers and Jun Wang and Haitham Bou-Ammar(参考訳) 本稿では,期待値の非線形関数ネストを含む構成問題の適応解法として初めてC-ADAMを提案する。 C-ADAM は $\mathcal{O}(\delta^{-2.25})$ の定常点に収束し、$\delta$ は精度パラメータであることを示す。 さらに, モデル非依存型メタラーニング(maml)と構成最適化により, ディープネットワークの適応度がこれまでで最速であることを示すことで, 結果の重要性を実証した。 最後に,ポートフォリオ最適化とメタラーニングの実験から得られた知見を検証する。 その結果, 標準解法および構成解法と比較して, 試料の複雑性が著しく低下した。

In this paper, we present C-ADAM, the first adaptive solver for compositional problems involving a non-linear functional nesting of expected values. We proof that C-ADAM converges to a stationary point in $\mathcal{O}(\delta^{-2.25})$ with $\delta$ being a precision parameter. Moreover, we demonstrate the importance of our results by bridging, for the first time, model-agnostic meta-learning (MAML) and compositional optimisation showing fastest known rates for deep network adaptation to-date. Finally, we validate our findings in a set of experiments from portfolio optimisation and meta-learning. Our results manifest significant sample complexity reductions compared to both standard and compositional solvers.
翻訳日:2023-01-02 08:29:50 公開日:2020-04-24
# WaveQ:正弦波適応正規化によるニューラルネットワークの勾配に基づく深部量子化

WaveQ: Gradient-Based Deep Quantization of Neural Networks through Sinusoidal Adaptive Regularization ( http://arxiv.org/abs/2003.00146v2 )

ライセンス: Link先を確認
Ahmed T. Elthakeb, Prannoy Pilligundla, Fatemehsadat Mireshghallah, Tarek Elgindi, Charles-Alban Deledalle, Hadi Esmaeilzadeh(参考訳) ディープニューラルネットワークがさまざまな分野に進出するにつれ、計算効率は1次制約になりつつある。 演算のビット幅を8ビット以下に減らすディープ量子化(Deep Quantization)は、ネットワークのストレージと計算要求の両方を超直線的に削減できるユニークな機会を提供する。 しかし、もし勤勉さを使わなければ、これはかなりの精度の損失につながる可能性がある。 層間の強い相互依存性があり、同じネットワーク全体で異なる特性を示すため、層当たりの最適ビット幅の選択は、直進ではない。 このように、深部量子化は大きなハイパーパラメータ空間を開き、その探索は大きな課題である。 深部量子化トレーニングのための新しい正弦波正則化SINAREQを提案する。 正弦波特性を活用し,勾配に基づくトレーニングプロセスにおいて,複数の量子化パラメータ化を併用して学習する。 特に私たちは (i)層ごとの量子化ビット幅 (ii)正弦波関数の周期を学習する尺度因子。 同時に、正弦波関数における周期性、微分可能性、局所凸性プロファイルを利用して自動的に伝播する。 (iii)共同決定されたレベルで定量化された値に対するネットワーク重み付け。 我々はSINAREQが計算効率と精度のバランスをとる方法を示し、その精度を仮想的に保存する様々なディープネットワーク(AlexNet, CIFAR-10, MobileNet, ResNet-18, ResNet-20, SVHN, VGG-11)の量子化のための異種ビット幅割り当てを提供する。 さらに,3ビットから5ビットの固定した同種ビット幅を用いて実験を行い,平均4.8%の精度で量子化トレーニングアルゴリズム(DoReFaおよびWRPN)の強化におけるSINAREQの汎用性を示し,複数の最先端技術より優れていることを示す。

As deep neural networks make their ways into different domains, their compute efficiency is becoming a first-order constraint. Deep quantization, which reduces the bitwidth of the operations (below 8 bits), offers a unique opportunity as it can reduce both the storage and compute requirements of the network super-linearly. However, if not employed with diligence, this can lead to significant accuracy loss. Due to the strong inter-dependence between layers and exhibiting different characteristics across the same network, choosing an optimal bitwidth per layer granularity is not a straight forward. As such, deep quantization opens a large hyper-parameter space, the exploration of which is a major challenge. We propose a novel sinusoidal regularization, called SINAREQ, for deep quantized training. Leveraging the sinusoidal properties, we seek to learn multiple quantization parameterization in conjunction during gradient-based training process. Specifically, we learn (i) a per-layer quantization bitwidth along with (ii) a scale factor through learning the period of the sinusoidal function. At the same time, we exploit the periodicity, differentiability, and the local convexity profile in sinusoidal functions to automatically propel (iii) network weights towards values quantized at levels that are jointly determined. We show how SINAREQ balance compute efficiency and accuracy, and provide a heterogeneous bitwidth assignment for quantization of a large variety of deep networks (AlexNet, CIFAR-10, MobileNet, ResNet-18, ResNet-20, SVHN, and VGG-11) that virtually preserves the accuracy. Furthermore, we carry out experimentation using fixed homogenous bitwidths with 3- to 5-bit assignment and show the versatility of SINAREQ in enhancing quantized training algorithms (DoReFa and WRPN) with about 4.8% accuracy improvements on average, and then outperforming multiple state-of-the-art techniques.
翻訳日:2022-12-27 20:07:29 公開日:2020-04-24
# Med7: 電子健康記録のための転写可能な自然言語処理モデル

Med7: a transferable clinical natural language processing model for electronic health records ( http://arxiv.org/abs/2003.01271v2 )

ライセンス: Link先を確認
Andrey Kormilitzin, Nemanja Vaci, Qiang Liu, Alejo Nevado-Holgado(参考訳) 臨床自然言語処理の分野は,深層学習モデルの導入以来,大きく進歩してきた。 自己教師付き表現学習と転送学習パラダイムは、多くの自然言語処理アプリケーション、特に高品質な手作業による注釈付きデータの設定において、選択の方法となった。 電子健康記録システムはユビキタスであり、患者のデータの大部分は現在、特にフリーテキストの形で電子的に収集されている。 医療概念の同定と情報抽出は、下流分析タスクのための構造化および集計されたフォーマットに非構造化データを解析するための重要な要素である。 本研究では,臨床自然言語処理のための認識モデルを提案する。 このモデルは、薬物名、ルート、頻度、摂取量、強度、形態、期間の7つのカテゴリを認識するよう訓練されている。 モデルはまず、MIMIC-IIIコーパスから200万のフリーテキスト患者の記録を収集し、その名義認識タスクを微調整し、次の単語を予測することによって、自己指導的に事前訓練された。 このモデルは7つのカテゴリすべてで0.957 (0.893)のレネント(狭義)なマイクロ平均f1スコアを達成した。 さらに,米国の集中治療ユニットから英国における二次医療精神保健記録(cris)へのデータを用いて,開発モデルの移行可能性を評価した。 CRISデータへのNERモデルの直接適用により、F1=0.762の性能は低下したが、CRISから小さなサンプルを微調整した後、F1=0.944の性能を達成した。 これは、データセットとNERタスクの密接な類似性にもかかわらず、より正確な結果を得るためには、対象のドメインデータを微調整することが不可欠であることを示した。

The field of clinical natural language processing has been advanced significantly since the introduction of deep learning models. The self-supervised representation learning and the transfer learning paradigm became the methods of choice in many natural language processing application, in particular in the settings with the dearth of high quality manually annotated data. Electronic health record systems are ubiquitous and the majority of patients' data are now being collected electronically and in particular in the form of free text. Identification of medical concepts and information extraction is a challenging task, yet important ingredient for parsing unstructured data into structured and tabulated format for downstream analytical tasks. In this work we introduced a named-entity recognition model for clinical natural language processing. The model is trained to recognise seven categories: drug names, route, frequency, dosage, strength, form, duration. The model was first self-supervisedly pre-trained by predicting the next word, using a collection of 2 million free-text patients' records from MIMIC-III corpora and then fine-tuned on the named-entity recognition task. The model achieved a lenient (strict) micro-averaged F1 score of 0.957 (0.893) across all seven categories. Additionally, we evaluated the transferability of the developed model using the data from the Intensive Care Unit in the US to secondary care mental health records (CRIS) in the UK. A direct application of the trained NER model to CRIS data resulted in reduced performance of F1=0.762, however after fine-tuning on a small sample from CRIS, the model achieved a reasonable performance of F1=0.944. This demonstrated that despite a close similarity between the data sets and the NER tasks, it is essential to fine-tune on the target domain data in order to achieve more accurate results.
翻訳日:2022-12-26 22:15:58 公開日:2020-04-24
# smartcast: 深層学習フレームワークにおける地球観測データを用いた土壌水分補間の予測

SMArtCast: Predicting soil moisture interpolations into the future using Earth observation data in a deep learning framework ( http://arxiv.org/abs/2003.10823v2 )

ライセンス: Link先を確認
Conrad James Foley, Sagar Vaze, Mohamed El Amine Seddiq, Alexey Unagaev, Natalia Efremova(参考訳) 土壌水分は作物の健康にとって重要な要素であり、収穫の増加や破滅的な死を防ぐためのさらなる行動を可能にする。 気候変動によって極端な気象現象が起こる可能性が高くなり、天候の予測可能性も低下し、作物に対する最適でない土壌水分がより多くなる可能性がある。 本研究は,衛星画像から得られた土壌水分と植生の計測を行うためのLSTMアーキテクチャである。 システムは、これらの測定の将来の値を予測することを学ぶ。 これらの空間疎度値と指標は、将来の時刻に空間密湿マップを推定する補間法の入力特徴として用いられる。 これは、モニタリング能力に制限のある地域で作物に好適な土壌水分の事前警告を与える可能性がある。

Soil moisture is critical component of crop health and monitoring it can enable further actions for increasing yield or preventing catastrophic die off. As climate change increases the likelihood of extreme weather events and reduces the predictability of weather, and non-optimal soil moistures for crops may become more likely. In this work, we a series of LSTM architectures to analyze measurements of soil moisture and vegetation indiced derived from satellite imagery. The system learns to predict the future values of these measurements. These spatially sparse values and indices are used as input features to an interpolation method that infer spatially dense moisture map for a future time point. This has the potential to provide advance warning for soil moistures that may be inhospitable to crops across an area with limited monitoring capacity.
翻訳日:2022-12-23 03:59:52 公開日:2020-04-24
# イメージベース植物表現における種間ギャップを埋めるためのスケーラブルな学習

Scalable learning for bridging the species gap in image-based plant phenotyping ( http://arxiv.org/abs/2003.10757v2 )

ライセンス: Link先を確認
Daniel Ward, Peyman Moghadam(参考訳) 深層学習を適用する従来のパラダイムは、40万種近い植物種が存在するため、画像ベースの植物表現には適用できない。 データコストには、物理的サンプルの成長、イメージングとラベル付けが含まれる。 モデル性能は、各植物種のドメイン間の種間ギャップによって影響されるが、汎用性がなく、目に見えない植物種への移動もできない。 本稿では,リーフインスタンスのセグメンテーションにおける合成データの利用について検討する。 注釈付き実データが少ない場合,Mask-RCNNを用いて複数の合成データトレーニングシステムについて検討する。 種間ギャップを埋めるユニバーサルプラントジェネレータUPGenについても紹介する。 UPGenはドメインのランダム化を利用して、広く分散したデータサンプルを生成し、確率的生物学的変異をモデル化する。 本手法は,2種の未確認植物に対して,公開植物データからの移動学習を26.6%,51.46%向上させるなど,標準的手法よりも優れていた。 CVPPPリーフセグメンテーションチャレンジ(Leaf Segmentation Challenge)に出場してUPGenをベンチマークし、A1-4テストデータセットの平均88%の最先端を新たに設定しました。 本研究は,表現型形質の自動測定における合成データの利用に適用できる。 我々の合成データセットと事前訓練されたモデルはhttps://csiro-robotics.github.io/UPGen_Webpage/.comで入手できる。

The traditional paradigm of applying deep learning -- collect, annotate and train on data -- is not applicable to image-based plant phenotyping as almost 400,000 different plant species exists. Data costs include growing physical samples, imaging and labelling them. Model performance is impacted by the species gap between the domain of each plant species, it is not generalisable and may not transfer to unseen plant species. In this paper, we investigate the use of synthetic data for leaf instance segmentation. We study multiple synthetic data training regimes using Mask-RCNN when few or no annotated real data is available. We also present UPGen: a Universal Plant Generator for bridging the species gap. UPGen leverages domain randomisation to produce widely distributed data samples and models stochastic biological variation. Our methods outperform standard practices, such as transfer learning from publicly available plant data, by 26.6% and 51.46% on two unseen plant species respectively. We benchmark UPGen by competing in the CVPPP Leaf Segmentation Challenge and set a new state-of-the-art, a mean of 88% across A1-4 test datasets. This study is applicable to use of synthetic data for automating the measurement of phenotypic traits. Our synthetic dataset and pretrained model are available at https://csiro-robotics.github.io/UPGen_Webpage/.
翻訳日:2022-12-20 09:18:26 公開日:2020-04-24
# 身体的顔特性の学習形成

Learning Formation of Physically-Based Face Attributes ( http://arxiv.org/abs/2004.03458v2 )

ライセンス: Link先を確認
Ruilong Li, Karl Bladin, Yajie Zhao, Chinmay Chinara, Owen Ingraham, Pengda Xiang, Xinglei Ren, Pratusha Prasad, Bipin Kishore, Jun Xing, Hao Li(参考訳) 4000の高解像度顔スキャンを併用したデータに基づいて,多孔質解像度の多孔質顔形状を生成できる非線形形態素顔モデルと,物理ベースレンダリングに使用する材料特性を組み合わせて導入する。 我々は,中周波形状,アルベドマップ,鏡面強度マップ,高周波変位詳細など,固有成分間の対応の頑健性を高めつつ,顔識別の多様性を最大化することを目指している。 深層学習に基づく生成モデルはアルベドと幾何学を関連付けることを学び、生成された資産の解剖学的正確性を保証する。 我々は,新しいアイデンティティ生成,モデルフィッティング,補間,アニメーション,忠実度データ可視化,低解像度データ領域転送のための生成モデルの可能性を示す。 この生成モデルのリリースは、すべてのグラフィック、ビジョン、データにフォーカスしたプロフェッショナル間の協力をさらに促進し、各個人の完全なバイオメトリックプロファイルの累積価値を示すことを期待しています。

Based on a combined data set of 4000 high resolution facial scans, we introduce a non-linear morphable face model, capable of producing multifarious face geometry of pore-level resolution, coupled with material attributes for use in physically-based rendering. We aim to maximize the variety of face identities, while increasing the robustness of correspondence between unique components, including middle-frequency geometry, albedo maps, specular intensity maps and high-frequency displacement details. Our deep learning based generative model learns to correlate albedo and geometry, which ensures the anatomical correctness of the generated assets. We demonstrate potential use of our generative model for novel identity generation, model fitting, interpolation, animation, high fidelity data visualization, and low-to-high resolution data domain transferring. We hope the release of this generative model will encourage further cooperation between all graphics, vision, and data focused professionals while demonstrating the cumulative value of every individual's complete biometric profile.
翻訳日:2022-12-17 13:05:11 公開日:2020-04-24
# 石炭セラーにおける黒猫の探索 ---複合代入によるキーフラーゼ抽出とキーフラーゼ-ルブリック関係の分類-

Finding Black Cat in a Coal Cellar -- Keyphrase Extraction & Keyphrase-Rubric Relationship Classification from Complex Assignments ( http://arxiv.org/abs/2004.01549v3 )

ライセンス: Link先を確認
Manikandan Ravikiran(参考訳) コンテンツの多様性とオープンエンドの質問は、オンライン大学院プログラムの複雑な課題に内在する。 これらのプログラムの自然なスケールは、仲間と専門家の両方のフィードバックにさまざまな課題をもたらします。 関連するコンテンツの識別と、それを事前定義されたrubricsに関連付けることで、グレーディングプロセスの簡素化と改善が図られるが、これまでの研究はまだ初期段階にある。 本稿では,キーフレーズ抽出と汎用/固有キーフレーズ・ルブリック関係抽出の課題に対する教師付きおよび教師なしアプローチの有効性を定量化することを目的とする。 この研究を通して (i)教師なしMultiPartiteRankはキーフレーズ抽出の最良の結果を生成する (ii) ジェネリックおよび特定のキーフレーズ-ルブリック関係分類に最適な性能を提供するBERT機能付き教師付きSVM分類器。 最終的に包括的分析を行い、将来これらの課題に関心を持つ人々にとって有用な観察結果を得る。 ソースコードは \url{https://github.com/manikandan-ravikiran/cs6460-proj} で公開されている。

Diversity in content and open-ended questions are inherent in complex assignments across online graduate programs. The natural scale of these programs poses a variety of challenges across both peer and expert feedback including rogue reviews. While the identification of relevant content and associating it to predefined rubrics would simplify and improve the grading process, the research to date is still in a nascent stage. As such in this paper we aim to quantify the effectiveness of supervised and unsupervised approaches for the task for keyphrase extraction and generic/specific keyphrase-rubric relationship extraction. Through this study, we find that (i) unsupervised MultiPartiteRank produces the best result for keyphrase extraction (ii) supervised SVM classifier with BERT features that offer the best performance for both generic and specific keyphrase-rubric relationship classification. We finally present a comprehensive analysis and derive useful observations for those interested in these tasks for the future. The source code is released in \url{https://github.com/manikandan-ravikiran/cs6460-proj}.
翻訳日:2022-12-17 04:00:29 公開日:2020-04-24
# ネットワーク制御のためのマルチエージェント強化学習

Multi-agent Reinforcement Learning for Networked System Control ( http://arxiv.org/abs/2004.01339v2 )

ライセンス: Link先を確認
Tianshu Chu, Sandeep Chinchali, Sachin Katti(参考訳) 本稿では,ネットワークシステム制御におけるマルチエージェント強化学習(MARL)について考察する。 具体的には、各エージェントは、接続された隣人からのローカル観測とメッセージに基づいて、分散制御ポリシーを学習する。 このようなネットワーク型MARL(NMARL)問題を時空間マルコフ決定プロセスとして定式化し,各局所エージェントのトレーニングを安定させるために空間的割引係数を導入する。 さらに,NMARLにおける情報損失と非定常性を低減するため,NeurCommと呼ばれる新しい通信プロトコルを提案する。 適応的交通信号制御と協調適応クルーズ制御の現実的なnmarlシナリオの実験に基づき、適切な空間的割引係数は非共用的marlアルゴリズムの学習曲線を効果的に向上させ、neurcommは学習効率と制御性能の両方において既存の通信プロトコルを上回る。

This paper considers multi-agent reinforcement learning (MARL) in networked system control. Specifically, each agent learns a decentralized control policy based on local observations and messages from connected neighbors. We formulate such a networked MARL (NMARL) problem as a spatiotemporal Markov decision process and introduce a spatial discount factor to stabilize the training of each local agent. Further, we propose a new differentiable communication protocol, called NeurComm, to reduce information loss and non-stationarity in NMARL. Based on experiments in realistic NMARL scenarios of adaptive traffic signal control and cooperative adaptive cruise control, an appropriate spatial discount factor effectively enhances the learning curves of non-communicative MARL algorithms, while NeurComm outperforms existing communication protocols in both learning efficiency and control performance.
翻訳日:2022-12-17 03:52:47 公開日:2020-04-24
# プログレッシブドメイン拡張による教師なしドメイン適応

Unsupervised Domain Adaptation with Progressive Domain Augmentation ( http://arxiv.org/abs/2004.01735v2 )

ライセンス: Link先を確認
Kevin Hua, Yuhong Guo(参考訳) ドメイン適応は、ラベルに富んだソースドメインを使用して、異なるラベル・スカースターゲットドメインの分類器を学習することを目的としている。 2つのドメインの間に大きな違いがある場合、特に困難である。 本稿では,プログレッシブドメイン拡張に基づく新規な教師なしドメイン適応手法を提案する。 提案手法は, 領域補間により仮想中間領域を生成し, ソース領域を段階的に拡張し, グラスマン多様体上で複数の部分空間アライメントを行うことにより, ソース・ターゲット領域の分岐をブリッジする。 本研究では,複数の領域適応タスクについて実験を行い,提案手法が最先端の性能を達成することを示す。

Domain adaptation aims to exploit a label-rich source domain for learning classifiers in a different label-scarce target domain. It is particularly challenging when there are significant divergences between the two domains. In the paper, we propose a novel unsupervised domain adaptation method based on progressive domain augmentation. The proposed method generates virtual intermediate domains via domain interpolation, progressively augments the source domain and bridges the source-target domain divergence by conducting multiple subspace alignment on the Grassmann manifold. We conduct experiments on multiple domain adaptation tasks and the results shows the proposed method achieves the state-of-the-art performance.
翻訳日:2022-12-17 03:43:38 公開日:2020-04-24
# アップルツリー病検出のための高スペクトルNIRおよびMIRデータと最適波形

Hyper-spectral NIR and MIR data and optimal wavebands for detection of apple tree diseases ( http://arxiv.org/abs/2004.02325v3 )

ライセンス: Link先を確認
Dmitrii Shadrin (1), Mariia Pukalchik (1), Anastasia Uryasheva (2 and 3), Evgeny Tsykunov (2), Grigoriy Yashin (2), Nikita Rodichenko (3), Dzmitry Tsetserukou (2) ((1) Center for Computational and Data-Intensive Science and Engineering, Skolkovo Institute of Science and Technology, (2) Space Center, Skolkovo Institute of Science and Technology, (3) Tsuru Robotics (tsapk llc.))(参考訳) 植物病は食料の収量と品質を劇的に低下させ、農家にとって高い優先順位の課題となる。 apple scab、moniliasis、および powdery mildew は世界で最も重大なリンゴの木病であり、毎年50%から60%の収量損失を引き起こす可能性がある。 本研究では,リンゴの病原体の近赤外域と中赤外域のスペクトルデータを異なる段階で解析する手法を提案する。 得られたスペクトルを用いて、特定の疾患を検出し、他の疾患や健康樹と区別するための最適なスペクトルバンドを発見した。 提案手法は,リンゴ林病のさまざまな段階の正確なリアルタイム情報を農家に提供し,より効果的なタイミングと殺虫剤適用の選択を可能にし,制御性の向上と収量の増加をもたらす。 得られたデータセットは、データを処理し、最適なスペクトル帯域を見つけるためのmatlabのスクリプトと同様に、リンクを介して利用できる。

Plant diseases can lead to dramatic losses in yield and quality of food, becoming a problem of high priority for farmers. Apple scab, moniliasis, and powdery mildew are the most significant apple tree diseases worldwide and may cause between 50% and 60% in yield losses annually; they are controlled by fungicide use with huge financial and time expenses. This research proposes a modern approach for analyzing the spectral data in Near-Infrared and Mid-Infrared ranges of the apple tree diseases at different stages. Using the obtained spectra, we found optimal spectral bands for detecting particular disease and discriminating it from other diseases and healthy trees. The proposed instrument will provide farmers with accurate, real-time information on different stages of apple tree diseases, enabling more effective timing, and selecting the fungicide application, resulting in better control and increasing yield. The obtained dataset, as well as scripts in Matlab for processing data and finding optimal spectral bands, are available via the link: https://yadi.sk/d/ZqfGaNlYVR3TUA
翻訳日:2022-12-16 13:12:14 公開日:2020-04-24
# 高精度かつロバストな対話応答評価器の設計

Designing Precise and Robust Dialogue Response Evaluators ( http://arxiv.org/abs/2004.04908v2 )

ライセンス: Link先を確認
Tianyu Zhao, Divesh Lala, Tatsuya Kawahara(参考訳) 自動対話応答評価器は、自動メトリクスと人的評価の代替として提案されている。 しかし、既存の自動評価器は人間の判断と適度な相関しか得られず、堅牢ではない。 本研究では,参照のない評価器の構築と,半教師付きトレーニングと事前訓練(マスク)言語モデルの活用を提案する。 実験結果から,提案した評価器は人間の判断と強い相関(>0.6)を達成し,多様な応答やコーパスに頑健に一般化することが示された。 コードとデータはhttps://github.com/ZHAOTING/dialog-processing.comで公開しています。

Automatic dialogue response evaluator has been proposed as an alternative to automated metrics and human evaluation. However, existing automatic evaluators achieve only moderate correlation with human judgement and they are not robust. In this work, we propose to build a reference-free evaluator and exploit the power of semi-supervised training and pretrained (masked) language models. Experimental results demonstrate that the proposed evaluator achieves a strong correlation (> 0.6) with human judgement and generalizes robustly to diverse responses and corpora. We open-source the code and data in https://github.com/ZHAOTING/dialog-processing.
翻訳日:2022-12-14 20:53:57 公開日:2020-04-24
# 注文フローの不均衡に対する市場影響条件の実証的研究

Empirical Study of Market Impact Conditional on Order-Flow Imbalance ( http://arxiv.org/abs/2004.08290v2 )

ライセンス: Link先を確認
Anastasia Bugaenko(参考訳) 本研究では,株式市場の流動性に影響を与える要因を実証的に検討した。 我々は、金融市場におけるエージェントの相互作用に関するカイルモデルのような理論モデルが、公開取引や引用データに見られる現象とどのように一致しているかを説明した。 具体的には,小規模の注文フローの場合,注文フローの不均衡の増加とともに価格への影響が線形に増加することを確認した。 さらに,注文フローにサインされた市場への影響を予測する機械学習アルゴリズムを実装した。 この結果から,機械学習モデルを用いて財務変数の推定を行うことが可能であることが示唆され,従来の統計的手法よりも予測精度が高いことが示唆された。 価格の影響要因を理解することはいくつかの理由から重要である。 理論的な立場から、影響をモデル化することは、流動性の統計測度を提供する。 実践者は、予測されるトランザクションコストを見積もり、戦略の実行を最適化するために、取引前ツールとしてインパクトモデルを採用する。 これはまた、ポートフォリオのパフォーマンスが著しく低下する可能性があるため、取引後の評価ベンチマークとして機能する。 より広範に、価格の影響は市場間の流動性のバランスを反映している。 これは、市場設計とシステミックリスクの相関を包括的に説明し、規制当局がより安定かつ効率的な市場を設計できるようにするため、規制当局にとって重要なものである。

In this research, we have empirically investigated the key drivers affecting liquidity in equity markets. We illustrated how theoretical models, such as Kyle's model, of agents' interplay in the financial markets, are aligned with the phenomena observed in publicly available trades and quotes data. Specifically, we confirmed that for small signed order-flows, the price impact grows linearly with increase in the order-flow imbalance. We have, further, implemented a machine learning algorithm to forecast market impact given a signed order-flow. Our findings suggest that machine learning models can be used in estimation of financial variables; and predictive accuracy of such learning algorithms can surpass the performance of traditional statistical approaches. Understanding the determinants of price impact is crucial for several reasons. From a theoretical stance, modelling the impact provides a statistical measure of liquidity. Practitioners adopt impact models as a pre-trade tool to estimate expected transaction costs and optimize the execution of their strategies. This further serves as a post-trade valuation benchmark as suboptimal execution can significantly deteriorate a portfolio performance. More broadly, the price impact reflects the balance of liquidity across markets. This is of central importance to regulators as it provides an all-encompassing explanation of the correlation between market design and systemic risk, enabling regulators to design more stable and efficient markets.
翻訳日:2022-12-12 13:51:52 公開日:2020-04-24
# ベリーの探索:点監督と形状優先を用いたクランベリーのセグメンテーションとカウント

Finding Berries: Segmentation and Counting of Cranberries using Point Supervision and Shape Priors ( http://arxiv.org/abs/2004.08501v2 )

ライセンス: Link先を確認
Peri Akiva, Kristin Dana, Peter Oudemans, Michael Mars(参考訳) 精密農業は意思決定者にとって不可欠な情報を提供することで収穫量を増やす重要な要因となっている。 本研究では,収率推定と日射量予測を支援するために,クランベリーのセグメンテーションとカウントを同時に行うディープラーニング手法を提案する。 特に、監督は低コストのセンターポイントアノテーションを使って行われます。 このアプローチはTriple-S Networkと呼ばれ、農業シーンに典型的な既知の形状の物体に適合するように、形状が先行する3つの部分の損失を伴っている。 その結果, セグメント化性能は6.74%以上向上し, 最先端技術と比較して22.91%向上した。 ネットワークをトレーニングし、評価するために、クランベリー畑のドローン画像の最大のデータセットであるCRanberry Aerial Imagery Dataset (CRAID)を収集した。 このデータセットは公開される予定だ。

Precision agriculture has become a key factor for increasing crop yields by providing essential information to decision makers. In this work, we present a deep learning method for simultaneous segmentation and counting of cranberries to aid in yield estimation and sun exposure predictions. Notably, supervision is done using low cost center point annotations. The approach, named Triple-S Network, incorporates a three-part loss with shape priors to promote better fitting to objects of known shape typical in agricultural scenes. Our results improve overall segmentation performance by more than 6.74% and counting results by 22.91% when compared to state-of-the-art. To train and evaluate the network, we have collected the CRanberry Aerial Imagery Dataset (CRAID), the largest dataset of aerial drone imagery from cranberry fields. This dataset will be made publicly available.
翻訳日:2022-12-12 05:27:51 公開日:2020-04-24
# 残差学習が密集する時:ディープニューラルネットワークの集約を再考する

When Residual Learning Meets Dense Aggregation: Rethinking the Aggregation of Deep Neural Networks ( http://arxiv.org/abs/2004.08796v2 )

ライセンス: Link先を確認
Zhiyu Zhu, Zhen-Peng Bian, Junhui Hou, Yi Wang, Lap-Pui Chau(参考訳) 様々なアーキテクチャ(GoogLeNets、ResNets、DenseNetsなど)が提案されている。 しかし、既存のネットワークは通常、畳み込み層の冗長性やパラメータの不十分な利用に悩まされる。 これらの課題に対処するために,グローバルな残差学習と局所的なマイクロセンス集約を備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。 具体的には、残差学習は、異なる畳み込みブロックから効率よく特徴を抽出することを目的としており、一方、微小密度集約は、各ブロックを強化し、残差集約を減らすことで畳み込み層の冗長性を回避することができる。 さらに,提案するマイクロデンスアーキテクチャは,ブロック内の深層を段階的に拡大できるピラミッド型多レベル特徴学習と,線形に増加する次元濃度を用いて各層をバランスできる次元濃度適応畳み込みという2つの特徴を有する。 3つのデータセット(cifar-10、cifar-100、imagenet-1k)における実験の結果から、4mのパラメータしか持たないマイクロデンスネットは、最先端のネットワークよりも高い分類精度を達成できるが、12.1$\times$はパラメータの数に依存する。 さらに、我々のマイクロセンスブロックは、ニューラルネットワーク検索に基づくモデルと統合することができ、その性能を向上し、アーキテクチャの利点を検証することができる。 デザインと発見はDNNコミュニティにとって有益であると考えています。

Various architectures (such as GoogLeNets, ResNets, and DenseNets) have been proposed. However, the existing networks usually suffer from either redundancy of convolutional layers or insufficient utilization of parameters. To handle these challenging issues, we propose Micro-Dense Nets, a novel architecture with global residual learning and local micro-dense aggregations. Specifically, residual learning aims to efficiently retrieve features from different convolutional blocks, while the micro-dense aggregation is able to enhance each block and avoid redundancy of convolutional layers by lessening residual aggregations. Moreover, the proposed micro-dense architecture has two characteristics: pyramidal multi-level feature learning which can widen the deeper layer in a block progressively, and dimension cardinality adaptive convolution which can balance each layer using linearly increasing dimension cardinality. The experimental results over three datasets (i.e., CIFAR-10, CIFAR-100, and ImageNet-1K) demonstrate that the proposed Micro-Dense Net with only 4M parameters can achieve higher classification accuracy than state-of-the-art networks, while being 12.1$\times$ smaller depends on the number of parameters. In addition, our micro-dense block can be integrated with neural architecture search based models to boost their performance, validating the advantage of our architecture. We believe our design and findings will be beneficial to the DNN community.
翻訳日:2022-12-12 00:23:09 公開日:2020-04-24
# 視覚対話の新たな生成的評価

A Revised Generative Evaluation of Visual Dialogue ( http://arxiv.org/abs/2004.09272v2 )

ライセンス: Link先を確認
Daniela Massiceti, Viveka Kulharia, Puneet K. Dokania, N. Siddharth, Philip H.S. Torr(参考訳) 視覚的インプットに関連する一連の質問に答えるタスクである視覚対話を評価することは、オープンな研究課題である。 VisDialデータセットの現在の評価スキームは、事前に定義された候補集合における接地真実解のランクを計算し、Massiceti et al. (2018) はデータセットバイアスの活用に影響を受けやすいことを示した。 このスキームは、NLPでよく研究されている言語的側面である、同じ回答を表現する異なる方法についてもほとんど考慮していない。 そこで本研究では, nlp文献の指標を用いて, モデルが生成する回答と関連する回答の集合とのコンセンサスを測定するための, visdialデータセットの改訂評価手法を提案する。 相関に基づく単純かつ効果的な半教師付き手法を用いて,これらの回答集合を構築し,人間からデータセット全体へのスパース関連アノテーションの自動拡張とスケールを可能にした。 DenseVisDialとして改訂された評価スキームのためのこれらのセットとコードをリリースし、既存の制約や設計上の選択に直面するデータセットの改善を目指しています。

Evaluating Visual Dialogue, the task of answering a sequence of questions relating to a visual input, remains an open research challenge. The current evaluation scheme of the VisDial dataset computes the ranks of ground-truth answers in predefined candidate sets, which Massiceti et al. (2018) show can be susceptible to the exploitation of dataset biases. This scheme also does little to account for the different ways of expressing the same answer--an aspect of language that has been well studied in NLP. We propose a revised evaluation scheme for the VisDial dataset leveraging metrics from the NLP literature to measure consensus between answers generated by the model and a set of relevant answers. We construct these relevant answer sets using a simple and effective semi-supervised method based on correlation, which allows us to automatically extend and scale sparse relevance annotations from humans to the entire dataset. We release these sets and code for the revised evaluation scheme as DenseVisDial, and intend them to be an improvement to the dataset in the face of its existing constraints and design choices.
翻訳日:2022-12-11 17:45:31 公開日:2020-04-24
# マルチスケールCNN機能ポーリングを用いた画像検索

Image Retrieval using Multi-scale CNN Features Pooling ( http://arxiv.org/abs/2004.09695v2 )

ライセンス: Link先を確認
Federico Vaccaro, Marco Bertini, Tiberio Uricchio, Alberto Del Bimbo(参考訳) 本稿では,畳み込みニューラルネットワークのアクティベーションに基づいて画像表現を学習することで,画像検索の問題に対処する。 本稿では,NetVLADに基づく新しいマルチスケールローカルプールと,サンプルの難易度に基づくトリプルトマイニング手法を利用して,効率的な画像表現を実現するエンドツーエンドのトレーニング可能なネットワークアーキテクチャを提案する。 広範な実験によって、我々のアプローチは3つの標準データセットで最先端の結果に到達できることが示されました。

In this paper, we address the problem of image retrieval by learning images representation based on the activations of a Convolutional Neural Network. We present an end-to-end trainable network architecture that exploits a novel multi-scale local pooling based on NetVLAD and a triplet mining procedure based on samples difficulty to obtain an effective image representation. Extensive experiments show that our approach is able to reach state-of-the-art results on three standard datasets.
翻訳日:2022-12-11 06:55:33 公開日:2020-04-24
# 車両再識別のためのマルチドメイン学習とアイデンティティマイニング

Multi-Domain Learning and Identity Mining for Vehicle Re-Identification ( http://arxiv.org/abs/2004.10547v2 )

ライセンス: Link先を確認
Shuting He, Hao Luo, Weihua Chen, Miao Zhang, Yuqi Zhang, Fan Wang, Hao Li and Wei Jiang(参考訳) 本稿では,AI City Challenge 2020 (AICITY20)におけるTrack2のソリューションを紹介する。 Track2は、現実世界のデータと合成データの両方を扱う車両再識別(ReID)タスクである。 提案手法は,ReIDで提案したトリック袋(BoT-BS)を用いた強力なベースラインに基づく。 まず,実世界と合成データを結合してモデルを訓練するためのマルチドメイン学習手法を提案する。 そこで本研究では,k-meansクラスタリングよりも優れたテストデータの一部に対して擬似ラベルを自動的に生成するidマイニング手法を提案する。 重み付け機能を備えたトラックレットレベルの再ランキング戦略も、結果の処理に使用される。 最後に,マルチモデルアンサンブルを用いて,競技において3位となるmAPスコアの0.7322を達成する。 コードはhttps://github.com/heshuting555/AICITY 2020_DMT_VehicleReIDで公開されている。

This paper introduces our solution for the Track2 in AI City Challenge 2020 (AICITY20). The Track2 is a vehicle re-identification (ReID) task with both the real-world data and synthetic data. Our solution is based on a strong baseline with bag of tricks (BoT-BS) proposed in person ReID. At first, we propose a multi-domain learning method to joint the real-world and synthetic data to train the model. Then, we propose the Identity Mining method to automatically generate pseudo labels for a part of the testing data, which is better than the k-means clustering. The tracklet-level re-ranking strategy with weighted features is also used to post-process the results. Finally, with multiple-model ensemble, our method achieves 0.7322 in the mAP score which yields third place in the competition. The codes are available at https://github.com/heshuting555/AICITY2020_DMT_VehicleReID.
翻訳日:2022-12-10 18:21:58 公開日:2020-04-24
# 数ショットクラスインクリメンタルラーニング

Few-Shot Class-Incremental Learning ( http://arxiv.org/abs/2004.10956v2 )

ライセンス: Link先を確認
Xiaoyu Tao, Xiaopeng Hong, Xinyuan Chang, Songlin Dong, Xing Wei, Yihong Gong(参考訳) 新しいクラスを段階的に学習する能力は、現実の人工知能システムの開発に不可欠である。 本稿では,fscil問題に挑戦するが実用的ではない問題に着目する。 FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。 この問題に対処するために,我々は,異なるクラスで形成される特徴多様体の位相を学習し,保存するニューラルガス(NG)ネットワークを用いて知識を表現する。 そこで我々は,TOPIC(Topology-Preserving Knowledge InCrementer)フレームワークを提案する。 TOPICは、NGのトポロジを安定化することで古いクラスの忘れを軽減し、NGを新しいトレーニングサンプルに成長させ、適応させることで、数ショットの新しいクラスの表現学習を改善する。 その結果,提案手法はCIFAR100, miniImageNet, CUB200データセット上の他の最先端クラスインクリメンタル学習手法よりも優れていた。

The ability to incrementally learn new classes is crucial to the development of real-world artificial intelligence systems. In this paper, we focus on a challenging but practical few-shot class-incremental learning (FSCIL) problem. FSCIL requires CNN models to incrementally learn new classes from very few labelled samples, without forgetting the previously learned ones. To address this problem, we represent the knowledge using a neural gas (NG) network, which can learn and preserve the topology of the feature manifold formed by different classes. On this basis, we propose the TOpology-Preserving knowledge InCrementer (TOPIC) framework. TOPIC mitigates the forgetting of the old classes by stabilizing NG's topology and improves the representation learning for few-shot new classes by growing and adapting NG to new training samples. Comprehensive experimental results demonstrate that our proposed method significantly outperforms other state-of-the-art class-incremental learning methods on CIFAR100, miniImageNet, and CUB200 datasets.
翻訳日:2022-12-10 08:54:36 公開日:2020-04-24
# UAVの自律着陸のためのビジョンベースハードウェア・ソフトウェアリアルタイム制御システム

Vision based hardware-software real-time control system for autonomous landing of an UAV ( http://arxiv.org/abs/2004.11612v1 )

ライセンス: Link先を確認
Krzysztof Blachut and Hubert Szolc and Mateusz Wasala and Tomasz Kryjak and Marek Gorgon(参考訳) 本稿では,マルチロータ無人航空機(UAV)の自律着陸を可能にするビジョンベースハードウェアソフトウェア制御システムを提案する。 1280 x 720 @ 60 fpsのビデオストリームに対して、リアルタイムにマークされたランディングパッドを検出できる。 さらに、LiDARセンサーを使用して地上の高度を測定する。 コンピューティングプラットフォームとして異質なZynq SoCデバイスが使用される。 溶液は複数のシーケンスでテストされ、着陸パッドは96%の精度で検出された。 本研究は, 比較的低消費電力のリアルタイムデータストリーム処理を可能にするため, 再プログラム可能なヘテロジニアスコンピューティングシステムがUAVにとってよい解であることを示す。

In this paper we present a vision based hardware-software control system enabling autonomous landing of a multirotor unmanned aerial vehicle (UAV). It allows the detection of a marked landing pad in real-time for a 1280 x 720 @ 60 fps video stream. In addition, a LiDAR sensor is used to measure the altitude above ground. A heterogeneous Zynq SoC device is used as the computing platform. The solution was tested on a number of sequences and the landing pad was detected with 96% accuracy. This research shows that a reprogrammable heterogeneous computing system is a good solution for UAVs because it enables real-time data stream processing with relatively low energy consumption.
翻訳日:2022-12-10 04:27:45 公開日:2020-04-24
# GAPS: 自動多項式解法用発電機

GAPS: Generator for Automatic Polynomial Solvers ( http://arxiv.org/abs/2004.11765v1 )

ライセンス: Link先を確認
Bo Li and Viktor Larsson(参考訳) コンピュータビジョンにおける最小問題は多項式方程式系に対する効率的な自動解法生成の需要を増大させる。 多項式系が異なる係数のインスタンスで繰り返されると、従来のgr\"obner基底または正規形式に基づく解は非常に非効率である。 幸運なことに、異なる係数を持つ同じ多項式系のGr\"オブナー基底は、一貫した内部構造を共有する。 このような構造をオフラインでプリ計算することで、Gr\"オブナーベースと多項式系解をオンラインで自動的に効率的に解ける。 過去10年間で、一般的な最小限の問題に対する自動解法を生成するツールがいくつかリリースされている。 larssonらによる最新のツールautogenは、最先端のパフォーマンスとソルバ効率を備えたツールの代表である。 gapsはautogenをラップし、よりユーザフレンドリーなインターフェース、より多くの機能と安定性で改善する。 本報告ではGAPSの主なアプローチと拡張機能について述べる。 ソフトウェアの簡単なチュートリアルも含まれている。

Minimal problems in computer vision raise the demand of generating efficient automatic solvers for polynomial equation systems. Given a polynomial system repeated with different coefficient instances, the traditional Gr\"obner basis or normal form based solution is very inefficient. Fortunately the Gr\"obner basis of a same polynomial system with different coefficients is found to share consistent inner structure. By precomputing such structures offline, Gr\"obner basis as well as the polynomial system solutions can be solved automatically and efficiently online. In the past decade, several tools have been released to generate automatic solvers for a general minimal problems. The most recent tool autogen from Larsson et al. is a representative of these tools with state-of-the-art performance in solver efficiency. GAPS wraps and improves autogen with more user-friendly interface, more functionality and better stability. We demonstrate in this report the main approach and enhancement features of GAPS. A short tutorial of the software is also included.
翻訳日:2022-12-10 04:27:35 公開日:2020-04-24
# DeepMerge: ディープニューラルネットワークによるハイリシフトマージギャラクシーの分類

DeepMerge: Classifying High-redshift Merging Galaxies with Deep Neural Networks ( http://arxiv.org/abs/2004.11981v1 )

ライセンス: Link先を確認
A. \'Ciprijanovi\'c, G. F. Snyder, B. Nord, J. E. G. Peek(参考訳) 本研究では,畳み込みニューラルネットワーク(cnns)を用いて,シミュレーション画像における融合銀河と非融合銀河の区別と,高赤方偏移(すなわち$z=2$)での観測を行った。 我々は、Illustris-1の宇宙シミュレーションから融合銀河と非融合銀河の画像を抽出し、ハッブル宇宙望遠鏡を模した観測および実験ノイズを適用し、ノイズのないデータは「原始」データセットとなり、ノイズのあるものは「ノイズ」データセットとなる。 CNNのテストセットの分類精度は、プリスタンが79\%、ノイズが76\%である。 cnnはランダム・フォレスト分類器よりも優れており、従来の1次元または2次元の統計方法(集中、非対称性、gini、$m_{20}$統計など)よりも優れていることが示されている。 また,統合状態と星形成率に対する分類器の選択効果についても検討し,偏りはみられなかった。 最後に,評価結果から grad-cams (gradient-weighted class activation mapping) を抽出し,分類モデルの信頼性をさらに評価し,問合せする。

We investigate and demonstrate the use of convolutional neural networks (CNNs) for the task of distinguishing between merging and non-merging galaxies in simulated images, and for the first time at high redshifts (i.e. $z=2$). We extract images of merging and non-merging galaxies from the Illustris-1 cosmological simulation and apply observational and experimental noise that mimics that from the Hubble Space Telescope; the data without noise form a "pristine" data set and that with noise form a "noisy" data set. The test set classification accuracy of the CNN is $79\%$ for pristine and $76\%$ for noisy. The CNN outperforms a Random Forest classifier, which was shown to be superior to conventional one- or two-dimensional statistical methods (Concentration, Asymmetry, the Gini, $M_{20}$ statistics etc.), which are commonly used when classifying merging galaxies. We also investigate the selection effects of the classifier with respect to merger state and star formation rate, finding no bias. Finally, we extract Grad-CAMs (Gradient-weighted Class Activation Mapping) from the results to further assess and interrogate the fidelity of the classification model.
翻訳日:2022-12-10 04:27:24 公開日:2020-04-24
# 脳による車載インフォテインメントの制御

Brain-based control of car infotainment ( http://arxiv.org/abs/2004.11978v1 )

ライセンス: Link先を確認
Andrea Bellotti, Sergey Antopolskiy, Anna Marchenkova, Alessia Colucciello, Pietro Avanzini, Giovanni Vecchiato, Jonas Ambeck-Madsen, Luca Ascari(参考訳) 現在、組み込みシステム上で高度なAIを実行することは、特に自動車分野における人間と機械の自然な相互作用を可能にする。 本稿では,自動車のインフォテインメントメニューを制御するために,イベント関連電位(ERP)をランダムな実験パラダイムで誘導する,BCI(Brain-Computer Interface)を提案する。 このシステムの予備的な評価は、通常の実験室で10名の被験者と、クローズド・プライベート・トラックで運転中に行われた。 タスクは6つの異なるメニューアイコンを奇抜な方法で繰り返し提示する。 被験者固有のモデルは、実験または運転実験(車内モデルと車内モデル)または2つの(ハイブリッドモデル)の組み合わせから、脳内データに対する異なる機械学習アプローチで訓練され、目標刺激と非目標刺激に対する脳波応答を分類した。 全てのモデルがトレーニングに使用されなかった最後の車内セッションでテストされた。 ERPの振幅分析では、実験室と運転中の両方で、ターゲットアイコンと非ターゲットアイコンに関連する脳波反応の統計的に有意な差が認められた(p < 0.05)。 分類精度(ca)は、すべてのトレーニング構成において、すべての被験者の確率レベルを上回っており、このハイブリッドセットで訓練された深層cnnが最も高いスコア(ca = 53 $\pm$ 12 %、6階級の差別の確率レベルは16 %)に達した。 古典的BCIアプローチによって提供される特徴のランキングは、ERPに基づくターゲット応答と非ターゲット応答の区別を示唆している。 車両内トレーニングセットのcasと車内トレーニングセットのeeg応答との間には統計的に差は見られず、標準実験室で収集されたデータは性能低下を伴わずに実際の運転アプリケーションに容易に使用できることが示唆された。

Nowadays, the possibility to run advanced AI on embedded systems allows natural interaction between humans and machines, especially in the automotive field. We present a custom portable EEG-based Brain-Computer Interface (BCI) that exploits Event-Related Potentials (ERPs) induced with an oddball experimental paradigm to control the infotainment menu of a car. A preliminary evaluation of the system was performed on 10 participants in a standard laboratory setting and while driving on a closed private track. The task consisted of repeated presentations of 6 different menu icons in oddball fashion. Subject-specific models were trained with different machine learning approaches on cerebral data from either only laboratory or driving experiments (in-lab and in-car models) or a combination of the two (hybrid model) to classify EEG responses to target and non-target stimuli. All models were tested on the subjects' last in-car sessions that were not used for the training. Analysis of ERPs amplitude showed statistically significant (p < 0.05) differences between the EEG responses associated with target and non-target icons, both in the laboratory and while driving. Classification Accuracy (CA) was above chance level for all subjects in all training configurations, with a deep CNN trained on the hybrid set achieving the highest scores (mean CA = 53 $\pm$ 12 %, with 16 % chance level for the 6-class discrimination). The ranking of the features importance provided by a classical BCI approach suggests an ERP-based discrimination between target and non-target responses. No statistical differences were observed between the CAs for the in-lab and in-car training sets, nor between the EEG responses in these conditions, indicating that the data collected in the standard laboratory setting could be readily used for a real driving application without a noticeable decrease in performance.
翻訳日:2022-12-10 04:25:45 公開日:2020-04-24
# 機械学習, 決定論的および確率的sirモデルによるcovid-19パンデミックの確定例の比較予測

Comparative prediction of confirmed cases with COVID-19 pandemic by machine learning, deterministic and stochastic SIR models ( http://arxiv.org/abs/2004.13489v1 )

ライセンス: Link先を確認
Babacar Mbaye Ndiaye, Lena Tendeng, Diaraf Seck(参考訳) 本稿では、新型コロナウイルスの感染者数を数日間と次の3週間の両方で予測するための数値近似を用いた機械学習技術とsirモデル(決定論的・確率的ケース)を提案する。 [1]と同様、[2]からの公開データに基づいてパラメータを推定し、状況を制御するための具体的なアクションを見つける方法について予測する。 楽観的な推計では、一部の国のパンデミックは間もなく終了するが、世界のほとんどの国では、5月初め以降は反パンデミックの打撃が続くだろう。

In this paper, we propose a machine learning technics and SIR models (deterministic and stochastic cases) with numerical approximations to predict the number of cases infected with the COVID-19, for both in few days and the following three weeks. Like in [1] and based on the public data from [2], we estimate parameters and make predictions to help on how to find concrete actions to control the situation. Under optimistic estimation, the pandemic in some countries will end soon, while for most of the countries in the world, the hit of anti-pandemic will be no later than the beginning of May.
翻訳日:2022-12-10 04:21:44 公開日:2020-04-24
# 短距離ハッシュの強化

Reinforcing Short-Length Hashing ( http://arxiv.org/abs/2004.11511v1 )

ライセンス: Link先を確認
Xingbo Liu, Xiushan Nie, Qi Dai, Yupan Huang, Yilong Yin(参考訳) 検索と記憶の効率性が高いため、画像検索において近接する近傍探索に類似性保存ハッシュが広く適用されている。 しかし,従来の手法では,分類能力の弱さやハッシュビット分布の低さから,非常に短いハッシュコードによる検索性能が低下している。 この問題に対処するため,本研究では,新しい強化短長ハッシュ(rslh)を提案する。 本稿では,ハッシュ表現と意味ラベルの相互再構成を行い,意味情報を保存する。 さらに、ハッシュ表現の精度を高めるために、メモリ上でのトレーニング費用と精度のバランスをとるために、ペアワイズ類似度行列を設計する。 さらに、パラメータブースティング戦略を統合して、ハッシュビット融合による精度を強化する。 3つの大規模画像ベンチマークの大規模な実験は、様々な短いハッシュシナリオ下でのRSLHの優れた性能を示す。

Due to the compelling efficiency in retrieval and storage, similarity-preserving hashing has been widely applied to approximate nearest neighbor search in large-scale image retrieval. However, existing methods have poor performance in retrieval using an extremely short-length hash code due to weak ability of classification and poor distribution of hash bit. To address this issue, in this study, we propose a novel reinforcing short-length hashing (RSLH). In this proposed RSLH, mutual reconstruction between the hash representation and semantic labels is performed to preserve the semantic information. Furthermore, to enhance the accuracy of hash representation, a pairwise similarity matrix is designed to make a balance between accuracy and training expenditure on memory. In addition, a parameter boosting strategy is integrated to reinforce the precision with hash bits fusion. Extensive experiments on three large-scale image benchmarks demonstrate the superior performance of RSLH under various short-length hashing scenarios.
翻訳日:2022-12-10 04:21:22 公開日:2020-04-24
# 不確実性レンズによる深層学習ソフトの逆欠陥評価に向けて

Towards Characterizing Adversarial Defects of Deep Learning Software from the Lens of Uncertainty ( http://arxiv.org/abs/2004.11573v1 )

ライセンス: Link先を確認
Xiyue Zhang, Xiaofei Xie, Lei Ma, Xiaoning Du, Qiang Hu, Yang Liu, Jianjun Zhao, Meng Sun(参考訳) 過去10年間で、ディープラーニング(DL)は多くの産業ドメイン固有のタスクにうまく適用されてきた。 しかし、現在最先端のDLソフトウェアは依然として品質の問題に悩まされており、特に安全性とセキュリティクリティカルなシナリオの文脈で大きな懸念を巻き起こしている。 逆例(AE)は、緊急に対処するために必要な典型的な、重要な欠陥の型であり、DLソフトウェアが誤った判断を下す。 このような欠陥は、意図的な攻撃または入力センサーによって知覚される物理的世界ノイズによって発生し、さらなる産業展開を妨げる可能性がある。 深層学習決定の本質的な不確実性は、その不正確な行動の根本的な理由である。 近年,AEsとDLの不確実性を明らかにするための体系的な研究は行われていないが,いくつかの検査,敵攻撃,防御技術が近年提案されている。 本稿では,このギャップを橋渡しするための大規模研究を行う。 まず,入力データの不確実性パターンを特徴付ける良性例(bes)とaesの区別において,複数の不確実性指標の能力について検討する。 次に,besとaesの不確実性パターンを特定し分類し,既存の手法で生成されたbesとaesが共通の不確実性パターンに従うが,他の不確実性パターンはほとんど欠落していることを示す。 そこで本研究では,既存の技術にほとんど欠落している複数の非一般的なAEとBEを生成する自動テスト手法を提案する。 さらに,本手法が生成するまれなデータは,従来の防御技術では防御が困難であり,防御成功率の平均は35\%低下することが判明した。 本研究は,dlソフトウェアの品質保証ソリューションを評価するために,より多様なデータを生成する必要性と注意を喚起する。

Over the past decade, deep learning (DL) has been successfully applied to many industrial domain-specific tasks. However, the current state-of-the-art DL software still suffers from quality issues, which raises great concern especially in the context of safety- and security-critical scenarios. Adversarial examples (AEs) represent a typical and important type of defects needed to be urgently addressed, on which a DL software makes incorrect decisions. Such defects occur through either intentional attack or physical-world noise perceived by input sensors, potentially hindering further industry deployment. The intrinsic uncertainty nature of deep learning decisions can be a fundamental reason for its incorrect behavior. Although some testing, adversarial attack and defense techniques have been recently proposed, it still lacks a systematic study to uncover the relationship between AEs and DL uncertainty. In this paper, we conduct a large-scale study towards bridging this gap. We first investigate the capability of multiple uncertainty metrics in differentiating benign examples (BEs) and AEs, which enables to characterize the uncertainty patterns of input data. Then, we identify and categorize the uncertainty patterns of BEs and AEs, and find that while BEs and AEs generated by existing methods do follow common uncertainty patterns, some other uncertainty patterns are largely missed. Based on this, we propose an automated testing technique to generate multiple types of uncommon AEs and BEs that are largely missed by existing techniques. Our further evaluation reveals that the uncommon data generated by our method is hard to be defended by the existing defense techniques with the average defense success rate reduced by 35\%. Our results call for attention and necessity to generate more diverse data for evaluating quality assurance solutions of DL software.
翻訳日:2022-12-10 04:20:29 公開日:2020-04-24
# CFR-RL:SDNにおける強化学習による交通工学

CFR-RL: Traffic Engineering with Reinforcement Learning in SDN ( http://arxiv.org/abs/2004.11986v1 )

ライセンス: Link先を確認
Junjie Zhang, Minghao Ye, Zehua Guo, Chen-Yu Yen, H. Jonathan Chao(参考訳) 従来の交通工学(TE)ソリューションは、可能な限り多くのフローをリルーティングすることで、最適またはほぼ最適のパフォーマンスを達成することができる。 しかし、彼らは通常、ネットワーク内のフローを頻繁に再ルーティングする場合、パケットの整合性などの負の影響を考慮しない。 ネットワーク障害の影響を軽減するため、ある有望なTEソリューションは、Equal-Cost Multi-Path(ECMP)を使用してトラフィックフローの大部分を転送し、Software-Defined Networking(SDN)を使用していくつかのクリティカルフローを選択的にリルーティングし、ネットワークのリンク利用のバランスをとる。 しかし,臨界流選択の解空間は巨大であるため,臨界流の再帰は容易ではない。 さらに、規則に基づくヒューリスティックは、トラフィック行列やネットワークダイナミクスの変化に適応できないため、固定的かつ単純なルールに基づいて、この問題に対するヒューリスティックなアルゴリズムを設計することは不可能である。 本稿では,トラヒックマトリックス毎にクリティカルフローを自動的に選択するポリシを学習する強化学習に基づくcfr-rl(critical flow rerouting-reinforcement learning)を提案する。 CFR-RLは、これらの選択されたクリティカルフローを除去し、単純な線形プログラミング(LP)問題を定式化し解決することで、ネットワークのリンク利用のバランスをとる。 大規模な評価では、CFR-RLは全トラフィックの10%-21.3%だけをリルーティングすることで、ほぼ最適性能を達成している。

Traditional Traffic Engineering (TE) solutions can achieve the optimal or near-optimal performance by rerouting as many flows as possible. However, they do not usually consider the negative impact, such as packet out of order, when frequently rerouting flows in the network. To mitigate the impact of network disturbance, one promising TE solution is forwarding the majority of traffic flows using Equal-Cost Multi-Path (ECMP) and selectively rerouting a few critical flows using Software-Defined Networking (SDN) to balance link utilization of the network. However, critical flow rerouting is not trivial because the solution space for critical flow selection is enormous. Moreover, it is impossible to design a heuristic algorithm for this problem based on fixed and simple rules, since rule-based heuristics are unable to adapt to the changes of the traffic matrix and network dynamics. In this paper, we propose CFR-RL (Critical Flow Rerouting-Reinforcement Learning), a Reinforcement Learning-based scheme that learns a policy to select critical flows for each given traffic matrix automatically. CFR-RL then reroutes these selected critical flows to balance link utilization of the network by formulating and solving a simple Linear Programming (LP) problem. Extensive evaluations show that CFR-RL achieves near-optimal performance by rerouting only 10%-21.3% of total traffic.
翻訳日:2022-12-10 04:19:29 公開日:2020-04-24
# マルチメディアオントロジーと機械学習を用いたBharatanatyam Dance Transcription

Bharatanatyam Dance Transcription using Multimedia Ontology and Machine Learning ( http://arxiv.org/abs/2004.11994v1 )

ライセンス: Link先を確認
Tanwi Mallick and Patha Pratim Das and Arun Kumar Majumdar(参考訳) インド古典舞踊(indian classical dance)は、5000年以上前の、感情を表現するためのマルチモーダル言語である。 マルチメディア技術によるダンスの保存は難しい課題である。 本稿では,ダンス演奏を解析可能な表現として生成するシステムを開発した。 このシステムは、無形遺産の保存、アノテートパフォーマンスの改善、ダンスパフォーマンスの合成に役立ちます。 私たちはまず、インド古典舞踊の基本的なステップである「Bharatanatyam Adavus」の概念を、オントロジモデルで捉えようと試みた。 次に,adavusのオントロジーとマルチモーダルデータストリーム(この場合はkinectのrgb-d)のオントロジーを関連付けた,計算可能なフレームワークのためのイベントベースの低レベルモデルを構築する。 最後に、オントロジーはラバノテーションへの転写に使用される。 また, bharatanatyam adavusのパフォーマンスをラバノテーションにエンコードし, 記録したデータセットでテストするための転写ツールを提案する。 我々の主な目的は、オントロジーを用いたララノテーションにおけるダンスの複雑な動きの文書化である。

Indian Classical Dance is an over 5000 years' old multi-modal language for expressing emotions. Preservation of dance through multimedia technology is a challenging task. In this paper, we develop a system to generate a parseable representation of a dance performance. The system will help to preserve intangible heritage, annotate performances for better tutoring, and synthesize dance performances. We first attempt to capture the concepts of the basic steps of an Indian Classical Dance form, named Bharatanatyam Adavus, in an ontological model. Next, we build an event-based low-level model that relates the ontology of Adavus to the ontology of multi-modal data streams (RGB-D of Kinect in this case) for a computationally realizable framework. Finally, the ontology is used for transcription into Labanotation. We also present a transcription tool for encoding the performances of Bharatanatyam Adavus to Labanotation and test it on our recorded data set. Our primary aim is to document the complex movements of dance in terms of Labanotation using the ontology.
翻訳日:2022-12-10 04:19:00 公開日:2020-04-24
# コード表現による大規模コードベースの脆弱性予測

Predicting Vulnerability In Large Codebases With Deep Code Representation ( http://arxiv.org/abs/2004.12783v1 )

ライセンス: Link先を確認
Anshul Tanwar, Krishna Sundaresan, Parmesh Ashwath, Prasanna Ganesan, Sathish Kumar Chandrasekaran, Sriram Ravi(参考訳) 現在、ソフトウェアエンジニアがさまざまなモジュールのコードを書く一方で、コーディング、ロジック、セマンティクスなど、さまざまなタイプのエラー(そのほとんどはコンパイルや他のツールでは捉えられない)が紹介されることが多い。 これらのバグのいくつかはテストの後半段階にある可能性があり、本番コードで顧客から報告されることが多い。 コーディングを正しく行えば避けられたであろうバグの発見と修正には、お金と時間の両方の多くのリソースが必要になります。 また、ソフトウェアに隠された欠陥は、攻撃者がシステムやアプリケーションを侵害する可能性のあるセキュリティ脆弱性につながる可能性がある。 興味深いことに、過去に(異なるモジュールで)修正された同じまたは類似のイシュー/バグは、再び本番コードに導入される傾向がある。 我々は、ソースコードから生成された抽象構文木(AST)の深い表現とアクティブフィードバックループを使用して、開発者が新しいコード(論理や関数)を書いているときに、開発時に発生する可能性のあるバグを特定し警告する新しいAIベースのシステムを開発した。 プラグインとしてIDEに統合されたこのツールは、バックグラウンドで動作し、既存の類似機能/コードセグメントと関連するバグを指摘します。 このツールは、UT/QA/customerが欠陥を発生させるのを待つのではなく、開発時点で提案を組み込むことができる。 オープンソースコードとC言語とC++用のCiscoコードベースの両方でツールを評価しました。 その結果、ソースコードとアクティブフィードバックループの深い表現は、コードに存在するセキュリティやその他の脆弱性を予測するための確実なアプローチであることを確認した。

Currently, while software engineers write code for various modules, quite often, various types of errors - coding, logic, semantic, and others (most of which are not caught by compilation and other tools) get introduced. Some of these bugs might be found in the later stage of testing, and many times it is reported by customers on production code. Companies have to spend many resources, both money and time in finding and fixing the bugs which would have been avoided if coding was done right. Also, concealed flaws in software can lead to security vulnerabilities that potentially allow attackers to compromise systems and applications. Interestingly, same or similar issues/bugs, which were fixed in the past (although in different modules), tend to get introduced in production code again. We developed a novel AI-based system which uses the deep representation of Abstract Syntax Tree (AST) created from the source code and also the active feedback loop to identify and alert the potential bugs that could be caused at the time of development itself i.e. as the developer is writing new code (logic and/or function). This tool integrated with IDE as a plugin would work in the background, point out existing similar functions/code-segments and any associated bugs in those functions. The tool would enable the developer to incorporate suggestions right at the time of development, rather than waiting for UT/QA/customer to raise a defect. We assessed our tool on both open-source code and also on Cisco codebase for C and C++ programing language. Our results confirm that deep representation of source code and the active feedback loop is an assuring approach for predicting security and other vulnerabilities present in the code.
翻訳日:2022-12-10 04:18:40 公開日:2020-04-24
# 1D-CNNを用いたセンサ値に基づく生産相の検出

Detecting Production Phases Based on Sensor Values using 1D-CNNs ( http://arxiv.org/abs/2004.14475v1 )

ライセンス: Link先を確認
Burkhard Hoppenstedt, Manfred Reichert, Ghada El-Khawaga, Klaus Kammerer, Karl-Michael Winter, R\"udiger Pryss(参考訳) 産業4.0では,センサ情報からの知識抽出が重要な役割を担っている。 センサ値から収集された情報は、しばしば、異常やマシン状態などの生産レベルの意味のある洞察を示す。 本稿では,畳み込みニューラルネットワークの助けを借りて,センサ値の検査により生産段階を同定する。 データセットは、金属熱処理に用いられる焼成炉に由来する。 我々の教師付き学習手法は、生産段階の検出に用いられた選択されたニューラルネットワークの有望な精度を明らかにした。 この研究で示されるようなソリューションは、予測メンテナンスの分野における突出した柱だと考えています。

In the context of Industry 4.0, the knowledge extraction from sensor information plays an important role. Often, information gathered from sensor values reveals meaningful insights for production levels, such as anomalies or machine states. In our use case, we identify production phases through the inspection of sensor values with the help of convolutional neural networks. The data set stems from a tempering furnace used for metal heat treating. Our supervised learning approach unveils a promising accuracy for the chosen neural network that was used for the detection of production phases. We consider solutions like shown in this work as salient pillars in the field of predictive maintenance.
翻訳日:2022-12-10 04:18:14 公開日:2020-04-24
# ポイントクラウドフィルタの深部特徴保存正規推定

Deep Feature-preserving Normal Estimation for Point Cloud Filtering ( http://arxiv.org/abs/2004.11563v1 )

ライセンス: Link先を確認
Dening Lu, Xuequan Lu, Yangxing Sun, Jun Wang(参考訳) ポイントクラウドフィルタリングは、幾何学的特徴を維持しながらノイズ(異常値)を取り除くことが主なボトルネックであり、3dフィールドにおける根本的な問題である。 通常の推定と位置更新を含む2段階のスキームが有望な結果をもたらすことが示されている。 それでも、最適化とディープラーニングを含む現在の通常の推定方法は、しばしば自動化が限られるか、鋭い特徴を保存できない。 本稿では,幾何学的特徴を保存した点雲フィルタリングのための特徴保存正規推定法を提案する。 学習方法であり,正規化の自動予測を実現する。 トレーニングフェーズでは,まずパッチベースのサンプルを生成して分類ネットワークに送り,特徴点と非特徴点を分類する。 最後に、機能点と非機能点のサンプルを個別にトレーニングし、適切な結果を得る。 テストに関して、ノイズの多い点雲があると、その正規値が自動的に推定される。 さらにポイント・クラウド・フィルタリングを行うために、上記の正規推定と現在位置更新アルゴリズムを数回反復する。 様々な実験により,本手法は品質と量の両方において,最先端の正規推定法とポイントクラウドフィルタリング手法を上回っていることが示された。

Point cloud filtering, the main bottleneck of which is removing noise (outliers) while preserving geometric features, is a fundamental problem in 3D field. The two-step schemes involving normal estimation and position update have been shown to produce promising results. Nevertheless, the current normal estimation methods including optimization ones and deep learning ones, often either have limited automation or cannot preserve sharp features. In this paper, we propose a novel feature-preserving normal estimation method for point cloud filtering with preserving geometric features. It is a learning method and thus achieves automatic prediction for normals. For training phase, we first generate patch based samples which are then fed to a classification network to classify feature and non-feature points. We finally train the samples of feature and non-feature points separately, to achieve decent results. Regarding testing, given a noisy point cloud, its normals can be automatically estimated. For further point cloud filtering, we iterate the above normal estimation and a current position update algorithm for a few times. Various experiments demonstrate that our method outperforms state-of-the-art normal estimation methods and point cloud filtering techniques, in terms of both quality and quantity.
翻訳日:2022-12-10 04:11:39 公開日:2020-04-24
# 古いジレンマのレビュー:demosaicking first, or denoising first?

A Review of an Old Dilemma: Demosaicking First, or Denoising First? ( http://arxiv.org/abs/2004.11577v1 )

ライセンス: Link先を確認
Qiyu Jin and Gabriele Facciolo and Jean-Michel Morel(参考訳) 画像のデノイジングとデモサイクリングは、デジタルカメラパイプラインの最も重要な初期段階である。 これらはノイズカラーフィルタアレイ(cfa)画像からフルカラー画像を再構成することを目的とした深刻な不適切な問題である。 ほとんどの文献では、デノベーションとデモザイクは、相互作用を考慮せずに、2つの独立した問題として扱われる。 いくつかの最近の研究は、重厚CNNを含む作業において共同で対処し始めており、低消費電力のポータブルイメージング装置と互換性がない。 したがって、デノイングとデノザックを組み合わせてフルカラーイメージを再構築する方法に関する質問は非常に関連性が高い: 最初にデノッシングを適用すべきか、それとも最初にデノザックを適用すべきか? 本稿では,これらの戦略の主な変種を概観し,ノイズの多いモザイクからフルカラー画像を再構築する最善の方法を見出すために,広範な評価を行う。 デモサイクリングはまず適用すべきだと結論付け,次にデノベーションを行う。 しかし、ノイズを除去するためには古典的な復調アルゴリズムの適応が必要であることを証明し、それを正当化し特定する。

Image denoising and demosaicking are the most important early stages in digital camera pipelines. They constitute a severely ill-posed problem that aims at reconstructing a full color image from a noisy color filter array (CFA) image. In most of the literature, denoising and demosaicking are treated as two independent problems, without considering their interaction, or asking which should be applied first. Several recent works have started addressing them jointly in works that involve heavy weight CNNs, thus incompatible with low power portable imaging devices. Hence, the question of how to combine denoising and demosaicking to reconstruct full color images remains very relevant: Is denoising to be applied first, or should that be demosaicking first? In this paper, we review the main variants of these strategies and carry-out an extensive evaluation to find the best way to reconstruct full color images from a noisy mosaic. We conclude that demosaicking should applied first, followed by denoising. Yet we prove that this requires an adaptation of classic denoising algorithms to demosaicked noise, which we justify and specify.
翻訳日:2022-12-10 04:11:19 公開日:2020-04-24
# 任意のモーション検出器:LiDAR点群からのクラス非依存シーンダイナミクスの学習

Any Motion Detector: Learning Class-agnostic Scene Dynamics from a Sequence of LiDAR Point Clouds ( http://arxiv.org/abs/2004.11647v1 )

ライセンス: Link先を確認
Artem Filatov, Andrey Rykov, Viacheslav Murashkin(参考訳) 複雑な都市環境における自動運転車の安全ナビゲーションには,物体検出と移動パラメータ推定が不可欠である。 本研究では3次元点雲列に基づく動き検出と動きパラメータ推定のための時間的文脈アグリゲーションの新しいリアルタイム手法を提案する。 我々は,原点雲列のナイーブなオドメトリー変換に匹敵する性能を持つリアルタイム推論を実現するために,エゴモーション補償層を導入する。 提案アーキテクチャは,車両や歩行者などの一般道路参加者の動きを推定できるだけでなく,訓練データに存在しない他の対象カテゴリーにも一般化できる。 また,再帰性細胞や3D畳み込みなどの時間的文脈アグリゲーション戦略を深く分析する。 最後に、KITTI Scene Flowデータセット上の既存のソリューションとの比較結果を提供する。

Object detection and motion parameters estimation are crucial tasks for self-driving vehicle safe navigation in a complex urban environment. In this work we propose a novel real-time approach of temporal context aggregation for motion detection and motion parameters estimation based on 3D point cloud sequence. We introduce an ego-motion compensation layer to achieve real-time inference with performance comparable to a naive odometric transform of the original point cloud sequence. Not only is the proposed architecture capable of estimating the motion of common road participants like vehicles or pedestrians but also generalizes to other object categories which are not present in training data. We also conduct an in-deep analysis of different temporal context aggregation strategies such as recurrent cells and 3D convolutions. Finally, we provide comparison results of our state-of-the-art model with existing solutions on KITTI Scene Flow dataset.
翻訳日:2022-12-10 04:10:43 公開日:2020-04-24
# ct画像から肺病理を定量化するためのスペクトルデータ拡張法

Spectral Data Augmentation Techniques to quantify Lung Pathology from CT-images ( http://arxiv.org/abs/2004.11989v1 )

ライセンス: Link先を確認
Subhradeep Kayal and Florian Dubost and Harm A. W. M. Tiddens and Marleen de Bruijne(参考訳) データ拡張は、ラベル付きデータの不適切な量によって特徴付けられる、生物医学的な画像処理タスクにおいて最も重要なものである。 インユース技術は、強度変換や弾性変形から、既存のデータポイントを線形に組み合わせて新しいものを作るまで様々である。 本研究では,離散コサイン変換とウェーブレット変換を用いて,スペクトルを用いたデータ拡張手法を提案する。 嚢胞性線維症患者に対するctテクスチャ解析による肺組織異常検出の試みを実証的に評価した。 実験により,提案手法は既存手法と比較して良好な性能を示した。 提案手法は,従来の手法と組み合わせることで,単純な複製ベースラインに対して,相対的なマイナークラスセグメンテーション性能を44.1%向上させることができる。

Data augmentation is of paramount importance in biomedical image processing tasks, characterized by inadequate amounts of labelled data, to best use all of the data that is present. In-use techniques range from intensity transformations and elastic deformations, to linearly combining existing data points to make new ones. In this work, we propose the use of spectral techniques for data augmentation, using the discrete cosine and wavelet transforms. We empirically evaluate our approaches on a CT texture analysis task to detect abnormal lung-tissue in patients with cystic fibrosis. Empirical experiments show that the proposed spectral methods perform favourably as compared to the existing methods. When used in combination with existing methods, our proposed approach can increase the relative minor class segmentation performance by 44.1% over a simple replication baseline.
翻訳日:2022-12-10 04:09:59 公開日:2020-04-24
# Recursive Semantics-Guided Networkによる網膜血管セグメンテーションの接続性向上

Boosting Connectivity in Retinal Vessel Segmentation via a Recursive Semantics-Guided Network ( http://arxiv.org/abs/2004.12776v1 )

ライセンス: Link先を確認
Rui Xu and Tiantian Liu and Xinchen Ye and Yen-Wei Chen(参考訳) 網膜血管のセグメンテーションのための深層学習に基づく多くの手法が提案されているが、網膜画像の実用的なコンピュータ支援診断システムにおいて非常に重要であるセグメンテーションされた血管の接続性に焦点を当てているものはほとんどない。 本稿では,この問題に対処する効率的なネットワークを提案する。 u字型ネットワークは、より強力な機能を探索するためにネットワークを導くために、浅い層に拡張されたセマンティクス情報を統合するセマンティクスガイドモジュールを導入することで強化される。 さらに、再帰的改良は、前回のセグメンテーション結果よりも同じネットワークを反復的に適用し、追加のネットワークパラメータを増加させながら、パフォーマンスを漸進的に向上させる。 慎重に設計された再帰的セマンティクス誘導ネットワークは、いくつかの公開データセットで広く評価されている。 実験の結果,提案手法の有効性が示された。

Many deep learning based methods have been proposed for retinal vessel segmentation, however few of them focus on the connectivity of segmented vessels, which is quite important for a practical computer-aided diagnosis system on retinal images. In this paper, we propose an efficient network to address this problem. A U-shape network is enhanced by introducing a semantics-guided module, which integrates the enriched semantics information to shallow layers for guiding the network to explore more powerful features. Besides, a recursive refinement iteratively applies the same network over the previous segmentation results for progressively boosting the performance while increasing no extra network parameters. The carefully designed recursive semantics-guided network has been extensively evaluated on several public datasets. Experimental results have shown the efficiency of the proposed method.
翻訳日:2022-12-10 04:09:46 公開日:2020-04-24
# 深部畳み込みニューラルネットワークを用いたDescemet膜角膜移植後のグラフト剥離の定量

Quantifying Graft Detachment after Descemet's Membrane Endothelial Keratoplasty with Deep Convolutional Neural Networks ( http://arxiv.org/abs/2004.12807v1 )

ライセンス: Link先を確認
Friso G. Heslinga, Mark Alberti, Josien P.W. Pluim, Javier Cabrerizo, Mitko Veta(参考訳) 目的: 前節光コヒーレンス断層撮影法(as-oct)におけるdescemet膜内皮角膜形成術(dmek)後の移植片剥離の自動検出と定量化法を開発した。 方法: 1280 AS-OCT BスキャンはDMEKの専門家によって注釈された。 このアノテーションを用いて, 強膜枝の局所化, as-oct b-scans中心, 剥離部を分割する深層学習パイプラインを開発した。 1) 分割長と(2) 分割区間の水平投影を専門家アノテーションと比較することにより, 分割分割モデルの性能をBスキャン毎に評価した。 水平投影はグラフト・デタッチメント・マップの構築に用いられた。 最終的な評価はすべて、モデルのトレーニング中に分離されたテストセットで行われた。 第2のDMEK専門家がテストセットに注釈を付け、レータ間のパフォーマンスを判定した。 結果: 平均 scleral spur localization error は0.155 mm, レート間差は0.090 mmであった。 グラフト剥離長は10ピクセル (~150{\mu}m) 内69%であり, 底面の真偽 (第2のDMEK専門家は77%) との差が認められた。 分離部を有するb-scanの水平投射のdiceスコアは,それぞれ0.896点と0.880点であった。 結論: 深層学習モデルを用いて, AS-OCT Bスキャンのグラフト剥離を自動的に, 即時局所化することができる。 水平剥離プロジェクションは人間のDMEK専門家と同じ精度で決定でき、正確なグラフト剥離マップを構築することができる。 翻訳関連性: グラフト剥離の自動局所化と定量化は、DMEK研究を支援し、臨床意思決定を標準化する。

Purpose: We developed a method to automatically locate and quantify graft detachment after Descemet's Membrane Endothelial Keratoplasty (DMEK) in Anterior Segment Optical Coherence Tomography (AS-OCT) scans. Methods: 1280 AS-OCT B-scans were annotated by a DMEK expert. Using the annotations, a deep learning pipeline was developed to localize scleral spur, center the AS-OCT B-scans and segment the detached graft sections. Detachment segmentation model performance was evaluated per B-scan by comparing (1) length of detachment and (2) horizontal projection of the detached sections with the expert annotations. Horizontal projections were used to construct graft detachment maps. All final evaluations were done on a test set that was set apart during training of the models. A second DMEK expert annotated the test set to determine inter-rater performance. Results: Mean scleral spur localization error was 0.155 mm, whereas the inter-rater difference was 0.090 mm. The estimated graft detachment lengths were in 69% of the cases within a 10-pixel (~150{\mu}m) difference from the ground truth (77% for the second DMEK expert). Dice scores for the horizontal projections of all B-scans with detachments were 0.896 and 0.880 for our model and the second DMEK expert respectively. Conclusion: Our deep learning model can be used to automatically and instantly localize graft detachment in AS-OCT B-scans. Horizontal detachment projections can be determined with the same accuracy as a human DMEK expert, allowing for the construction of accurate graft detachment maps. Translational Relevance: Automated localization and quantification of graft detachment can support DMEK research and standardize clinical decision making.
翻訳日:2022-12-10 04:09:30 公開日:2020-04-24
# 非対称コアテンションを用いた画像超解像のためのディープインターリーブドネットワーク

Deep Interleaved Network for Image Super-Resolution With Asymmetric Co-Attention ( http://arxiv.org/abs/2004.11814v1 )

ライセンス: Link先を確認
Feng Li, Runming Cong, Huihui Bai, and Yifan He(参考訳) 近年,畳み込みニューラルネットワーク (CNN) を用いた画像超解像 (SR) が文献で大きな成功を収めている。 しかし,これらの手法は入力からの特徴マップを拡張して最終的な予測を行うために単一パスストリームとして実装されている。 本稿では,この問題を解決するために,浅層情報に代表的特徴を反映した画像SRに対して,異なる状態の情報をどのように組み合わせるべきかを学ぶためのディープインターリーブドネットワーク(DIN)を提案する。 我々のDINは、複数の相互接続された枝を異なる状態にインターリーブしてヒューズすることができるマルチブランチパターンに従っています。 さらに,非対称コアテンション (AsyCA) が提案され,異なる状態からの情報的特徴を適応的に強調し,ネットワークの識別能力を向上させる。 我々の提案したDIN法と最先端のSR法を比較検討した。

Recently, Convolutional Neural Networks (CNN) based image super-resolution (SR) have shown significant success in the literature. However, these methods are implemented as single-path stream to enrich feature maps from the input for the final prediction, which fail to fully incorporate former low-level features into later high-level features. In this paper, to tackle this problem, we propose a deep interleaved network (DIN) to learn how information at different states should be combined for image SR where shallow information guides deep representative features prediction. Our DIN follows a multi-branch pattern allowing multiple interconnected branches to interleave and fuse at different states. Besides, the asymmetric co-attention (AsyCA) is proposed and attacked to the interleaved nodes to adaptively emphasize informative features from different states and improve the discriminative ability of networks. Extensive experiments demonstrate the superiority of our proposed DIN in comparison with the state-of-the-art SR methods.
翻訳日:2022-12-10 04:03:27 公開日:2020-04-24
# ドライバビュー画像による未署名道路事故の検出

Detecting Unsigned Physical Road Incidents from Driver-View Images ( http://arxiv.org/abs/2004.11824v1 )

ライセンス: Link先を確認
Alex Levering, Martin Tomko, Devis Tuia, Kourosh Khoshelham(参考訳) 道路の安全は、特に自動運転車の文脈において、非常に重要である。 重要なニーズは、早期かつ効果的に破壊的なインシデントを検出し、伝達することである。 本稿では,車載の深層ニューラルネットワークアーキテクチャに基づいて,信号機や物理的(画像で見える)道路事故のタイプを検知し,認識できるシステムを提案する。 我々は,無署名の物理的インシデントに対する分類法を開発し,関連するインシデントを整理し分類する。 8種類のインシデントを選択した後、公開可能なWebソースから12万の画像のデータセットを収集します。 次に畳み込みニューラルネットワークを微調整して8種類の道路インシデントを認識する。 提案モデルでは,高い精度(90%以上)でインシデントを認識できる。 さらに,本システムでは,イギリスにおけるジオストラト化データの分類器を訓練することにより,空間的文脈にわたってよく一般化する(90%以上の精度で)が,視覚的に類似の少ない環境への変換には空間的分散データ収集が必要である。 注意:これはIEEE Transactions on Intelligent Vehicles (T-IV; in press)で受け入れられた作業のプレプリント版である。 論文は現在生産中であり、間もなくDOIリンクが追加される予定である。

Safety on roads is of uttermost importance, especially in the context of autonomous vehicles. A critical need is to detect and communicate disruptive incidents early and effectively. In this paper we propose a system based on an off-the-shelf deep neural network architecture that is able to detect and recognize types of unsigned (non-placarded, such as traffic signs), physical (visible in images) road incidents. We develop a taxonomy for unsigned physical incidents to provide a means of organizing and grouping related incidents. After selecting eight target types of incidents, we collect a dataset of twelve thousand images gathered from publicly-available web sources. We subsequently fine-tune a convolutional neural network to recognize the eight types of road incidents. The proposed model is able to recognize incidents with a high level of accuracy (higher than 90%). We further show that while our system generalizes well across spatial context by training a classifier on geostratified data in the United Kingdom (with an accuracy of over 90%), the translation to visually less similar environments requires spatially distributed data collection. Note: this is a pre-print version of work accepted in IEEE Transactions on Intelligent Vehicles (T-IV;in press). The paper is currently in production, and the DOI link will be added soon.
翻訳日:2022-12-10 04:03:09 公開日:2020-04-24
# Attribute Dependent Generative Adversarial Network を用いた属性修正

Prominent Attribute Modification using Attribute Dependent Generative Adversarial Network ( http://arxiv.org/abs/2005.02122v1 )

ライセンス: Link先を確認
Naeem Ul Islam, Sungmin Lee, and Jaebyung Park(参考訳) 所望の属性で顔画像を変更することは重要であるが、コンピュータビジョンでは、顔画像の単一または複数の属性を変更することを目的としている。 既存の手法のいくつかは属性に依存しないアプローチに基づいており、修正は潜在表現や属性依存のアプローチで行われる。 属性独立メソッドは、所望の属性を変更するために、所望のペアデータを必要とするため、パフォーマンスが制限される。 第二に、属性独立制約は情報の喪失をもたらす可能性があり、従って、顔画像に要求される属性を生成することに失敗する。 対照的に、属性依存のアプローチは、与えられた画像内の情報を保存しながら必要な機能を変更することができるため、効果的である。 しかし、属性依存アプローチは感度が高く、高品質な結果を生成するには慎重なモデル設計が必要である。 この問題に対処するため,属性依存型顔修正手法を提案する。 提案手法は2つのジェネレータと2つの識別器をベースとして,2つの属性の実際の表現と,その代わりに高品質な属性修正結果を生成する。 celebaデータセットを用いた実験では、複数の属性の編集を他の顔の詳細をそのまま保存して効果的に行うことができる。

Modifying the facial images with desired attributes is important, though challenging tasks in computer vision, where it aims to modify single or multiple attributes of the face image. Some of the existing methods are either based on attribute independent approaches where the modification is done in the latent representation or attribute dependent approaches. The attribute independent methods are limited in performance as they require the desired paired data for changing the desired attributes. Secondly, the attribute independent constraint may result in the loss of information and, hence, fail in generating the required attributes in the face image. In contrast, the attribute dependent approaches are effective as these approaches are capable of modifying the required features along with preserving the information in the given image. However, attribute dependent approaches are sensitive and require a careful model design in generating high-quality results. To address this problem, we propose an attribute dependent face modification approach. The proposed approach is based on two generators and two discriminators that utilize the binary as well as the real representation of the attributes and, in return, generate high-quality attribute modification results. Experiments on the CelebA dataset show that our method effectively performs the multiple attribute editing with preserving other facial details intactly.
翻訳日:2022-12-10 04:02:01 公開日:2020-04-24
# 新型コロナウイルス・COVID-19オンライン討論会における深層感作分類とトピック発見:LSTMリカレントニューラルネットワークを用いたNLP

Deep Sentiment Classification and Topic Discovery on Novel Coronavirus or COVID-19 Online Discussions: NLP Using LSTM Recurrent Neural Network Approach ( http://arxiv.org/abs/2004.11695v1 )

ライセンス: Link先を確認
Hamed Jelodar, Yongli Wang, Rita Orji, Hucheng Huang(参考訳) インターネットフォーラムやオンライン医療フォーラムのようなソーシャルメディアは、医療問題に関するユーザー(人々/患者)が互いに議論し、情報を共有するための便利なチャンネルを提供している。 2019年12月下旬、新型コロナウイルス(covid-19とよばれる感染症)の流行が報告され、世界保健機関(who)が緊急事態宣言を発令した。 本稿では、ソーシャルメディアからのCOVID-19関連議論の自動抽出とトピックモデリングに基づく自然言語処理(NLP)手法を用いて、公衆の意見からCOVID-19関連諸問題を明らかにする。 さらに, LSTMリカレントニューラルネットワークの感情分類への応用についても検討した。 以上の結果から,COVID-19を取り巻く問題を理解し,関連する意思決定を導くために,世論と適切な計算手法を用いることの重要性が明らかになった。

Internet forums and public social media, such as online healthcare forums, provide a convenient channel for users (people/patients) concerned about health issues to discuss and share information with each other. In late December 2019, an outbreak of a novel coronavirus (infection from which results in the disease named COVID-19) was reported, and, due to the rapid spread of the virus in other parts of the world, the World Health Organization declared a state of emergency. In this paper, we used automated extraction of COVID-19 related discussions from social media and a natural language process (NLP) method based on topic modeling to uncover various issues related to COVID-19 from public opinions. Moreover, we also investigate how to use LSTM recurrent neural network for sentiment classification of COVID-19 comments. Our findings shed light on the importance of using public opinions and suitable computational techniques to understand issues surrounding COVID-19 and to guide related decision-making.
翻訳日:2022-12-10 04:01:40 公開日:2020-04-24
# SIPA: 効率的なネットワークのためのシンプルなフレームワーク

SIPA: A Simple Framework for Efficient Networks ( http://arxiv.org/abs/2004.14476v1 )

ライセンス: Link先を確認
Gihun Lee, Sangmin Bae, Jaehoon Oh, Se-Young Yun(参考訳) 様々な分野でディープラーニングが成功し、多くのモノのインターネット(IoT)デバイスが出現するにつれ、低消費電力デバイスに適したモデルを軽量化することが不可欠である。 この傾向に合わせて、ストレージと計算の両方の観点から効率的なモデルを構築することの難しさであるMicroNet Challengeが、NeurIPS 2019でホストされた。 この課題を通じて効率的なモデルを開発するために,検索,改善,更新,高速化の4段階からなるSIPAというフレームワークを提案する。 提案したフレームワークでは、OSI AIがパラメータストレージを334倍に、算術演算をWideResNet-28-10より357倍に圧縮し、MicroNet Challenge 2019でCIFAR-100トラックでトップ10%の高効率計算で4位になった。 ソースコードはhttps://github.com/Lee-Gihun/MicroNet_OSI-AIから入手できます。

With the success of deep learning in various fields and the advent of numerous Internet of Things (IoT) devices, it is essential to lighten models suitable for low-power devices. In keeping with this trend, MicroNet Challenge, which is the challenge to build efficient models from the view of both storage and computation, was hosted at NeurIPS 2019. To develop efficient models through this challenge, we propose a framework, coined as SIPA, consisting of four stages: Searching, Improving, Pruning, and Accelerating. With the proposed framework, our team, OSI AI, compressed 334x the parameter storage and 357x the math operation compared to WideResNet-28-10 and took 4th place in the CIFAR-100 track at MicroNet Challenge 2019 with the top 10% highly efficient computation. Our source code is available from https://github.com/Lee-Gihun/MicroNet_OSI-AI.
翻訳日:2022-12-10 04:01:05 公開日:2020-04-24
# インスタンス識別可能性(拡張版)による記述論理におけるcqe

CQE in Description Logics Through Instance Indistinguishability (extended version) ( http://arxiv.org/abs/2004.11870v1 )

ライセンス: Link先を確認
Gianluca Cima (1), Domenico Lembo (1), Riccardo Rosati (1), Domenico Fabio Savo (2) ((1) Sapienza Universit\`a di Roma, (2) Universit\`a degli Studi di Bergamo)(参考訳) Description Logics (DL) におけるプライバシ保護クエリ応答について検討する。 具体的には,インスタンス識別可能性の概念に基づいて,制御クエリ評価(cqe)のアプローチを検討する。 dl-lite$_{\mathcal{r}}$オントロジーを用いたクエリ応答におけるデータ複雑性の結果を,cqeに対する既存の機密性保存手法との比較により導出する。 最後に、CQE に対する近似クエリ応答という意味論的に確立された概念を特定し、DL-Lite$_{\mathcal{R}}$オントロジーの場合、この CQE の形式はデータの複雑さに関して抽出可能であること、すなわち、データインスタンス上の一階クエリの評価に対して常に再現可能であることを証明する。

We study privacy-preserving query answering in Description Logics (DLs). Specifically, we consider the approach of controlled query evaluation (CQE) based on the notion of instance indistinguishability. We derive data complexity results for query answering over DL-Lite$_{\mathcal{R}}$ ontologies, through a comparison with an alternative, existing confidentiality-preserving approach to CQE. Finally, we identify a semantically well-founded notion of approximated query answering for CQE, and prove that, for DL-Lite$_{\mathcal{R}}$ ontologies, this form of CQE is tractable with respect to data complexity and is first-order rewritable, i.e., it is always reducible to the evaluation of a first-order query over the data instance.
翻訳日:2022-12-10 04:00:23 公開日:2020-04-24
# 単一画像からの深部3次元画像

Deep 3D Portrait from a Single Image ( http://arxiv.org/abs/2004.11598v1 )

ライセンス: Link先を確認
Sicheng Xu, Jiaolong Yang, Dong Chen, Fang Wen, Yu Deng, Yunde Jia, Xin Tong(参考訳) 本稿では,人間の頭部の3次元形状を1枚のポートレート画像から復元する学習に基づくアプローチを提案する。 本手法は3dデータを用いずに教師なしで学習する。 頭部形状を、髪や耳など他の頭部領域の深さマップとともに、パラメトリックな3d顔モデルで表現する。 顔画像から3次元頭部再構成を学習する2段階の幾何学的学習法を提案し, 自己再構成を用いて顔の形状を学習し, ステレオマッチング方式で髪と耳の形状を学習する。 第2のステップは、第1の出力に基づいて、精度を向上するだけでなく、全体の頭部形状の整合性を確保する。 提案手法の精度を3次元画像と2次元画像のポーズ操作の両方で評価した。 復元された幾何に基づいてポーズを変更し、敵の学習で訓練された改良ネットワークを適用して、再投影された画像を改善し、実際の画像領域に翻訳する。 従来手法との比較により,本手法は高忠実度3次元頭部形状と頭部ポーズ操作結果が得られることが示された。

In this paper, we present a learning-based approach for recovering the 3D geometry of human head from a single portrait image. Our method is learned in an unsupervised manner without any ground-truth 3D data. We represent the head geometry with a parametric 3D face model together with a depth map for other head regions including hair and ear. A two-step geometry learning scheme is proposed to learn 3D head reconstruction from in-the-wild face images, where we first learn face shape on single images using self-reconstruction and then learn hair and ear geometry using pairs of images in a stereo-matching fashion. The second step is based on the output of the first to not only improve the accuracy but also ensure the consistency of overall head geometry. We evaluate the accuracy of our method both in 3D and with pose manipulation tasks on 2D images. We alter pose based on the recovered geometry and apply a refinement network trained with adversarial learning to ameliorate the reprojected images and translate them to the real image domain. Extensive evaluations and comparison with previous methods show that our new method can produce high-fidelity 3D head geometry and head pose manipulation results.
翻訳日:2022-12-10 03:53:26 公開日:2020-04-24
# 低分解能熱画像を用いた低遅延ハンドジェスチャ認識

Low-latency hand gesture recognition with a low resolution thermal imager ( http://arxiv.org/abs/2004.11623v1 )

ライセンス: Link先を確認
Maarten Vandersteegen, Wouter Reusen, Kristof Van Beeck Toon Goedeme(参考訳) 自動車の運転中に電話に応答したり、ラジオを制御したりする手振りは、近年は高価な車に定着した機能となっている。 高解像度の飛行時間カメラと強力な組み込みプロセッサは、通常これらのジェスチャー認識システムの中心となる。 しかし、これは価格タグがついている。 そこで我々は,32×24ピクセルの安価な低解像度熱カメラを用いて手の動きを予測するアルゴリズムを設計する可能性を検討する。 トレーニングと評価のための1300以上のビデオクリップのデータセットを新たに記録し,軽量低レイテンシ予測アルゴリズムを提案する。 我々の最良のモデルは95.9%の分類精度と83%のmAP検出精度を達成し、その処理パイプラインは1フレームのレイテンシしか持たない。

Using hand gestures to answer a call or to control the radio while driving a car, is nowadays an established feature in more expensive cars. High resolution time-of-flight cameras and powerful embedded processors usually form the heart of these gesture recognition systems. This however comes with a price tag. We therefore investigate the possibility to design an algorithm that predicts hand gestures using a cheap low-resolution thermal camera with only 32x24 pixels, which is light-weight enough to run on a low-cost processor. We recorded a new dataset of over 1300 video clips for training and evaluation and propose a light-weight low-latency prediction algorithm. Our best model achieves 95.9% classification accuracy and 83% mAP detection accuracy while its processing pipeline has a latency of only one frame.
翻訳日:2022-12-10 03:53:08 公開日:2020-04-24
# 乳房X線写真における乳癌検出のための2段階多重学習フレームワーク

A Two-Stage Multiple Instance Learning Framework for the Detection of Breast Cancer in Mammograms ( http://arxiv.org/abs/2004.11726v1 )

ライセンス: Link先を確認
Sarath Chandra K, Arunava Chakravarty, Nirmalya Ghosh, Tandra Sarkar, Ramanathan Sethuraman, Debdoot Sheet(参考訳) 乳がんの大規模な検診ではマンモグラムが一般的に用いられており、主に悪性腫瘤の存在が特徴である。 しかし, 腫瘤領域が小さく, 悪性, 良性, 健全な線維粒状組織との鑑別が困難であるため, 画像レベルの悪性度自動検出は困難である。 これらの問題に対処するため、2段階のMIL(Multiple Instance Learning)フレームワークについて検討する。 畳み込みニューラルネットワーク(CNN)は第1段階で訓練され、良性または悪性の腫瘤を含む可能性のあるマンモグラムの局所的な候補パッチを抽出する。 第2段階は、画像レベルの良性と悪性の分類にmil戦略を用いる。 グローバルなイメージレベル機能は、CNNで学んだパッチレベル機能の重み付け平均として計算される。 Inbreast データセットの5倍のクロスバリデーションを用いて,画像レベル分類タスクにおいて,平均精度0.76/0.80のマスの局所化処理を行い,平均精度0.91のAUCを達成した。 MILをステージ1で抽出したパッチのみに制限すると,マンモグラム全体からのパッチの高密度抽出と比較して,分類性能が大幅に向上した。

Mammograms are commonly employed in the large scale screening of breast cancer which is primarily characterized by the presence of malignant masses. However, automated image-level detection of malignancy is a challenging task given the small size of the mass regions and difficulty in discriminating between malignant, benign mass and healthy dense fibro-glandular tissue. To address these issues, we explore a two-stage Multiple Instance Learning (MIL) framework. A Convolutional Neural Network (CNN) is trained in the first stage to extract local candidate patches in the mammograms that may contain either a benign or malignant mass. The second stage employs a MIL strategy for an image level benign vs. malignant classification. A global image-level feature is computed as a weighted average of patch-level features learned using a CNN. Our method performed well on the task of localization of masses with an average Precision/Recall of 0.76/0.80 and acheived an average AUC of 0.91 on the imagelevel classification task using a five-fold cross-validation on the INbreast dataset. Restricting the MIL only to the candidate patches extracted in Stage 1 led to a significant improvement in classification performance in comparison to a dense extraction of patches from the entire mammogram.
翻訳日:2022-12-10 03:52:07 公開日:2020-04-24
# PipeNet: マルチモーダル顔アンチスプーフィングのためのフュージョンネットワーク選択型モーダルパイプライン

PipeNet: Selective Modal Pipeline of Fusion Network for Multi-Modal Face Anti-Spoofing ( http://arxiv.org/abs/2004.11744v1 )

ライセンス: Link先を確認
Qing Yang, Xia Zhu, Jong-Kae Fwu, Yun Ye, Ganmei You, and Yuan Zhu(参考訳) face anti-spoofingは、乱暴で簡単に起動できるプレゼンテーションアタックのために、認証システムにとってますます重要で重要なセキュリティ機能になっている。 マルチモーダル顔データセットの不足に対処するため,CASIAは先日,3つの民族,3つのモダリティ,1607の主題,および2D+3D攻撃タイプを4つのプロトコルでカバーし,クロスエスニシティとマルチモーダル連続データにおけるフェイス・アンチ・スプーフィングの一般化能力の向上に重点を置く,最新のCASIA-SURFクロス・エスニシティ・フェイス・アンチ・スポーフィング(CeFA)データセットをリリースした。 本稿では,マルチモーダル顔アンチスプーフィングのためのパイプラインベースマルチストリームCNNアーキテクチャであるPipeNetを提案する。 従来の作業とは異なり、Selective Modal Pipeline(SMP)は、各データモダリティ用にカスタマイズされたパイプラインを、マルチモーダルデータを完全に活用できるように設計されている。 Limited Frame Vote (LFV) は、ビデオ分類の安定かつ正確な予測を保証するように設計されている。 提案手法はchalearn multi-modal cross-ethnicity face anti-spoofing recognition challenge@cvpr2020の最終ランキングで3位となった。 最終提案では,平均分類誤差率(acer)が2.21で,標準偏差が1.26であった。

Face anti-spoofing has become an increasingly important and critical security feature for authentication systems, due to rampant and easily launchable presentation attacks. Addressing the shortage of multi-modal face dataset, CASIA recently released the largest up-to-date CASIA-SURF Cross-ethnicity Face Anti-spoofing(CeFA) dataset, covering 3 ethnicities, 3 modalities, 1607 subjects, and 2D plus 3D attack types in four protocols, and focusing on the challenge of improving the generalization capability of face anti-spoofing in cross-ethnicity and multi-modal continuous data. In this paper, we propose a novel pipeline-based multi-stream CNN architecture called PipeNet for multi-modal face anti-spoofing. Unlike previous works, Selective Modal Pipeline (SMP) is designed to enable a customized pipeline for each data modality to take full advantage of multi-modal data. Limited Frame Vote (LFV) is designed to ensure stable and accurate prediction for video classification. The proposed method wins the third place in the final ranking of Chalearn Multi-modal Cross-ethnicity Face Anti-spoofing Recognition Challenge@CVPR2020. Our final submission achieves the Average Classification Error Rate (ACER) of 2.21 with Standard Deviation of 1.26 on the test set.
翻訳日:2022-12-10 03:51:46 公開日:2020-04-24
# 長短距離注意付きライト変圧器

Lite Transformer with Long-Short Range Attention ( http://arxiv.org/abs/2004.11886v1 )

ライセンス: Link先を確認
Zhanghao Wu, Zhijian Liu, Ji Lin, Yujun Lin, Song Han(参考訳) トランスフォーマーは自然言語処理(例えば機械翻訳、質問応答)においてユビキタスになっているが、高い性能を達成するには膨大な量の計算を必要とするため、ハードウェアリソースやバッテリーに厳しく制約されたモバイルアプリケーションには適さない。 本稿では,モバイルNLPアプリケーションのエッジデバイスへのデプロイを容易にする,効率的なモバイルNLPアーキテクチャであるLite Transformerを提案する。 キープリミティブはlong-short range attention(lsra)であり、あるヘッドのグループは(畳み込みによって)局所的なコンテキストモデリングを専門とし、別のグループは(注意によって)長距離関係モデリングを専門とする。 このような特殊化は、機械翻訳、抽象要約、言語モデリングという3つの確立された言語タスクにおいて、バニラトランスフォーマーよりも一貫した改善をもたらす。 制約リソース (500M/100M MAC) の下では、Lite Transformer は WMT'14 で 1.2/1.7 BLEU でトランスフォーマーのパフォーマンスをそれぞれ向上させる。 Lite Transformer は変換器ベースモデルの計算を 0.3 BLEU スコアで2.5倍削減する。 プルーニングと量子化を組み合わせて,Lite Transformerのモデルサイズを18.2倍に圧縮した。 言語モデリングでは、Lite Transformerはトランスに比べて約500万MACで1.8低いパープレキシティを実現する。 特にlite transformerは、250gpu以上のコストを要するアーキテクチャ検索なしで、モバイルnlp設定でautomlベースの進化トランスフォーマーを0.5 bleuで上回っている。 コードはhttps://github.com/mit-han-lab/lite-transformerで利用可能である。

Transformer has become ubiquitous in natural language processing (e.g., machine translation, question answering); however, it requires enormous amount of computations to achieve high performance, which makes it not suitable for mobile applications that are tightly constrained by the hardware resources and battery. In this paper, we present an efficient mobile NLP architecture, Lite Transformer to facilitate deploying mobile NLP applications on edge devices. The key primitive is the Long-Short Range Attention (LSRA), where one group of heads specializes in the local context modeling (by convolution) while another group specializes in the long-distance relationship modeling (by attention). Such specialization brings consistent improvement over the vanilla transformer on three well-established language tasks: machine translation, abstractive summarization, and language modeling. Under constrained resources (500M/100M MACs), Lite Transformer outperforms transformer on WMT'14 English-French by 1.2/1.7 BLEU, respectively. Lite Transformer reduces the computation of transformer base model by 2.5x with 0.3 BLEU score degradation. Combining with pruning and quantization, we further compressed the model size of Lite Transformer by 18.2x. For language modeling, Lite Transformer achieves 1.8 lower perplexity than the transformer at around 500M MACs. Notably, Lite Transformer outperforms the AutoML-based Evolved Transformer by 0.5 higher BLEU for the mobile NLP setting without the costly architecture search that requires more than 250 GPU years. Code has been made available at https://github.com/mit-han-lab/lite-transformer.
翻訳日:2022-12-10 03:44:57 公開日:2020-04-24
# 教師なし質問応答改善のための検索文からのテンプレートベース質問生成

Template-Based Question Generation from Retrieved Sentences for Improved Unsupervised Question Answering ( http://arxiv.org/abs/2004.11892v1 )

ライセンス: Link先を確認
Alexander R. Fabbri, Patrick Ng, Zhiguo Wang, Ramesh Nallapati, Bing Xiang(参考訳) 質問回答(QA)は、オンラインで利用可能な情報量やコンテンツへの迅速なアクセス意欲が高まるにつれて需要が高まっている。 QAの一般的なアプローチは、タスク固有のラベル付きデータセット上で、事前訓練された言語モデルを微調整することである。 しかし、このパラダイムは乏しく、大規模な人間ラベル付きデータを得るのに費用がかかる。 擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。 関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成することで、より複雑なコンテキスト-問い合わせ関係を学習できるようにすることで、元の文脈文よりも下流のQAパフォーマンスを向上させることを示す。 このデータに基づいてQAモデルをトレーニングすると、SQuADデータセット上のF1スコアにおける以前の教師なしモデルよりも約14%向上し、回答が名前付きエンティティである場合には20%向上し、教師なしQAに対する最先端のパフォーマンスを達成する。

Question Answering (QA) is in increasing demand as the amount of information available online and the desire for quick access to this content grows. A common approach to QA has been to fine-tune a pretrained language model on a task-specific labeled dataset. This paradigm, however, relies on scarce, and costly to obtain, large-scale human-labeled data. We propose an unsupervised approach to training QA models with generated pseudo-training data. We show that generating questions for QA training by applying a simple template on a related, retrieved sentence rather than the original context sentence improves downstream QA performance by allowing the model to learn more complex context-question relationships. Training a QA model on this data gives a relative improvement over a previous unsupervised model in F1 score on the SQuAD dataset by about 14%, and 20% when the answer is a named entity, achieving state-of-the-art performance on SQuAD for unsupervised QA.
翻訳日:2022-12-10 03:44:32 公開日:2020-04-24
# nsurl-2019タスク8のインセプションチーム: アラビア語における意味的質問の類似性

The Inception Team at NSURL-2019 Task 8: Semantic Question Similarity in Arabic ( http://arxiv.org/abs/2004.11964v1 )

ライセンス: Link先を確認
Hana Al-Theiabat and Aisha Al-Sadi(参考訳) 本稿では,NLP Solutions for Under-Resourced Languages (NSURL) ワークショップにおいて,アラビア語における意味的質問類似性の課題について述べる。 目的は、提供されたデータセットに対して、アラビア語で同様の意味論を検出できるモデルを構築することである。 質問の類似性を決定する様々な方法が本研究で検討されている。 提案されたモデルは高いF1スコア(88%から96%)を達成した。 我々の公式な成果は、95.924%のF1スコアを持つ異なるランダムシードを持つ事前訓練された多言語BERTモデルを用いたアンサンブルモデルから得られます。

This paper describes our method for the task of Semantic Question Similarity in Arabic in the workshop on NLP Solutions for Under-Resourced Languages (NSURL). The aim is to build a model that is able to detect similar semantic questions in the Arabic language for the provided dataset. Different methods of determining questions similarity are explored in this work. The proposed models achieved high F1-scores, which range from (88% to 96%). Our official best result is produced from the ensemble model of using a pre-trained multilingual BERT model with different random seeds with 95.924% F1-Score, which ranks the first among nine participants teams.
翻訳日:2022-12-10 03:44:00 公開日:2020-04-24
# 構文データの増大は推論ヒューリスティックスのロバスト性を高める

Syntactic Data Augmentation Increases Robustness to Inference Heuristics ( http://arxiv.org/abs/2004.11999v1 )

ライセンス: Link先を確認
Junghyun Min, R. Thomas McCoy, Dipanjan Das, Emily Pitler, Tal Linzen(参考訳) BERTのような事前訓練されたニューラルネットワークモデルは、自然言語推論(NLI)を実行するように微調整された場合、標準データセットに対して高い精度を示すことが多いが、制御されたチャレンジセットに対する単語順序に対するセンシティブな感度の欠如を示す。 この問題は、主に事前訓練されたモデルの制限によるものではなく、微調整段階における構文構造の重要性を伝達するクラウドソースされたNLI例によるものである、という仮説を立てる。 我々は,MNLIコーパスからの文に構文変換を適用して生成した構文的情報的例を用いて,標準学習セットを増強するいくつかの方法を検討する。 MNLIテストセットの性能に影響を与えることなく、単語の順序に対する感度を0.28から0.73に診断する制御例におけるBERTの精度を改善した。 この改良は、データ拡張に使用される特定の構造を超えて一般化され、BERTが抽象構文表現をリクルートすることを示唆している。

Pretrained neural models such as BERT, when fine-tuned to perform natural language inference (NLI), often show high accuracy on standard datasets, but display a surprising lack of sensitivity to word order on controlled challenge sets. We hypothesize that this issue is not primarily caused by the pretrained model's limitations, but rather by the paucity of crowdsourced NLI examples that might convey the importance of syntactic structure at the fine-tuning stage. We explore several methods to augment standard training sets with syntactically informative examples, generated by applying syntactic transformations to sentences from the MNLI corpus. The best-performing augmentation method, subject/object inversion, improved BERT's accuracy on controlled examples that diagnose sensitivity to word order from 0.28 to 0.73, without affecting performance on the MNLI test set. This improvement generalized beyond the particular construction used for data augmentation, suggesting that augmentation causes BERT to recruit abstract syntactic representations.
翻訳日:2022-12-10 03:43:28 公開日:2020-04-24
# インフォーマル言語理解タスクのためのデータアニーリング

Data Annealing for Informal Language Understanding Tasks ( http://arxiv.org/abs/2004.13833v1 )

ライセンス: Link先を確認
Jing Gu, Zhou Yu(参考訳) フォーマルな言語理解タスクと非公式な言語理解タスクの間には、大きなパフォーマンスギャップがあります。 フォーマル言語理解タスクの性能を改善した最近の事前学習モデルでは、非公式言語では同等の結果が得られなかった。 非公式自然言語理解タスクの性能ギャップを埋めるために,データアニーリング転送学習手順を提案する。 bertのような事前学習されたモデルを非公式言語でうまく利用する。 データアニール処理では、トレーニングセットには主に形式的なテキストデータが含まれており、トレーニングプロセス中に非公式なテキストデータの比率が徐々に増加する。 データアニーリング手順はモデル非依存であり、様々なタスクに適用できる。 我々はその効果を徹底的な実験で検証する。 BERTが我々の学習手順で実装されると、3つの共通言語タスクにおいて最先端のモデルよりも優れる。

There is a huge performance gap between formal and informal language understanding tasks. The recent pre-trained models that improved the performance of formal language understanding tasks did not achieve a comparable result on informal language. We pro-pose a data annealing transfer learning procedure to bridge the performance gap on informal natural language understanding tasks. It successfully utilizes a pre-trained model such as BERT in informal language. In our data annealing procedure, the training set contains mainly formal text data at first; then, the proportion of the informal text data is gradually increased during the training process. Our data annealing procedure is model-independent and can be applied to various tasks. We validate its effectiveness in exhaustive experiments. When BERT is implemented with our learning procedure, it outperforms all the state-of-the-art models on the three common informal language tasks.
翻訳日:2022-12-10 03:42:46 公開日:2020-04-24
# 多目的パレート最適化を用いたリスク逆サプライチェーンシステムの不確実性モデリング

Uncertainty Modelling in Risk-averse Supply Chain Systems Using Multi-objective Pareto Optimization ( http://arxiv.org/abs/2004.13836v1 )

ライセンス: Link先を確認
Heerok Banerjee, V. Ganapathy and V. M. Shenbagaraman(参考訳) サプライチェーンモデリングにおける困難なタスクの1つは、不規則なバリエーションに対して堅牢なモデルを構築することである。 時系列解析と機械学習モデルの拡散の間、古典的なレベンバーグ・マーカルトアルゴリズムの加速、重みの減衰と正規化などいくつかの修正が提案され、この問題にアルゴリズム最適化のアプローチを導入した。 本稿では,不確実性に対処し,不確実性のエントロピーを明示的にモデル化することで,不確実性に対処する新しい手法Pareto Optimizationを紹介した。 遺伝的アプローチを用いてPareto Optimizationを実装し,従来の遺伝的アルゴリズムとMILPモデルとの比較を行った。 その結果、パレート最適化はそのような非決定論的誤りを回避し、ロバストでリアクティブなサプライチェーンモデルを生成するための形式的アプローチであることを示す実証的証拠が得られる。

One of the arduous tasks in supply chain modelling is to build robust models against irregular variations. During the proliferation of time-series analyses and machine learning models, several modifications were proposed such as acceleration of the classical levenberg-marquardt algorithm, weight decaying and normalization, which introduced an algorithmic optimization approach to this problem. In this paper, we have introduced a novel methodology namely, Pareto Optimization to handle uncertainties and bound the entropy of such uncertainties by explicitly modelling them under some apriori assumptions. We have implemented Pareto Optimization using a genetic approach and compared the results with classical genetic algorithms and Mixed-Integer Linear Programming (MILP) models. Our results yields empirical evidence suggesting that Pareto Optimization can elude such non-deterministic errors and is a formal approach towards producing robust and reactive supply chain models.
翻訳日:2022-12-10 03:42:20 公開日:2020-04-24
# 任意語順における自己回帰生成が可能な確率的マスク言語モデル

Probabilistically Masked Language Model Capable of Autoregressive Generation in Arbitrary Word Order ( http://arxiv.org/abs/2004.11579v1 )

ライセンス: Link先を確認
Yi Liao, Xin Jiang, Qun Liu(参考訳) マスケード言語モデルと自己回帰言語モデルは2種類の言語モデルである。 BERTのような事前訓練されたマスク付き言語モデルが自然言語理解(NLU)タスクのラインを圧倒する一方、GPTのような自己回帰型言語モデルは特に自然言語生成(NLG)において機能する。 本稿では,確率的マスキングモデル (PMLM) と呼ばれるマスキング言語モデルの確率論的マスキング手法を提案する。 U-PMLMと命名されたマスク比の均一な事前分布を持つ特定のPMLMを実装した。 u-PMLMは自己回帰型置換言語モデルと等価であることを示す。 モデルの主な利点の1つは、驚くほど優れた品質で任意の順序でテキスト生成をサポートすることである。 さらに、事前訓練されたu-PMLMは、下流のNLUタスクのセットでBERTを上回っている。

Masked language model and autoregressive language model are two types of language models. While pretrained masked language models such as BERT overwhelm the line of natural language understanding (NLU) tasks, autoregressive language models such as GPT are especially capable in natural language generation (NLG). In this paper, we propose a probabilistic masking scheme for the masked language model, which we call probabilistically masked language model (PMLM). We implement a specific PMLM with a uniform prior distribution on the masking ratio named u-PMLM. We prove that u-PMLM is equivalent to an autoregressive permutated language model. One main advantage of the model is that it supports text generation in arbitrary order with surprisingly good quality, which could potentially enable new applications over traditional unidirectional generation. Besides, the pretrained u-PMLM also outperforms BERT on a set of downstream NLU tasks.
翻訳日:2022-12-10 03:36:06 公開日:2020-04-24
# lisユーザによるサインライティングのカスタマイズと修正

Customization and modifications of SignWriting by LIS users ( http://arxiv.org/abs/2004.11583v1 )

ライセンス: Link先を確認
Claudia S. Bianchini (Poitiers UFR LL, FORELLIS), Fabrizio Borgia, Margherita Castelli (DiFiLiLe)(参考訳) 歴史的に、様々な手話言語(sl)は独自の筆記システムを開発していないが、いくつかのシステムがあり、その中に記号表記(sw)が強力で柔軟なものが存在する。 本稿では、SWのエキスパートユーザであるイタリア手話(LIS)の署名者が、標準SWグリフの修正や書き方の向上や、特異な言語現象の表現のために採用したメカニズムについて述べる。 これらのグリフを識別し,専門家コミュニティがどの特徴を「受け入れられる」のかを示す。 最終的に、ユーザ修正グリフの電子書き込みを可能にするソフトウェアであるSWiftに着目し、手書きやコンピュータ支援による書き込みにおけるこれらのグリフの可能性を分析する。

Historically, the various sign languages (SL) have not developed an own writing system; nevertheless, some systems exist, among which the SignWriting (SW) is a powerful and flexible one. In this paper, we present the mechanisms adopted by signers of the Italian Sign Language (LIS), expert users of SW, to modify the standard SW glyphs and increase their writing skills and/or represent peculiar linguistic phenomena. We identify these glyphs and show which characteristics make them "acceptable" by the expert community. Eventually, we analyze the potentialities of these glyphs in hand writing and in computer-assisted writing, focusing on SWift, a software designed to allow the electronic writing-down of user-modified glyphs.
翻訳日:2022-12-10 03:35:51 公開日:2020-04-24
# coach: クロスドメインスロット充填のための細かなアプローチ

Coach: A Coarse-to-Fine Approach for Cross-domain Slot Filling ( http://arxiv.org/abs/2004.11727v1 )

ライセンス: Link先を確認
Zihan Liu, Genta Indra Winata, Peng Xu, Pascale Fung(参考訳) タスク指向ダイアログシステムにおいて必須のタスクとして、スロット充填は特定のドメイン内の広範なトレーニングデータを必要とする。 しかし、そのようなデータは必ずしも利用できない。 したがって、このデータ不足問題に対処するために、クロスドメインスロットフィリングが自然に発生する。 本稿では,クロスドメインスロット充填のための粗粒度アプローチ(Coach)を提案する。 まず,トークンがスロットエンティティであるかどうかを検出することで,スロットエンティティの一般的なパターンを学習する。 そして、スロットエンティティの特定の型を予測する。 さらに,発話テンプレートに基づく発話表現を規則化し,適応ロバスト性を向上させるためのテンプレート正規化手法を提案する。 実験結果から,本モデルはスロット充填における最先端手法よりも優れていた。 さらに,本モデルは,ドメイン間識別タスクにも適用可能であり,既存のベースラインよりも適応性能が向上する。 コードはhttps://github.com/zliucr/coachで入手できる。

As an essential task in task-oriented dialog systems, slot filling requires extensive training data in a certain domain. However, such data are not always available. Hence, cross-domain slot filling has naturally arisen to cope with this data scarcity problem. In this paper, we propose a Coarse-to-fine approach (Coach) for cross-domain slot filling. Our model first learns the general pattern of slot entities by detecting whether the tokens are slot entities or not. It then predicts the specific types for the slot entities. In addition, we propose a template regularization approach to improve the adaptation robustness by regularizing the representation of utterances based on utterance templates. Experimental results show that our model significantly outperforms state-of-the-art approaches in slot filling. Furthermore, our model can also be applied to the cross-domain named entity recognition task, and it achieves better adaptation performance than other existing baselines. The code is available at https://github.com/zliucr/coach.
翻訳日:2022-12-10 03:34:56 公開日:2020-04-24
# ST$^2$:マルチタスクメタラーニングによる小型データテキストスタイル転送

ST$^2$: Small-data Text Style Transfer via Multi-task Meta-Learning ( http://arxiv.org/abs/2004.11742v1 )

ライセンス: Link先を確認
Xiwen Chen, Kenny Q. Zhu(参考訳) テキストスタイルの転送は、コンテンツを保存しながら、あるスタイルの文を別のスタイルに言い換えることを目的としている。 並列トレーニングデータがないため、最先端のメソッドは教師なしであり、コンテンツを共有する大きなデータセットに依存している。 さらに、既存の手法は、ポジティブ・ネガティブ・フォーマル・インフォーマルといった非常に限られた種類のスタイルに適用されている。 本研究では,よりきめ細やかで,内容の共有が少なく,訓練データもはるかに少ないテキストスタイルを含む,あらゆる種類のテキストスタイルを移行するためのメタラーニングフレームワークを開発する。 最先端のモデルでは数ショットスタイルの転送タスクではフェールするが、このフレームワークは他のスタイルからの情報を効果的に活用し、言語流速とスタイル転送精度の両方を改善する。

Text style transfer aims to paraphrase a sentence in one style into another style while preserving content. Due to lack of parallel training data, state-of-art methods are unsupervised and rely on large datasets that share content. Furthermore, existing methods have been applied on very limited categories of styles such as positive/negative and formal/informal. In this work, we develop a meta-learning framework to transfer between any kind of text styles, including personal writing styles that are more fine-grained, share less content and have much smaller training data. While state-of-art models fail in the few-shot style transfer task, our framework effectively utilizes information from other styles to improve both language fluency and style transfer accuracy.
翻訳日:2022-12-10 03:34:44 公開日:2020-04-24
# シーケンス・ツー・シーケンスモデルにおけるスペーシングエンコーダ出力について

On Sparsifying Encoder Outputs in Sequence-to-Sequence Models ( http://arxiv.org/abs/2004.11854v1 )

ライセンス: Link先を確認
Biao Zhang, Ivan Titov, Rico Sennrich(参考訳) シーケンス列モデルは通常、全てのエンコーダ出力をデコーダに転送して生成する。 対照的に本研究では,これらのエンコーダ出力を圧縮してデコードに必要なシーケンスを短縮できると仮定する。 我々はTransformerをテストベッドとし、エンコーダとデコーダの間にある確率ゲートの層を導入する。 ゲートはスペーサ誘導L0ペナルティの期待値を使って正規化され、エンコーダ出力のサブセットを完全にマスキングする。 言い換えれば、共同トレーニングを通じて、L0DROP層はTransformerにエンコーダ状態のサブセットを通して情報をルーティングするよう強制する。 このスパーシフィケーションが2つの機械翻訳と2つの要約タスクに与える影響について検討する。 実験の結果,ソースコードの40~70%は品質を著しく損なうことなく切断できることがわかった。 出力長エンドウ l0drop の低下により復号効率が向上し、標準変圧器に対する文書要約タスクにおいて最大1.65倍の高速化が得られる。 我々は,L0DROPの振る舞いを分析し,特定の単語の種類,例えば関数語や句読点が最も多く刈り取られるという,体系的な嗜好を示す。 これらの観察から着想を得て,音声タグや単語頻度,単語位置などの情報に基づいて,エンコーダ出力を隠蔽する規則に基づくパターンの特定の可能性を検討する。

Sequence-to-sequence models usually transfer all encoder outputs to the decoder for generation. In this work, by contrast, we hypothesize that these encoder outputs can be compressed to shorten the sequence delivered for decoding. We take Transformer as the testbed and introduce a layer of stochastic gates in-between the encoder and the decoder. The gates are regularized using the expected value of the sparsity-inducing L0penalty, resulting in completely masking-out a subset of encoder outputs. In other words, via joint training, the L0DROP layer forces Transformer to route information through a subset of its encoder states. We investigate the effects of this sparsification on two machine translation and two summarization tasks. Experiments show that, depending on the task, around 40-70% of source encodings can be pruned without significantly compromising quality. The decrease of the output length endows L0DROP with the potential of improving decoding efficiency, where it yields a speedup of up to 1.65x on document summarization tasks against the standard Transformer. We analyze the L0DROP behaviour and observe that it exhibits systematic preferences for pruning certain word types, e.g., function words and punctuation get pruned most. Inspired by these observations, we explore the feasibility of specifying rule-based patterns that mask out encoder outputs based on information such as part-of-speech tags, word frequency and word position.
翻訳日:2022-12-10 03:33:50 公開日:2020-04-24
# 超多言語ニューラルマシン翻訳とゼロショット翻訳の改善

Improving Massively Multilingual Neural Machine Translation and Zero-Shot Translation ( http://arxiv.org/abs/2004.11867v1 )

ライセンス: Link先を確認
Biao Zhang, Philip Williams, Ivan Titov, Rico Sennrich(参考訳) ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。 本稿では,その改善方法について検討する。 我々は,多言語NMTは,言語特性の異なる言語ペアをサポートするために,より強力なモデリング能力を必要とし,言語固有のコンポーネントやNMTアーキテクチャの強化を通じて,このボトルネックを克服する。 対象外翻訳問題(すなわち、間違ったターゲット言語への翻訳)を劣等なゼロショット性能の主源とみなし、未知の学習言語ペアの翻訳を強制するためにランダムなオンライン逆翻訳を提案する。 OPUS-100(100言語からなる新しい多言語データセット)の実験により,1対多,多対多の両言語モデルの性能ギャップを著しく狭め,従来のピボット方式にアプローチして10BLEUでゼロショット性能を向上した。

Massively multilingual models for neural machine translation (NMT) are theoretically attractive, but often underperform bilingual models and deliver poor zero-shot translations. In this paper, we explore ways to improve them. We argue that multilingual NMT requires stronger modeling capacity to support language pairs with varying typological characteristics, and overcome this bottleneck via language-specific components and deepening NMT architectures. We identify the off-target translation issue (i.e. translating into a wrong target language) as the major source of the inferior zero-shot performance, and propose random online backtranslation to enforce the translation of unseen training language pairs. Experiments on OPUS-100 (a novel multilingual dataset with 100 languages) show that our approach substantially narrows the performance gap with bilingual models in both one-to-many and many-to-many settings, and improves zero-shot performance by ~10 BLEU, approaching conventional pivot-based methods.
翻訳日:2022-12-10 03:33:12 公開日:2020-04-24
# 胸部X線写真検診のためのグラフニューラルネットワークを用いた学習決定アンサンブル

Learning Decision Ensemble using a Graph Neural Network for Comorbidity Aware Chest Radiograph Screening ( http://arxiv.org/abs/2004.11721v1 )

ライセンス: Link先を確認
Arunava Chakravarty, Tandra Sarkar, Nirmalya Ghosh, Ramanathan Sethuraman, Debdoot Sheet(参考訳) 胸部X線写真は主に心臓、胸部、肺疾患のスクリーニングに用いられる。 放射線科医の日常的なスクリーニングの負担を軽減するために、機械学習ベースの自動化ソリューションが開発されている。 近年の研究では、深層畳み込みニューラルネットワーク(cnn)のアンサンブルの使用が実証されているが、病原性を考慮していないため、スクリーニング性能が低下している。 この問題に対処するために、異なる疾患間の依存関係をモデル化するアンサンブル予測を得るために、グラフニューラルネットワーク(GNN)ベースのソリューションを提案する。 提案手法の包括的評価により, 広範囲のアンサンブル構成において, 標準的なセンシング技術よりも性能が向上した。 DenseNet121のGNNアンサンブルを用いて、13の疾患にまたがる平均AUCは0.821であった。

Chest radiographs are primarily employed for the screening of cardio, thoracic and pulmonary conditions. Machine learning based automated solutions are being developed to reduce the burden of routine screening on Radiologists, allowing them to focus on critical cases. While recent efforts demonstrate the use of ensemble of deep convolutional neural networks(CNN), they do not take disease comorbidity into consideration, thus lowering their screening performance. To address this issue, we propose a Graph Neural Network (GNN) based solution to obtain ensemble predictions which models the dependencies between different diseases. A comprehensive evaluation of the proposed method demonstrated its potential by improving the performance over standard ensembling technique across a wide range of ensemble constructions. The best performance was achieved using the GNN ensemble of DenseNet121 with an average AUC of 0.821 across thirteen disease comorbidities.
翻訳日:2022-12-10 03:27:01 公開日:2020-04-24
# accumulator-constrained processorのためのディープニューラルネットワークの量子化

Quantization of Deep Neural Networks for Accumulator-constrained Processors ( http://arxiv.org/abs/2004.11783v1 )

ライセンス: Link先を確認
Barry de Bruin, Zoran Zivkovic, Henk Corporaal(参考訳) 本稿では,広範な蓄積レジスタを持たないプラットフォームに対して,ニューラルネットワーク(ann)量子化手法を提案する。 これにより、大規模なカーネル計算(つまり、accumulator-constrained processor)用に特別に設計されていない組み込み計算プラットフォームへの固定ポイントモデルデプロイが可能になる。 量子化問題をアキュムレータサイズの関数として定式化し、入力データと重みのビット幅を最大化することでモデルの精度を最大化する。 考慮すべき構成数を減らすために、利用可能なアキュムレータビットを完全に利用するソリューションのみがテストされている。 16ビットのアキュムレータは、cifar-10とilsvrc2012の画像分類ベンチマークの浮動小数点ベースラインの1\%以内に分類精度を得ることができる。 さらに、All-CNN-CおよびAlexNetネットワーク上の画像分類に16ビットのアキュムレータを活用することにより、ARMプロセッサ上でほぼ最適の$2\times$スピードアップが得られる。

We introduce an Artificial Neural Network (ANN) quantization methodology for platforms without wide accumulation registers. This enables fixed-point model deployment on embedded compute platforms that are not specifically designed for large kernel computations (i.e. accumulator-constrained processors). We formulate the quantization problem as a function of accumulator size, and aim to maximize the model accuracy by maximizing bit width of input data and weights. To reduce the number of configurations to consider, only solutions that fully utilize the available accumulator bits are being tested. We demonstrate that 16-bit accumulators are able to obtain a classification accuracy within 1\% of the floating-point baselines on the CIFAR-10 and ILSVRC2012 image classification benchmarks. Additionally, a near-optimal $2\times$ speedup is obtained on an ARM processor, by exploiting 16-bit accumulators for image classification on the All-CNN-C and AlexNet networks.
翻訳日:2022-12-10 03:26:45 公開日:2020-04-24
# 疎結合サンプルを用いた明示的ドメイン適応

Explicit Domain Adaptation with Loosely Coupled Samples ( http://arxiv.org/abs/2004.11995v1 )

ライセンス: Link先を確認
Oliver Scheel, Loren Schwarz, Nassir Navab, Federico Tombari(参考訳) 移動学習は、一般的に機械学習の重要な分野であり、特に完全自律運転の文脈では、気象条件の変化や国固有の運転行動など、多くの異なる領域で同時に解決する必要がある。 伝統的な転送学習法は、しばしば画像データに焦点を当て、ブラックボックスモデルである。 本研究では,ドメイン間の明示的なマッピングを学習するトランスファーラーニングフレームワークを提案する。 解釈性のため、これは自動運転のような安全クリティカルな用途に有用である。 画像分類問題を考慮し,特に車線変化を予測する時系列データに移行することで,その汎用性を示す。 本評価では,運転特性と感覚特性の異なるデータセットに事前学習モデルを適用する。

Transfer learning is an important field of machine learning in general, and particularly in the context of fully autonomous driving, which needs to be solved simultaneously for many different domains, such as changing weather conditions and country-specific driving behaviors. Traditional transfer learning methods often focus on image data and are black-box models. In this work we propose a transfer learning framework, core of which is learning an explicit mapping between domains. Due to its interpretability, this is beneficial for safety-critical applications, like autonomous driving. We show its general applicability by considering image classification problems and then move on to time-series data, particularly predicting lane changes. In our evaluation we adapt a pre-trained model to a dataset exhibiting different driving and sensory characteristics.
翻訳日:2022-12-10 03:26:29 公開日:2020-04-24
# 気象レーダデータによる鳥の群れの検出と追跡

Detecting and Tracking Communal Bird Roosts in Weather Radar Data ( http://arxiv.org/abs/2004.12819v1 )

ライセンス: Link先を確認
Zezhou Cheng, Saadia Gabriel, Pankaj Bhambhani, Daniel Sheldon, Subhransu Maji, Andrew Laughlin, David Winkler(参考訳) 米国気象レーダーのアーカイブには、過去20年間に大気中の生物現象に関する詳細な情報が記録されている。 夜間の雄鶏の場所では、集団的に雄鶏が多数集結し、その朝の雄鶏の出羽はレーダー画像の特徴的なパターンとしてしばしば見られる。 本稿では,気象レーダデータ中のroostシグネチャの検出と追跡を行う機械学習システムについて述べる。 重要な課題は、ラベルが従来の研究から日和見的に収集され、ラベルのスタイルに系統的な違いがあることである。 遅延変数モデルとEMアルゴリズムを用いて,個々のアノテータに対するラベル付けスタイルのモデルとともに検出モデルを学習する。 これらの変動を適切に考慮し、より正確な検出器を学習する。 このシステムは、未知の雄鶏の位置を検知し、米国中の雄鶏に関する包括的時空間データを提供する。 このデータは、広義の生息地の使用や、非繁殖期における共生鳥類の移動について理解されていない重要な情報を提供する。

The US weather radar archive holds detailed information about biological phenomena in the atmosphere over the last 20 years. Communally roosting birds congregate in large numbers at nighttime roosting locations, and their morning exodus from the roost is often visible as a distinctive pattern in radar images. This paper describes a machine learning system to detect and track roost signatures in weather radar data. A significant challenge is that labels were collected opportunistically from previous research studies and there are systematic differences in labeling style. We contribute a latent variable model and EM algorithm to learn a detection model together with models of labeling styles for individual annotators. By properly accounting for these variations we learn a significantly more accurate detector. The resulting system detects previously unknown roosting locations and provides comprehensive spatio-temporal data about roosts across the US. This data will provide biologists important information about the poorly understood phenomena of broad-scale habitat use and movements of communally roosting birds during the non-breeding season.
翻訳日:2022-12-10 03:26:01 公開日:2020-04-24
# 胸部CTスキャンからCOVID-19を検出する軽量CNN

A Light CNN for detecting COVID-19 from CT scans of the chest ( http://arxiv.org/abs/2004.12837v1 )

ライセンス: Link先を確認
Matteo Polsinelli, Luigi Cinque, Giuseppe Placidi(参考訳) OVID-19は世界保健機関によってパンデミックと宣言された世界規模の病気である。 胸部ct(computer tomography)画像診断は、covid-19を迅速に検出し、疾患の拡散を制御するための有効な診断ツールであると思われる。 深層学習は医学画像や畳み込みニューラルネットワーク(CNN)にも広く使われており、CT画像の分類にも使われている。 我々は,SqueezeNetのモデルに基づく軽量CNN設計を提案し,他のCT画像(共用性肺炎および/または健康な画像)と新型コロナウイルスCT画像の効率的な識別を行う。 テストされたデータセットでは、提案されたSqueezeNet CNNの精度は83.00\%、感度は85.00\%、特異性は81.00\%、精度は81.73\%、F1Scoreの0.8333(GPUアクセラレーションなしで7.81秒)に達した。 性能に加えて、平均的な分類時間はより複雑なcnn設計に関して非常に競争力があり、中程度のパワーコンピュータでも利用可能である。 将来的には,2方向の手法の性能向上を目指しています。 1) トレーニングデータセットを拡大することで(他のCT画像が利用可能になるとすぐに)。 2) 効率的な前処理戦略を導入する。

OVID-19 is a world-wide disease that has been declared as a pandemic by the World Health Organization. Computer Tomography (CT) imaging of the chest seems to be a valid diagnosis tool to detect COVID-19 promptly and to control the spread of the disease. Deep Learning has been extensively used in medical imaging and convolutional neural networks (CNNs) have been also used for classification of CT images. We propose a light CNN design based on the model of the SqueezeNet, for the efficient discrimination of COVID-19 CT images with other CT images (community-acquired pneumonia and/or healthy images). On the tested datasets, the proposed modified SqueezeNet CNN achieved 83.00\% of accuracy, 85.00\% of sensitivity, 81.00\% of specificity, 81.73\% of precision and 0.8333 of F1Score in a very efficient way (7.81 seconds medium-end laptot without GPU acceleration). Besides performance, the average classification time is very competitive with respect to more complex CNN designs, thus allowing its usability also on medium power computers. In the next future we aim at improving the performances of the method along two directions: 1) by increasing the training dataset (as soon as other CT images will be available); 2) by introducing an efficient pre-processing strategy.
翻訳日:2022-12-10 03:25:45 公開日:2020-04-24
# 新型コロナウイルス(COVID-19)の接地事実と介入の適用に関する検査番号はどの程度信頼性が高いか?

How Reliable are Test Numbers for Revealing the COVID-19 Ground Truth and Applying Interventions? ( http://arxiv.org/abs/2004.12782v1 )

ライセンス: Link先を確認
Aditya Gopalan and Himanshu Tyagi(参考訳) 新型コロナウイルスの感染者数は、公的な言論と政策立案の両方において、真実の真偽の実際の数の代理として使われることが多い。 しかし、確認された症例の数は検査方針に依存しており、異なる検査方針を用いて得られた陽性症例の数がどのように未知の根拠となるかを理解することが重要である。 我々はPythonでエージェントベースのシミュレーションフレームワークを開発し、様々なテストポリシーとそれに基づくロックダウンなどの介入をシミュレートする。 エージェント間の相互作用は、様々なコミュニティやモビリティパターンを考慮することができる。 われわれのフレームワークの際立った特徴は、COVID-19に類似した症状を持つ別の「flu」様疾患の存在であり、検査対象の患者プールを選択する際のノイズをモデル化することができる。 インドにおけるベンガル市のモデルとして、地理的にエージェントを分配する国勢調査データと、長距離の相互作用と混合をモデル化する交通流モビリティデータを用いる。 シミュレーションフレームワークを用いて,RST(Random Symptomatic Testing),CT(Contact Tracing),LBT(Location Based Testing)という3つのテストポリシのパフォーマンスを比較した。 十分な数の症状のある患者が検査のために出てくると、RTTは日々の検査をほとんど行わずとも、かなり真実を捉えることができる。 しかし、CTはよりポジティブな症例を常に捉えている。 興味深いことに、私たちの新しいLBTは、CTよりも操作性が低いので、CTに匹敵するパフォーマンスが得られます。 別の方向に、ロックダウンを可能にするためのこれらの3つのテストポリシーの有効性を比較し、CTが地上の真理曲線を最大に平坦化し、LBTに近づき、RTTよりもかなり良いことを観察する。

The number of confirmed cases of COVID-19 is often used as a proxy for the actual number of ground truth COVID-19 infected cases in both public discourse and policy making. However, the number of confirmed cases depends on the testing policy, and it is important to understand how the number of positive cases obtained using different testing policies reveals the unknown ground truth. We develop an agent-based simulation framework in Python that can simulate various testing policies as well as interventions such as lockdown based on them. The interaction between the agents can take into account various communities and mobility patterns. A distinguishing feature of our framework is the presence of another `flu'-like illness with symptoms similar to COVID-19, that allows us to model the noise in selecting the pool of patients to be tested. We instantiate our model for the city of Bengaluru in India, using census data to distribute agents geographically, and traffic flow mobility data to model long-distance interactions and mixing. We use the simulation framework to compare the performance of three testing policies: Random Symptomatic Testing (RST), Contact Tracing (CT), and a new Location Based Testing policy (LBT). We observe that if a sufficient fraction of symptomatic patients come out for testing, then RST can capture the ground truth quite closely even with very few daily tests. However, CT consistently captures more positive cases. Interestingly, our new LBT, which is operationally less intensive than CT, gives performance that is comparable with CT. In another direction, we compare the efficacy of these three testing policies in enabling lockdown, and observe that CT flattens the ground truth curve maximally, followed closely by LBT, and significantly better than RST.
翻訳日:2022-12-10 03:24:34 公開日:2020-04-24
# 統計的に前方シミュレーションをエミュレートする場合のロバスト後部推論

Robust posterior inference when statistically emulating forward simulations ( http://arxiv.org/abs/2004.11929v1 )

ライセンス: Link先を確認
Grigor Aslanyan, Richard Easther, Nathan Musoke, Layne C. Price(参考訳) 科学的分析はしばしば、既知のモデルパラメータに基づく観測可能なデータの遅いが正確なフォワードモデルに依存する。 これらの遅い計算を近似するために様々なエミュレーションスキームが存在するが、これらのアプローチは近似がよく理解され制御されている場合にのみ安全である。 本ワークショップは,(1)MCMCによる後部確率を同時に推定しながらエミュレータを訓練し,(2)モデルパラメータの後部確率の誤差にエミュレーション誤差を明示的に伝播させる,宇宙シミュレーションに使用されてきた方法のレビューと更新を行う。 我々は,これらの手法を用いて,$\lambda$cdm宇宙論モデルのパラメータの後方分布を迅速に推定し,エミュレータ近似のロバスト性を評価する方法を示す。

Scientific analyses often rely on slow, but accurate forward models for observable data conditioned on known model parameters. While various emulation schemes exist to approximate these slow calculations, these approaches are only safe if the approximations are well understood and controlled. This workshop submission reviews and updates a previously published method, which has been used in cosmological simulations, to (1) train an emulator while simultaneously estimating posterior probabilities with MCMC and (2) explicitly propagate the emulation error into errors on the posterior probabilities for model parameters. We demonstrate how these techniques can be applied to quickly estimate posterior distributions for parameters of the $\Lambda$CDM cosmology model, while also gauging the robustness of the emulator approximation.
翻訳日:2022-12-10 03:18:00 公開日:2020-04-24
# 異なる再サンプリングに向けて

Towards Differentiable Resampling ( http://arxiv.org/abs/2004.11938v1 )

ライセンス: Link先を確認
Michael Zhu, Kevin Murphy, Rico Jonschkowski(参考訳) 再サンプリングは粒子フィルタにおけるサンプルベース再帰状態推定の重要なコンポーネントである。 最近の研究は、エンドツーエンド学習のための微分可能な粒子フィルタを探求している。 しかし、本質的に微分不可能であるため、これらの作品における再サンプリングは依然として課題である。 従来のリサンプリングをニューラルネットワークのリサンプリングに置き換えることで、この課題に対処する。 本稿では,新しいネットワークアーキテクチャ,粒子変換器を提案し,粒子集合上の可能性に基づく損失関数を用いて粒子再サンプリングを訓練する。 微分可能な粒子フィルタに組み込んだモデルでは、勾配降下により、他の粒子フィルタ成分とエンドツーエンドに最適化できる。 以上の結果から,我々の学習したリサンプラーは,合成データやシミュレーションロボットのローカライゼーションタスクにおいて,従来のリサンプラー技術よりも優れていることがわかった。

Resampling is a key component of sample-based recursive state estimation in particle filters. Recent work explores differentiable particle filters for end-to-end learning. However, resampling remains a challenge in these works, as it is inherently non-differentiable. We address this challenge by replacing traditional resampling with a learned neural network resampler. We present a novel network architecture, the particle transformer, and train it for particle resampling using a likelihood-based loss function over sets of particles. Incorporated into a differentiable particle filter, our model can be end-to-end optimized jointly with the other particle filter components via gradient descent. Our results show that our learned resampler outperforms traditional resampling techniques on synthetic data and in a simulated robot localization task.
翻訳日:2022-12-10 03:17:45 公開日:2020-04-24
# 肺ctスキャン画像を正常/共生19クラスに分類する機械学習システムの開発

Development of a Machine-Learning System to Classify Lung CT Scan Images into Normal/COVID-19 Class ( http://arxiv.org/abs/2004.13122v1 )

ライセンス: Link先を確認
Seifedine Kadry, Venkatesan Rajinikanth, Seungmin Rho, Nadaradjane Sri Madhava Raja, Vaddi Seshagiri Rao, Krishnan Palani Thanaraj(参考訳) 近年, 新型コロナウイルス(covid-19)による肺感染症が世界規模のヒト集団に影響を与え, 肺感染率の評価は治療計画に不可欠である。 本研究の目的は、CTスキャンスライス(CTS)を用いて、新型コロナウイルス感染症を検出する機械学習システム(MLS)を提案することである。 このmlsはマルチスレッショニング、しきい値フィルタを用いた画像分離、特徴抽出、特徴選択、特徴注入、分類といった一連の手法を実装している。 最初の部分は、CTSを強化するためにChaotic-Bat-AlgorithmとKapur's Entropy(CBA+KE)のしきい値を実装している。 しきい値フィルタは、選択されたしきい値'th'に基づいて画像を2つのセグメントに分割する。 これらの画像のテクスチャの特徴を抽出し、精製し、選択した手順を用いて選択する。 最後に、選択されたcts(n=500、画素寸法512x512x1)を正規/共生-19グループに分類する2クラス分類器システムを実装した。 本研究では,naive bayes (nb), k-nearest neighbors (knn), decision tree (dt), random forest (rf), support vector machine with linear kernel (svm)などの分類器を実装し,様々な特徴ベクトルを用いて分類タスクを行う。 Fused-Feature-Vector (FFV) によるSVMの実験結果により、検出精度は89.80%に達した。

Recently, the lung infection due to Coronavirus Disease (COVID-19) affected a large human group worldwide and the assessment of the infection rate in the lung is essential for treatment planning. This research aims to propose a Machine-Learning-System (MLS) to detect the COVID-19 infection using the CT scan Slices (CTS). This MLS implements a sequence of methods, such as multi-thresholding, image separation using threshold filter, feature-extraction, feature-selection, feature-fusion and classification. The initial part implements the Chaotic-Bat-Algorithm and Kapur's Entropy (CBA+KE) thresholding to enhance the CTS. The threshold filter separates the image into two segments based on a chosen threshold 'Th'. The texture features of these images are extracted, refined and selected using the chosen procedures. Finally, a two-class classifier system is implemented to categorize the chosen CTS (n=500 with a pixel dimension of 512x512x1) into normal/COVID-19 group. In this work, the classifiers, such as Naive Bayes (NB), k-Nearest Neighbors (KNN), Decision Tree (DT), Random Forest (RF) and Support Vector Machine with linear kernel (SVM) are implemented and the classification task is performed using various feature vectors. The experimental outcome of the SVM with Fused-Feature-Vector (FFV) helped to attain a detection accuracy of 89.80%.
翻訳日:2022-12-10 03:16:52 公開日:2020-04-24
# テンソル補完を用いた商業ビル空調ファンパワーのベースライン推定

Baseline Estimation of Commercial Building HVAC Fan Power Using Tensor Completion ( http://arxiv.org/abs/2004.13557v1 )

ライセンス: Link先を確認
Shunbo Lei, David Hong, Johanna L. Mathieu, Ian A. Hiskens(参考訳) 需要応答 (DR) を介して電力網に補助サービスを提供するために, 商業ビルの暖房, 換気, 空調システム (HVAC) が研究されている。 1つの重要な問題は、建築電気負荷プロファイル全体に基づいて、dr. ベースライン法がなければ普及したであろう、事実上のベースライン電力消費量を見積もることである。 HVACサブコンポーネント(例えば、サプライとリターンファン)のベースライン電力消費量を建物全体と異なる特性で推定するためには、新しい手法が必要である。 テンソル完備化は、複素データセットを記述する多次元テンソルの未観測エントリを推定することができる。 これは高次元データを利用して、問題に関する詳細な洞察を捉える。 本稿では,支配的なファンパワーパターンを捕捉する能力を利用して,HVACファンパワーをベースライン化する手法を提案する。 このテンソル完成法はミシガン大学のいくつかの建物から得られたHVACファンパワーデータを用いて評価し,既存手法と比較した。 テンソル補完法は一般にベンチマークを上回っている。

Commercial building heating, ventilation, and air conditioning (HVAC) systems have been studied for providing ancillary services to power grids via demand response (DR). One critical issue is to estimate the counterfactual baseline power consumption that would have prevailed without DR. Baseline methods have been developed based on whole building electric load profiles. New methods are necessary to estimate the baseline power consumption of HVAC sub-components (e.g., supply and return fans), which have different characteristics compared to that of the whole building. Tensor completion can estimate the unobserved entries of multi-dimensional tensors describing complex data sets. It exploits high-dimensional data to capture granular insights into the problem. This paper proposes to use it for baselining HVAC fan power, by utilizing its capability of capturing dominant fan power patterns. The tensor completion method is evaluated using HVAC fan power data from several buildings at the University of Michigan, and compared with several existing methods. The tensor completion method generally outperforms the benchmarks.
翻訳日:2022-12-10 03:16:25 公開日:2020-04-24
# ECGセグメンテーションのためのグラフ制約変化点検出手法

A Graph-constrained Changepoint Detection Approach for ECG Segmentation ( http://arxiv.org/abs/2004.13558v1 )

ライセンス: Link先を確認
Atiyeh Fotoohinasab, Toby Hocking, and Fatemeh Afghah(参考訳) 心電図(ECG)信号は、心血管疾患の評価において最も一般的に使用される非侵襲的ツールである。 構成波、特にRピークを見つけるためのECG信号のセグメンテーションは、ECG処理と解析の重要なステップである。 長年にわたり、いくつかのセグメンテーションとqrs複合検出アルゴリズムが異なる特徴で提案されてきたが、それらの性能は、収集されたデータが非常に騒がしい遠隔監視システムや保養医療設定のリアルタイムデータ分析において信頼できない事前処理ステップの適用に大きく依存している。 さらに、ECG信号の多様な形態的カテゴリとその計算コストに関して、現在のアルゴリズムにはまだいくつかの問題が残っている。 本稿では,前処理を必要とせず,信頼性の高いrピーク位置検出を行うグラフベース最適切替点検出(gccd)法を提案する。 提案手法は,グローバルに最適な変更点検出ソリューションを計算することを保証する。 自然界でも一般的であり、他の時系列生物医学信号にも応用できる。 MIT-BIH arrhythmia (MIT-BIH-AR) データベースをベースとして、提案手法は、全体的な感度 Sen = 99.76、正の予測率 PPR = 99.68、検出誤差率 DER = 0.55 を達成する。

Electrocardiogram (ECG) signal is the most commonly used non-invasive tool in the assessment of cardiovascular diseases. Segmentation of the ECG signal to locate its constitutive waves, in particular the R-peaks, is a key step in ECG processing and analysis. Over the years, several segmentation and QRS complex detection algorithms have been proposed with different features; however, their performance highly depends on applying preprocessing steps which makes them unreliable in real-time data analysis of ambulatory care settings and remote monitoring systems, where the collected data is highly noisy. Moreover, some issues still remain with the current algorithms in regard to the diverse morphological categories for the ECG signal and their high computation cost. In this paper, we introduce a novel graph-based optimal changepoint detection (GCCD) method for reliable detection of R-peak positions without employing any preprocessing step. The proposed model guarantees to compute the globally optimal changepoint detection solution. It is also generic in nature and can be applied to other time-series biomedical signals. Based on the MIT-BIH arrhythmia (MIT-BIH-AR) database, the proposed method achieves overall sensitivity Sen = 99.76, positive predictivity PPR = 99.68, and detection error rate DER = 0.55 which are comparable to other state-of-the-art approaches.
翻訳日:2022-12-10 03:16:10 公開日:2020-04-24
# 内視鏡的病変分画に対する非教師なし領域適応法

What Can Be Transferred: Unsupervised Domain Adaptation for Endoscopic Lesions Segmentation ( http://arxiv.org/abs/2004.11500v1 )

ライセンス: Link先を確認
Jiahua Dong, Yang Cong, Gan Sun, Bineng Zhong, Xiaowei Xu(参考訳) 教師なしドメイン適応はセマンティックセグメンテーションの研究の注目を集めている。 しかし、 1) 既存のモデルの多くは,異なるデータセット間で同一の病変の出現が異なるため,医療画像の病変移動に直接適用することはできない。 2)無関係な知識を無視するのではなく,すべての意味表現に平等な注意が払われた。 これらの課題に対処するため,内視鏡的病変分割のための2つの相補的モジュール(T_DとT_F)を含む新しい教師なしセマンティックトランスファーモデルを開発した。 特に、T_Dは、伝達不能な視覚的特徴を無視しながら、残留転写可能性を認識するボトルネックを介して、医療病変の伝達可能な視覚情報を翻訳する場所に焦点を当てている。 さらに、T_Fは、様々な病変の伝達可能な意味的特徴を拡大し、自動的に変換不可能な表現を無視する方法を強調している。 最後に, 医学的内視鏡的データセットと非医学的公開データセットに関する理論的解析と広範な実験を行い, 提案モデルの有用性を実証した。

Unsupervised domain adaptation has attracted growing research attention on semantic segmentation. However, 1) most existing models cannot be directly applied into lesions transfer of medical images, due to the diverse appearances of same lesion among different datasets; 2) equal attention has been paid into all semantic representations instead of neglecting irrelevant knowledge, which leads to negative transfer of untransferable knowledge. To address these challenges, we develop a new unsupervised semantic transfer model including two complementary modules (i.e., T_D and T_F ) for endoscopic lesions segmentation, which can alternatively determine where and how to explore transferable domain-invariant knowledge between labeled source lesions dataset (e.g., gastroscope) and unlabeled target diseases dataset (e.g., enteroscopy). Specifically, T_D focuses on where to translate transferable visual information of medical lesions via residual transferability-aware bottleneck, while neglecting untransferable visual characterizations. Furthermore, T_F highlights how to augment transferable semantic features of various lesions and automatically ignore untransferable representations, which explores domain-invariant knowledge and in return improves the performance of T_D. To the end, theoretical analysis and extensive experiments on medical endoscopic dataset and several non-medical public datasets well demonstrate the superiority of our proposed model.
翻訳日:2022-12-10 03:15:21 公開日:2020-04-24
# 胸部X線撮影のための深部畳み込みニューラルネットワークアーキテクチャの体系的探索

A Systematic Search over Deep Convolutional Neural Network Architectures for Screening Chest Radiographs ( http://arxiv.org/abs/2004.11693v1 )

ライセンス: Link先を確認
Arka Mitra, Arunava Chakravarty, Nirmalya Ghosh, Tandra Sarkar, Ramanathan Sethuraman, Debdoot Sheet(参考訳) 胸部X線写真は主に肺・胸部疾患のスクリーニングに用いられる。 主要医療センターで実施されているため、低所得国や中所得国では課題となっている、ラジオロジストのオンプレミスレポートの存在が必要である。 これにより、機械学習ベースのスクリーニングプロセスの自動化が開発された。 最近の研究は、深層畳み込みニューラルネットワーク(CNN)のアンサンブルを用いた性能ベンチマークを実証する一方で、複数の標準CNNアーキテクチャを体系的に探索し、分類性能がアンサンブルと同等であることが判明した単一候補CNNモデルを特定した。 11:3 FP32 TensorTFLOPS 計算システムで実行された 63 時間以上の実験で,Xception と ResNet-18 のアーキテクチャは,9つの病態に対して平均 0.87 の AUC と共存する疾患を識別する一貫したパフォーマーであることが判明した。 提案手法は,ランダムな入力サンプリングを用いて生成したサリエンシマップを説明(RISE)法で評価し,経験者から得られた手動アノテーションに対して定性的に検証することにより,モデルの信頼性を検証した。 また,一般に入手可能なchexpertデータセットの制限について,主にトレーニングとテストセットのクラス分布の差異と,サンプル不足による定量的報告の妨げとなる少数のクラスで十分なサンプルが使用できない点について批判的な考察を行った。

Chest radiographs are primarily employed for the screening of pulmonary and cardio-/thoracic conditions. Being undertaken at primary healthcare centers, they require the presence of an on-premise reporting Radiologist, which is a challenge in low and middle income countries. This has inspired the development of machine learning based automation of the screening process. While recent efforts demonstrate a performance benchmark using an ensemble of deep convolutional neural networks (CNN), our systematic search over multiple standard CNN architectures identified single candidate CNN models whose classification performances were found to be at par with ensembles. Over 63 experiments spanning 400 hours, executed on a 11:3 FP32 TensorTFLOPS compute system, we found the Xception and ResNet-18 architectures to be consistent performers in identifying co-existing disease conditions with an average AUC of 0.87 across nine pathologies. We conclude on the reliability of the models by assessing their saliency maps generated using the randomized input sampling for explanation (RISE) method and qualitatively validating them against manual annotations locally sourced from an experienced Radiologist. We also draw a critical note on the limitations of the publicly available CheXpert dataset primarily on account of disparity in class distribution in training vs. testing sets, and unavailability of sufficient samples for few classes, which hampers quantitative reporting due to sample insufficiency.
翻訳日:2022-12-10 03:09:17 公開日:2020-04-24
# 痛み評価のためのicuデータに基づく顔行動単位検出

Facial Action Unit Detection on ICU Data for Pain Assessment ( http://arxiv.org/abs/2005.02121v1 )

ライセンス: Link先を確認
Subhash Nerella, Azra Bihorac, Patrick Tighe, Parisa Rashidi(参考訳) 現在の痛み評価方法は、患者の自己報告や集中治療室(icu)看護師のような観察者に依存する。 患者の自己報告は個人にとって主観的であり、リコール不足のために苦しむ。 手動観察による痛みのアセスメントは、1日当たりの管理数とスタッフの作業量によって制限される。 顔面活動単位(aus)の検出による痛み自動評価の可能性について検討した。 痛みは特定の顔行動単位(AU)と関連している。 この痛み評価手法は、現在の痛み評価技術の落とし穴を克服することができる。 以前の研究はすべて、制御された環境データに限定されている。 本研究では,オープンソースの顔行動解析ツールOpenFaceと実世界ICUデータを用いたAU R-CNNの性能評価を行った。 呼吸補助装置の存在, ICUの可変照明, カメラに対する患者の向きは, モデルの性能に大きく影響した。 本研究では,実世界のicuデータに基づいて,臨床で許容される痛みアセスメントシステムのための自動痛覚評価システムの必要性を示す。

Current day pain assessment methods rely on patient self-report or by an observer like the Intensive Care Unit (ICU) nurses. Patient self-report is subjective to the individual and suffers due to poor recall. Pain assessment by manual observation is limited by the number of administrations per day and staff workload. Previous studies showed the feasibility of automatic pain assessment by detecting Facial Action Units (AUs). Pain is observed to be associated with certain facial action units (AUs). This method of pain assessment can overcome the pitfalls of present-day pain assessment techniques. All the previous studies are limited to controlled environment data. In this study, we evaluated the performance of OpenFace an open-source facial behavior analysis tool and AU R-CNN on the real-world ICU data. Presence of assisted breathing devices, variable lighting of ICUs, patient orientation with respect to camera significantly affected the performance of the models, although these showed the state-of-the-art results in facial behavior analysis tasks. In this study, we show the need for automated pain assessment system which is trained on real-world ICU data for clinically acceptable pain assessment system.
翻訳日:2022-12-10 03:08:35 公開日:2020-04-24
# ソーシャルインタラクションかビジネストランザクションか? airbnb marketplaceの顧客レビューが明らかに

Social Interactions or Business Transactions? What customer reviews disclose about Airbnb marketplace ( http://arxiv.org/abs/2004.11604v1 )

ライセンス: Link先を確認
Giovanni Quattrone, Antonino Nocera, Licia Capra, Daniele Quercia(参考訳) Airbnbは、経済市場を共有する最も成功した例の1つだ。 迅速かつグローバルな市場浸透により、その魅力と成長機会の進化を理解することが、ビジネス上の意思決定計画の鍵となる。 例えば、Airbnbがホストとゲスト間の交流を促進するホスピタリティサービスなのか、共有経済宣言が最初に述べたように、それとも純粋なビジネス取引プラットフォームである(あるいは進化しつつある)のか、ホテルが伝統的に運営してきた方法について、議論が続いている。 これらの疑問に答えるために,顧客のレビューを生かした市場分析手法を提案する。 このアプローチの鍵となるのは、テーマ分析と機械学習を組み合わせてゲストレビューのためのカスタム辞書を誘導的に開発する手法である。 この辞書に基づいて,6都市で収集した320万レビューコーパスの定量的言語分析を行い,時間的,主題的,ユーザ的,空間的粒度などの微妙なレベルで,様々な市場調査質問への回答方法を示す。 (i)長年にわたり、ビジネス対社会的二分法がどのように進化しているか。 (ii)トップレベルカテゴリ内の正確な単語が進化しているか。 (iii)その傾向がユーザセグメントによって異なるか (iv)地域によって異なる。

Airbnb is one of the most successful examples of sharing economy marketplaces. With rapid and global market penetration, understanding its attractiveness and evolving growth opportunities is key to plan business decision making. There is an ongoing debate, for example, about whether Airbnb is a hospitality service that fosters social exchanges between hosts and guests, as the sharing economy manifesto originally stated, or whether it is (or is evolving into being) a purely business transaction platform, the way hotels have traditionally operated. To answer these questions, we propose a novel market analysis approach that exploits customers' reviews. Key to the approach is a method that combines thematic analysis and machine learning to inductively develop a custom dictionary for guests' reviews. Based on this dictionary, we then use quantitative linguistic analysis on a corpus of 3.2 million reviews collected in 6 different cities, and illustrate how to answer a variety of market research questions, at fine levels of temporal, thematic, user and spatial granularity, such as (i) how the business vs social dichotomy is evolving over the years, (ii) what exact words within such top-level categories are evolving, (iii) whether such trends vary across different user segments and (iv) in different neighbourhoods.
翻訳日:2022-12-10 03:08:20 公開日:2020-04-24
# igbo言語のための汎用感情語彙の開発

Development of a General Purpose Sentiment Lexicon for Igbo Language ( http://arxiv.org/abs/2004.14176v1 )

ライセンス: Link先を確認
Emeka Ogbuju and Moses Onyesolu(参考訳) 高資源言語には公に利用可能な汎用感情語彙が存在するが、低資源言語にはほとんど存在しない。 これにより、このような言語で感情分析タスクを直接実行するのが難しくなる。 本研究の目的は、Igbo言語に翻訳することなく、Igbo言語で書かれた文書の感情を決定できる汎用的な感情辞書を作ることである。 使用された資料は、liuが自動翻訳した辞書と、igboのネイティブワードを手作業で追加したものである。 この研究の結果はIgboSentilexと呼ばれる汎用の辞書である。 パフォーマンスはBBCのIgboニュースチャンネルでテストされた。 他の汎用的な感情レキシコンと95.75パーセントの平均的な極性合意を返した。

There are publicly available general purpose sentiment lexicons in some high resource languages but very few exist in the low resource languages. This makes it difficult to directly perform sentiment analysis tasks in such languages. The objective of this work is to create a general purpose sentiment lexicon for the Igbo language that can determine the sentiment of documents written in the Igbo language without having to translate it to the English language. The material used was an automatically translated lexicon by Liu and the manual addition of Igbo native words. The result of this work is a general purpose lexicon called IgboSentilex. The performance was tested on the BBC Igbo news channel. It returned an average polarity agreement of 95.75 percent with other general purpose sentiment lexicons.
翻訳日:2022-12-10 03:07:59 公開日:2020-04-24
# 生成ニューロンを用いた自己組織化オペレーショナルニューラルネットワーク

Self-Organized Operational Neural Networks with Generative Neurons ( http://arxiv.org/abs/2004.11778v1 )

ライセンス: Link先を確認
Serkan Kiranyaz, Junaid Malik, Habib Ben Abdallah, Turker Ince, Alexandros Iosifidis and Moncef Gabbouj(参考訳) オペレーショナルニューラルネットワーク(ONN)は、最近、唯一の線形ニューロンモデルによるネットワークの均一性のような、従来の畳み込みニューラルネットワーク(CNN)の既知の制限と欠点に対処するために提案されている。 ONNは、一般化されたニューロンモデルを持つ異種ネットワークであり、あらゆる非線形演算子をカプセル化して多様性を高め、ネットワークの複雑さとトレーニングデータを最小限に抑えて高度に複雑でマルチモーダルな関数や空間を学ぶことができる。 しかし、ONNの最適演算子を見つけるために使用される探索手法であるGreedy Iterative Search (GIS) 法は、複数のトレーニングセッションを要し、各層に1つの演算子集合を求める。 これは計算上要求されるだけでなく、ネットワークの不均一性も制限される。なぜなら同じオペレーターのセットが各層の全ニューロンで使用されるからである。 さらに、ONNの性能は使用する演算子セットライブラリに直接依存しており、特に特定のタスクに必要な最適演算子セットがライブラリから欠落した場合に、パフォーマンス劣化のリスクが生じる。 本研究は,これらの問題に対処し,ネットワークの多様性と計算効率を高めるために,学習過程において各接続の結節演算子を適応(最適化)できる生成ニューロンを備えた自己組織型ONN(Self-ONN)を提案する。 したがって、自己オンは、学習問題に必要となる最も不均質なレベルを持つことができる。 さらに、この機能は、最適な演算子のセットを見つけるために、固定演算子セットライブラリと事前演算子をライブラリ内で検索する必要性を無効にする。 さらに,自衛隊の運用層を通じてエラーをバックプロパゲートするためのトレーニング手法を定式化する。

Operational Neural Networks (ONNs) have recently been proposed to address the well-known limitations and drawbacks of conventional Convolutional Neural Networks (CNNs) such as network homogeneity with the sole linear neuron model. ONNs are heterogenous networks with a generalized neuron model that can encapsulate any set of non-linear operators to boost diversity and to learn highly complex and multi-modal functions or spaces with minimal network complexity and training data. However, Greedy Iterative Search (GIS) method, which is the search method used to find optimal operators in ONNs takes many training sessions to find a single operator set per layer. This is not only computationally demanding, but the network heterogeneity is also limited since the same set of operators will then be used for all neurons in each layer. Moreover, the performance of ONNs directly depends on the operator set library used, which introduces a certain risk of performance degradation especially when the optimal operator set required for a particular task is missing from the library. In order to address these issues and achieve an ultimate heterogeneity level to boost the network diversity along with computational efficiency, in this study we propose Self-organized ONNs (Self-ONNs) with generative neurons that have the ability to adapt (optimize) the nodal operator of each connection during the training process. Therefore, Self-ONNs can have an utmost heterogeneity level required by the learning problem at hand. Moreover, this ability voids the need of having a fixed operator set library and the prior operator search within the library in order to find the best possible set of operators. We further formulate the training method to back-propagate the error through the operational layers of Self-ONNs.
翻訳日:2022-12-10 03:06:35 公開日:2020-04-24
# 非排他的、重複するコクラスタリング:拡張解析

Non-Exhaustive, Overlapping Co-Clustering: An Extended Analysis ( http://arxiv.org/abs/2004.11530v1 )

ライセンス: Link先を確認
Joyce Jiyoung Whang and Inderjit S. Dhillon(参考訳) 共クラスタ化の目的は、2次元データ行列の列と同様に行のクラスタリングを同時に識別することである。 情報理論コクラスタリングや最小2乗残差コクラスタリングなど,多数のコクラスタリング手法が提案されている。 しかし、既存のコクラスタリングアルゴリズムの多くは、ペアで不整合かつ網羅的なコクラスタを見つけるように設計されている一方、多くの実世界のデータセットは、コクラスタ間の大きな重複だけでなく、いかなるコクラスタにも属さないアウトリーも含んでいる。 本稿では、列クラスタと列クラスタの双方が重なり合うことを許容し、データマトリックスの各次元のアウトレイラが任意のクラスタに割り当てられない非排他的重複クラスタリングの問題を定式化する。 この問題を解決するため,直感的な目的関数を提案し,NEO-CCアルゴリズムと呼ばれる効率的な反復アルゴリズムを開発した。 理論的には、NEO-CCアルゴリズムは提案した目的関数を単調に減少させる。 実験結果から,NEO-CCアルゴリズムは実世界のデータのコクラスタリング構造を効果的に捉え,最先端のクラスタリングとコクラスタリングの手法よりも優れていることがわかった。 この写本は[21]の拡張分析を含んでいる。

The goal of co-clustering is to simultaneously identify a clustering of rows as well as columns of a two dimensional data matrix. A number of co-clustering techniques have been proposed including information-theoretic co-clustering and the minimum sum-squared residue co-clustering method. However, most existing co-clustering algorithms are designed to find pairwise disjoint and exhaustive co-clusters while many real-world datasets contain not only a large overlap between co-clusters but also outliers which should not belong to any co-cluster. In this paper, we formulate the problem of Non-Exhaustive, Overlapping Co-Clustering where both of the row and column clusters are allowed to overlap with each other and outliers for each dimension of the data matrix are not assigned to any cluster. To solve this problem, we propose intuitive objective functions, and develop an an efficient iterative algorithm which we call the NEO-CC algorithm. We theoretically show that the NEO-CC algorithm monotonically decreases the proposed objective functions. Experimental results show that the NEO-CC algorithm is able to effectively capture the underlying co-clustering structure of real-world data, and thus outperforms state-of-the-art clustering and co-clustering methods. This manuscript includes an extended analysis of [21].
翻訳日:2022-12-10 02:59:33 公開日:2020-04-24
# 等強度k平均空間分割による概念ドリフト検出

Concept Drift Detection via Equal Intensity k-means Space Partitioning ( http://arxiv.org/abs/2004.11587v1 )

ライセンス: Link先を確認
Anjin Liu, Jie Lu, Guangquan Zhang(参考訳) データストリームは、トレーニングとターゲットサンプルの分布が時間経過とともに異なる可能性があるため、統計分類タスクにさらなる課題をもたらす。 このようなストリーミングデータの分布変化をコンセプトドリフトと呼ぶ。 ヒストグラムに基づく分布変化検出法が多数提案されている。 ほとんどのヒストグラムはグリッドベースまたはツリーベースの空間分割アルゴリズムに基づいて開発されており、空間分割を任意に、説明不能にし、ドリフト盲点を引き起こす可能性がある。 ヒストグラムに基づく手法のドリフト検出精度を教師なし設定で向上させる必要がある。 この問題を解決するために,等強度k平均空間分割(EI-kMeans)と呼ばれるクラスタベースのヒストグラムを提案する。 また,ドリフト検出の感度を向上させるためのヒューリスティック手法を提案する。 感度を改善する基本的な考え方は、分散オフセット領域におけるパーティション生成のリスクを最小限に抑えることである。 ピアソンのカイ二乗検定は統計的仮説検定として用いられ、テスト統計は標本分布とは独立に保たれる。 カイ二乗検定における漸近的制約に基づき、試料からドリフト検出能力に強く影響を及ぼすビン数とその形状を動的に決定する。 そこで, 3つのアルゴリズムを用いて, グリーディ・セントロイド初期化アルゴリズム, クラスタ増幅・縮小アルゴリズム, ドリフト検出アルゴリズムを含むドリフト検出を実現する。 ドリフト適応には,ドリフトが検出された場合,学習者を再トレーニングすることを推奨する。 合成および実世界のデータセットに関する実験の結果は、EI-kMeansの利点を示し、コンセプトドリフトの検出における有効性を示している。

Data stream poses additional challenges to statistical classification tasks because distributions of the training and target samples may differ as time passes. Such distribution change in streaming data is called concept drift. Numerous histogram-based distribution change detection methods have been proposed to detect drift. Most histograms are developed on grid-based or tree-based space partitioning algorithms which makes the space partitions arbitrary, unexplainable, and may cause drift blind-spots. There is a need to improve the drift detection accuracy for histogram-based methods with the unsupervised setting. To address this problem, we propose a cluster-based histogram, called equal intensity k-means space partitioning (EI-kMeans). In addition, a heuristic method to improve the sensitivity of drift detection is introduced. The fundamental idea of improving the sensitivity is to minimize the risk of creating partitions in distribution offset regions. Pearson's chi-square test is used as the statistical hypothesis test so that the test statistics remain independent of the sample distribution. The number of bins and their shapes, which strongly influence the ability to detect drift, are determined dynamically from the sample based on an asymptotic constraint in the chi-square test. Accordingly, three algorithms are developed to implement concept drift detection, including a greedy centroids initialization algorithm, a cluster amplify-shrink algorithm, and a drift detection algorithm. For drift adaptation, we recommend retraining the learner if a drift is detected. The results of experiments on synthetic and real-world datasets demonstrate the advantages of EI-kMeans and show its efficacy in detecting concept drift.
翻訳日:2022-12-10 02:59:09 公開日:2020-04-24
# 安定ベースラインにおける深部Q学習のためのQ値の進化

Evolution of Q Values for Deep Q Learning in Stable Baselines ( http://arxiv.org/abs/2004.11766v1 )

ライセンス: Link先を確認
Matthew Andrews, Cemil Dibek, Karina Palyutina(参考訳) 安定ベースラインライブラリにおけるディープQ学習(DQL)の実装のためのQ値の進化について検討する。 安定ベースラインは最新の強化学習技術を取り入れ、多くのゲーム環境で超人的なパフォーマンスを達成する。 しかし、いくつかの単純な非ゲーム環境では、Stable BaselinesのDQLは正しいアクションを見つけるのに苦労する。 本稿では,この準最適行動が生じる環境のタイプを理解するとともに,個々の状態に対するQ値の対応する進化について検討する。 我々は、スマートなTrafficLight環境(パフォーマンスが貧弱な)とAI Gym FrozenLake環境(パフォーマンスが完璧である)を比較します。 DQLがTrafficLightと戦っているのは、アクションが可逆的であるため、ある状態のQ値がFrozenLakeよりも近いからです。 次に,最近のAchiamらによる分解手法を用いて,Q値の進化について検討する。 TrafficLightの場合、関数近似誤差と状態間の複雑な関係は、いくつかのQ値が最適から遠く離れている状況につながる。

We investigate the evolution of the Q values for the implementation of Deep Q Learning (DQL) in the Stable Baselines library. Stable Baselines incorporates the latest Reinforcement Learning techniques and achieves superhuman performance in many game environments. However, for some simple non-game environments, the DQL in Stable Baselines can struggle to find the correct actions. In this paper we aim to understand the types of environment where this suboptimal behavior can happen, and also investigate the corresponding evolution of the Q values for individual states. We compare a smart TrafficLight environment (where performance is poor) with the AI Gym FrozenLake environment (where performance is perfect). We observe that DQL struggles with TrafficLight because actions are reversible and hence the Q values in a given state are closer than in FrozenLake. We then investigate the evolution of the Q values using a recent decomposition technique of Achiam et al.. We observe that for TrafficLight, the function approximation error and the complex relationships between the states lead to a situation where some Q values meander far from optimal.
翻訳日:2022-12-10 02:58:43 公開日:2020-04-24
# ネットワーク時系列におけるデータ駆動ノードサブサンプリングによるグラフ上のセンサ選択

Sensor selection on graphs via data-driven node sub-sampling in network time series ( http://arxiv.org/abs/2004.11815v1 )

ライセンス: Link先を確認
Yiye Jiang (1 and 2), J\'er\'emie Bigot (1) and Sofian Maabout (2) ((1) Institut de Math\'ematiques de Bordeaux, Universit\'e de Bordeaux, (2) Laboratoire Bordelais de Recherche en Informatique, Universit\'e de Bordeaux)(参考訳) 本稿では,非観測センサの信号回復を最小の再構成誤差で目的とし,時系列ネットワーク上でのセンサの最適サンプリングセットの選択の問題について述べる。 この問題は、時間依存グラフ信号が冗長ネットワーク上で収集されるアプリケーションによって動機付けられている。 この設定では、基礎となるグラフのノード全体のデータストリームを予測するために、センサーのサブセットのみを使用したい場合もあります。 典型的な応用は、バッテリーの供給が限られているかもしれないセンサーのネットワークにおける消費電力を減らすことである。 我々は,一定数のセンサをオフにしたり,あるいは等価にノードのサンプリングセットを選択するためのデータ駆動戦略を提案し,比較する。 また,多変量データからのセンサ選択に関する既存の文献と(おそらく)基礎となるグラフ構造とのアプローチを関連付けた。 本手法は,多変量時系列解析,グラフ信号処理,高次元・深層学習における統計的学習などのツールを組み合わせる。 提案手法の性能を明らかにするため, 異なる都市における自転車共有ネットワークの実データ解析に関する数値実験を行った。

This paper is concerned by the problem of selecting an optimal sampling set of sensors over a network of time series for the purpose of signal recovery at non-observed sensors with a minimal reconstruction error. The problem is motivated by applications where time-dependent graph signals are collected over redundant networks. In this setting, one may wish to only use a subset of sensors to predict data streams over the whole collection of nodes in the underlying graph. A typical application is the possibility to reduce the power consumption in a network of sensors that may have limited battery supplies. We propose and compare various data-driven strategies to turn off a fixed number of sensors or equivalently to select a sampling set of nodes. We also relate our approach to the existing literature on sensor selection from multivariate data with a (possibly) underlying graph structure. Our methodology combines tools from multivariate time series analysis, graph signal processing, statistical learning in high-dimension and deep learning. To illustrate the performances of our approach, we report numerical experiments on the analysis of real data from bike sharing networks in different cities.
翻訳日:2022-12-10 02:58:07 公開日:2020-04-24
# 変動帯域のボトルネック : 情報予算の確率的評価

The Variational Bandwidth Bottleneck: Stochastic Evaluation on an Information Budget ( http://arxiv.org/abs/2004.11935v1 )

ライセンス: Link先を確認
Anirudh Goyal, Yoshua Bengio, Matthew Botvinick, Sergey Levine(参考訳) 多くのアプリケーションにおいて、複雑な入力データから関連する情報のみを抽出することが望ましい。 情報ボトルネック法は、圧縮(無関係な入力情報)と目標予測との最適なトレードオフを維持して、情報理論最適化問題として定式化する。 本研究で検討する強化学習問題を含む多くの問題設定では、入力の一部だけを圧縮することを好むかもしれない。 これは通常、状態観察のような標準的なコンディショニング入力と、タスクの目標、コストのかかる計画アルゴリズムの出力、または他のエージェントとの通信に対応する「優先」入力がある場合である。 そのような場合、我々は、より良い一般化(例えば、目標)を達成するか、コストのかかる情報(例えば、通信の場合)へのアクセスを最小限に抑えるために、特権入力を圧縮することを好むかもしれない。 変動推論に基づく情報ボトルネックの実践的な実装は、ボトルネック変数を計算するために特権入力へのアクセスを必要とするため、圧縮を行うが、この圧縮操作自体は制限のない無損失アクセスを必要とする。 本稿では,標準入力のみに基づいて,特権情報の推定値に関する各例を決定する変動帯域ボトルネックを提案し,それに従って,特権入力にアクセスするか否かを確率的に選択する。 我々は,この枠組みの扱いやすい近似を定式化し,一般化を改良し,計算コストの高い情報へのアクセスを削減できることを示す強化学習実験を行った。

In many applications, it is desirable to extract only the relevant information from complex input data, which involves making a decision about which input features are relevant. The information bottleneck method formalizes this as an information-theoretic optimization problem by maintaining an optimal tradeoff between compression (throwing away irrelevant input information), and predicting the target. In many problem settings, including the reinforcement learning problems we consider in this work, we might prefer to compress only part of the input. This is typically the case when we have a standard conditioning input, such as a state observation, and a "privileged" input, which might correspond to the goal of a task, the output of a costly planning algorithm, or communication with another agent. In such cases, we might prefer to compress the privileged input, either to achieve better generalization (e.g., with respect to goals) or to minimize access to costly information (e.g., in the case of communication). Practical implementations of the information bottleneck based on variational inference require access to the privileged input in order to compute the bottleneck variable, so although they perform compression, this compression operation itself needs unrestricted, lossless access. In this work, we propose the variational bandwidth bottleneck, which decides for each example on the estimated value of the privileged information before seeing it, i.e., only based on the standard input, and then accordingly chooses stochastically, whether to access the privileged input or not. We formulate a tractable approximation to this framework and demonstrate in a series of reinforcement learning experiments that it can improve generalization and reduce access to computationally costly information.
翻訳日:2022-12-10 02:57:15 公開日:2020-04-24
# PBCS : 強化学習と運動計画の相乗効果を用いた効率的な探索と爆発

PBCS : Efficient Exploration and Exploitation Using a Synergy between Reinforcement Learning and Motion Planning ( http://arxiv.org/abs/2004.11667v1 )

ライセンス: Link先を確認
Guillaume Matheron, Nicolas Perrin, Olivier Sigaud(参考訳) 探査・探査のトレードオフは強化学習(RL)の中心にある。 しかし、最近のRL研究で使われているほとんどの連続制御ベンチマークは局所的な探索のみを必要とする。 この結果、基本的な探索能力を持ち、より多用途な探索を必要とするベンチマークで振る舞うアルゴリズムの開発につながった。 例えば、実験的な研究で示されたように、DDPGやTD3のような最先端のRLアルゴリズムは、小さな2D迷路でもポイント質量を操れません。 本稿では, 動き計画と強化学習を組み合わせて, 硬い探索環境を解く, PBCS (Plan, Backplay, Chain Skills) と呼ばれる新しいアルゴリズムを提案する。 第1フェーズでは、1つの良い軌道を見つけるために動き計画アルゴリズムを使用し、その後、バックプレイアルゴリズムの変種とスキル連鎖を組み合わせることで、軌道から派生したカリキュラムを用いてrlアルゴリズムを訓練する。 本手法は,様々な大きさの2次元迷路環境において最先端のrlアルゴリズムを上回り,動作計画フェーズで得られた軌道を改善できることを示す。

The exploration-exploitation trade-off is at the heart of reinforcement learning (RL). However, most continuous control benchmarks used in recent RL research only require local exploration. This led to the development of algorithms that have basic exploration capabilities, and behave poorly in benchmarks that require more versatile exploration. For instance, as demonstrated in our empirical study, state-of-the-art RL algorithms such as DDPG and TD3 are unable to steer a point mass in even small 2D mazes. In this paper, we propose a new algorithm called "Plan, Backplay, Chain Skills" (PBCS) that combines motion planning and reinforcement learning to solve hard exploration environments. In a first phase, a motion planning algorithm is used to find a single good trajectory, then an RL algorithm is trained using a curriculum derived from the trajectory, by combining a variant of the Backplay algorithm and skill chaining. We show that this method outperforms state-of-the-art RL algorithms in 2D maze environments of various sizes, and is able to improve on the trajectory obtained by the motion planning phase.
翻訳日:2022-12-10 02:50:51 公開日:2020-04-24
# Plant Pathology 2020がリンゴの葉病を分類するデータセットを挑戦

The Plant Pathology 2020 challenge dataset to classify foliar disease of apples ( http://arxiv.org/abs/2004.11958v1 )

ライセンス: Link先を確認
Ranjita Thapa (1), Noah Snavely (2), Serge Belongie (2), Awais Khan (1) ((1) Plant Pathology and Plant-Microbe Biology Section, Cornell University, Geneva, NY, (2) Cornell Tech)(参考訳) 米国のリンゴ果樹園は、多くの病原体や昆虫から常に脅威にさらされている。 疾患管理の適切かつタイムリーな展開は、早期の疾患検出に依存する。 不正確で遅延した診断は、化学薬品の過剰または不適切な使用を招き、生産コスト、環境、健康への影響が増大する。 手動で3,651個のリンゴ葉病の高画質・実生症状画像を撮影し, 様々な照明, 角度, 表面, 騒音について検討した。 CVPR 2020(Computer Vision and Pattern Recognition, コンピュータビジョンとパターン認識)でFGVC(Fincent-Grained Visual Categorization)ワークショップの一環として、Apple scab、スギリンゴのさび、健康的な葉のためのパイロットデータセットを作成するためのサブセットがKaggleコミュニティで公開された。 また,この疾患分類データに基づいて市販の畳み込みニューラルネットワーク(CNN)を訓練し,保持試験セットで97%の精度を達成した。 このデータセットは、機械学習ベースの自動植物病分類アルゴリズムの開発と展開に寄与し、最終的に迅速かつ正確な疾患検出を実現する。 今後、kaggleコンペティションのための、より包括的で包括的なエキスパートアノテートデータセットのために、パイロットデータセットに画像を追加し、より高度な疾病の分類と定量化の方法を探求していく。

Apple orchards in the U.S. are under constant threat from a large number of pathogens and insects. Appropriate and timely deployment of disease management depends on early disease detection. Incorrect and delayed diagnosis can result in either excessive or inadequate use of chemicals, with increased production costs, environmental, and health impacts. We have manually captured 3,651 high-quality, real-life symptom images of multiple apple foliar diseases, with variable illumination, angles, surfaces, and noise. A subset, expert-annotated to create a pilot dataset for apple scab, cedar apple rust, and healthy leaves, was made available to the Kaggle community for 'Plant Pathology Challenge'; part of the Fine-Grained Visual Categorization (FGVC) workshop at CVPR 2020 (Computer Vision and Pattern Recognition). We also trained an off-the-shelf convolutional neural network (CNN) on this data for disease classification and achieved 97% accuracy on a held-out test set. This dataset will contribute towards development and deployment of machine learning-based automated plant disease classification algorithms to ultimately realize fast and accurate disease detection. We will continue to add images to the pilot dataset for a larger, more comprehensive expert-annotated dataset for future Kaggle competitions and to explore more advanced methods for disease classification and quantification.
翻訳日:2022-12-10 02:50:14 公開日:2020-04-24
# メタ学習によるニューラルネットワークの自動低ビットハイブリッド量子化

Automatic low-bit hybrid quantization of neural networks through meta learning ( http://arxiv.org/abs/2004.11506v1 )

ライセンス: Link先を確認
Tao Wang, Junsong Wang, Chang Xu and Chao Xue(参考訳) モデル量子化(model quantization)は、ディープニューラルネットワーク(dnn)推論を圧縮し、加速するための広く使用されるテクニックである。 すべての層にまたがる均一なビット幅量子化は通常最適であり、異なる層に対するハイブリッド量子化の探索は効率的な深部圧縮に不可欠である。 本稿では,ニューラルネットワークの低ビットハイブリッド量子化を自動実現するためのメタ学習手法を提案する。 MetaQuantNetは量子化関数とともに、ターゲットDNNの量子化重みを生成するために訓練される。 次に,圧縮制約を満たす最適なハイブリッド量子化ポリシーの探索に遺伝的アルゴリズムを適用した。 最良探索量子化ポリシーにより、量子化されたターゲットネットワークの性能をさらに向上させるために、再訓練または微調整を行う。 広範な実験により、探索されたハイブリッド量子化スキームが、一様ビット幅法を上回る性能を示す。 既存の強化学習(RL)ベースのハイブリッド量子化探索手法と比較して,メタ学習アプローチは,MetaQuantNetを一度だけトレーニングする必要があるため,圧縮要求に対してより効率的かつ効果的である。

Model quantization is a widely used technique to compress and accelerate deep neural network (DNN) inference, especially when deploying to edge or IoT devices with limited computation capacity and power consumption budget. The uniform bit width quantization across all the layers is usually sub-optimal and the exploration of hybrid quantization for different layers is vital for efficient deep compression. In this paper, we employ the meta learning method to automatically realize low-bit hybrid quantization of neural networks. A MetaQuantNet, together with a Quantization function, are trained to generate the quantized weights for the target DNN. Then, we apply a genetic algorithm to search the best hybrid quantization policy that meets compression constraints. With the best searched quantization policy, we subsequently retrain or finetune to further improve the performance of the quantized target network. Extensive experiments demonstrate the performance of searched hybrid quantization scheme surpass that of uniform bitwidth counterpart. Compared to the existing reinforcement learning (RL) based hybrid quantization search approach that relies on tedious explorations, our meta learning approach is more efficient and effective for any compression requirements since the MetaQuantNet only needs be trained once.
翻訳日:2022-12-10 02:49:47 公開日:2020-04-24
# 超広視野走査型レーザー眼鏡画像における光学ディスクとfovea局在

Optic disc and fovea localisation in ultra-widefield scanning laser ophthalmoscope images captured in multiple modalities ( http://arxiv.org/abs/2004.11691v1 )

ライセンス: Link先を確認
Peter Robert Wakeford, Enrico Pellegrini, Gavin Robertson, Michael Verhoek, Alan Duncan Fleming, Jano van Hemert and Ik Siong Heng(参考訳) 網膜の超広視野走査型レーザー眼球スコープ(UWFoV-SLO)画像において、光ディスク(OD)とフォベアの中心をローカライズするための畳み込みニューラルネットワークを提案する。 反射光と自動蛍光(AF)モードの両方で撮像された画像と、中央の極と視線が使用された。 この手法は1 od半径で99.4%、foveaローカライズ精度が1 od半径で99.1%のodローカライズ精度を1790画像からなるテストセットで達成した。 AF画像における葉の局在化性能は,人間のアノテータ間の差異に匹敵するものであった。 画像の側方性(画像が左目か右目か)は、OD座標から推定され、卵胞座標は99.9%の精度で推定された。

We propose a convolutional neural network for localising the centres of the optic disc (OD) and fovea in ultra-wide field of view scanning laser ophthalmoscope (UWFoV-SLO) images of the retina. Images captured in both reflectance and autofluorescence (AF) modes, and central pole and eyesteered gazes, were used. The method achieved an OD localisation accuracy of 99.4% within one OD radius, and fovea localisation accuracy of 99.1% within one OD radius on a test set comprising of 1790 images. The performance of fovea localisation in AF images was comparable to the variation between human annotators at this task. The laterality of the image (whether the image is of the left or right eye) was inferred from the OD and fovea coordinates with an accuracy of 99.9%
翻訳日:2022-12-10 02:49:08 公開日:2020-04-24
# ステレオマッチングのためのスパースガイダンスの拡張

Expanding Sparse Guidance for Stereo Matching ( http://arxiv.org/abs/2005.02123v1 )

ライセンス: Link先を確認
Yu-Kai Huang, Yueh-Cheng Liu, Tsung-Han Wu, Hung-Ting Su and Winston H. Hsu(参考訳) 画像に基づくステレオ推定の性能は、照明の変動、繰り返しパターン、均質な外観に悩まされる。 さらに, 良好な性能を実現するためには, 十分な高密度ラベルデータが必要であり, 取得が困難である。 本研究では,このギャップを埋めるために,LiDARの精度の低い小量のデータを活用する。 局所特徴強調のためのRGB画像に関するスパースキューを拡大する新しい空間拡張手法を提案する。 この特徴拡張法は, 試験段階でコスト体積を有する任意のステレオ推定アルゴリズムに容易に適用できる。 ステレオデータセットに関する広範囲な実験は、異なるバックボーン間でのドメイン適応と自己スーパービジョンシナリオの有効性と堅牢性を示している。 提案手法は,kitti stereo 2012における2ピクセル以上の誤差とkitti stereo 2015における3ピクセル誤差の差において,従来の方法よりも優れている。 提案手法は,最先端のステレオアルゴリズムを極めて少ない精度で大幅に向上させる。

The performance of image based stereo estimation suffers from lighting variations, repetitive patterns and homogeneous appearance. Moreover, to achieve good performance, stereo supervision requires sufficient densely-labeled data, which are hard to obtain. In this work, we leverage small amount of data with very sparse but accurate disparity cues from LiDAR to bridge the gap. We propose a novel sparsity expansion technique to expand the sparse cues concerning RGB images for local feature enhancement. The feature enhancement method can be easily applied to any stereo estimation algorithms with cost volume at the test stage. Extensive experiments on stereo datasets demonstrate the effectiveness and robustness across different backbones on domain adaption and self-supervision scenario. Our sparsity expansion method outperforms previous methods in terms of disparity by more than 2 pixel error on KITTI Stereo 2012 and 3 pixel error on KITTI Stereo 2015. Our approach significantly boosts the existing state-of-the-art stereo algorithms with extremely sparse cues.
翻訳日:2022-12-10 02:48:38 公開日:2020-04-24
# タスク指向ダイアログ生成のための事前学習モデル

A Tailored Pre-Training Model for Task-Oriented Dialog Generation ( http://arxiv.org/abs/2004.13835v1 )

ライセンス: Link先を確認
Jing Gu, Qingyang Wu, Chongruo Wu, Weiyan Shi, Zhou Yu(参考訳) 近年,BERT や GPT-2 のような大規模事前学習型言語モデルの成功により,ダウンストリームダイアログ生成タスクに言語事前を組み込むことの有効性が示唆されている。 しかし,対話タスクにおける事前学習モデルの性能は,期待したほど最適ではない。 本稿では,タスク指向対話システムに特化して設計されたPRAL(Pre-trained Role Alternating Language Model)を提案する。 2つの話者を別々にモデル化する(wu et al., 2019)。 また, 開始位置ランダム化, 知識蒸留, 履歴割引などの手法も設計し, 事前学習性能の向上を図っている。 13個の既存のデータセットをクリーニングすることでタスク指向の対話事前学習データセットを導入する。 我々は3つの下流タスクでPRALをテストする。 その結果,PRALは最先端手法と同等以上の性能を示した。

The recent success of large pre-trained language models such as BERT and GPT-2 has suggested the effectiveness of incorporating language priors in downstream dialog generation tasks. However, the performance of pre-trained models on the dialog task is not as optimal as expected. In this paper, we propose a Pre-trained Role Alternating Language model (PRAL), designed specifically for task-oriented conversational systems. We adopted (Wu et al., 2019) that models two speakers separately. We also design several techniques, such as start position randomization, knowledge distillation, and history discount to improve pre-training performance. We introduce a task-oriented dialog pretraining dataset by cleaning 13 existing data sets. We test PRAL on three different downstream tasks. The results show that PRAL performs better or on par with state-of-the-art methods.
翻訳日:2022-12-10 02:48:11 公開日:2020-04-24
# 連続学習のための暗黙のゲーティングメカニズムとしてのドロップアウト

Dropout as an Implicit Gating Mechanism For Continual Learning ( http://arxiv.org/abs/2004.11545v1 )

ライセンス: Link先を確認
Seyed-Iman Mirzadeh, Mehrdad Farajtabar, Hassan Ghasemzadeh(参考訳) 近年、ニューラルネットワークは様々な領域にわたる複雑な学習タスクを実現する優れた能力を示している。 しかし、彼らは一連の学習タスクに直面して、新しいタスクを学ぶときに古いタスクを忘れてしまう場合、"破滅的な忘れる"問題に苦しむ。 この問題は「安定性・塑性ジレンマ」とも関係している。 ネットワークのプラスティック化が進むほど、新しいタスクを学習しやすくなるが、それ以前のタスクも忘れてしまう。 逆に、安定したネットワークは、非常にプラスティックなネットワークほど速く新しいタスクを学習することはできない。 しかし、前回のタスクから学んだ知識を保存しておく方がより信頼性が高い。 ニューラルネットワークパラメータをより安定させることで、忘れる問題を克服するために、いくつかのソリューションが提案されている。 しかし、その関係はまだ十分に研究されていない。 本稿では,この関係を調査し,ドロップアウトのある安定したネットワークが,異なるタスクにおいてネットワークの異なる経路がアクティブとなるようなゲーティング機構を学習することを示す。 我々の実験は、この暗黙のゲーティングによって達成される安定性が、破滅的な忘れを克服するために、他の関連する継続的な学習アルゴリズムに匹敵するパフォーマンスをもたらす上で、非常に重要な役割を担っていることを示している。

In recent years, neural networks have demonstrated an outstanding ability to achieve complex learning tasks across various domains. However, they suffer from the "catastrophic forgetting" problem when they face a sequence of learning tasks, where they forget the old ones as they learn new tasks. This problem is also highly related to the "stability-plasticity dilemma". The more plastic the network, the easier it can learn new tasks, but the faster it also forgets previous ones. Conversely, a stable network cannot learn new tasks as fast as a very plastic network. However, it is more reliable to preserve the knowledge it has learned from the previous tasks. Several solutions have been proposed to overcome the forgetting problem by making the neural network parameters more stable, and some of them have mentioned the significance of dropout in continual learning. However, their relationship has not been sufficiently studied yet. In this paper, we investigate this relationship and show that a stable network with dropout learns a gating mechanism such that for different tasks, different paths of the network are active. Our experiments show that the stability achieved by this implicit gating plays a very critical role in leading to performance comparable to or better than other involved continual learning algorithms to overcome catastrophic forgetting.
翻訳日:2022-12-10 02:41:50 公開日:2020-04-24
# 学習データと事前知識による象徴的回帰

Symbolic Regression Driven by Training Data and Prior Knowledge ( http://arxiv.org/abs/2004.11947v1 )

ライセンス: Link先を確認
J. Kubal\'ik, E. Derner, R. Babu\v{s}ka(参考訳) 記号回帰では、解析モデルの探索は、トレーニングデータサンプルで観測された予測誤差によって純粋に駆動される。 しかし、データサンプルが入力空間を十分にカバーしていない場合、予測誤差は所望のモデルに対する十分なガイダンスを提供しない。 標準的な記号回帰手法は、例えば定常特性や局所挙動の観点から、部分的に不正確なモデルを生成する。 これらの特性が探索プロセス中に既に考慮されていた場合、より正確で関連するモデルが作成できる。 本稿では,訓練データと望ましいモデルが示すべき特性の事前知識の両方によって駆動される多目的記号回帰手法を提案する。 形式的制約の形で与えられる特性は、候補モデルが正確にチェックされる離散データサンプルのセットによって内部的に表現される。 提案手法は, 3つのテスト問題に対して実験的に評価され, 同時に, 所望のモデル特性の事前知識に従いながら, 学習データに適合する現実的なモデルを進化させる能力を示す。 これは基準モデルからの平均二乗偏差の観点で、標準記号回帰を数桁も上回っている。

In symbolic regression, the search for analytic models is typically driven purely by the prediction error observed on the training data samples. However, when the data samples do not sufficiently cover the input space, the prediction error does not provide sufficient guidance toward desired models. Standard symbolic regression techniques then yield models that are partially incorrect, for instance, in terms of their steady-state characteristics or local behavior. If these properties were considered already during the search process, more accurate and relevant models could be produced. We propose a multi-objective symbolic regression approach that is driven by both the training data and the prior knowledge of the properties the desired model should manifest. The properties given in the form of formal constraints are internally represented by a set of discrete data samples on which candidate models are exactly checked. The proposed approach was experimentally evaluated on three test problems with results clearly demonstrating its capability to evolve realistic models that fit the training data well while complying with the prior knowledge of the desired model characteristics at the same time. It outperforms standard symbolic regression by several orders of magnitude in terms of the mean squared deviation from a reference model.
翻訳日:2022-12-10 02:41:28 公開日:2020-04-24
# 連続領域におけるより良いサンプリングのための分散化

Variance Reduction for Better Sampling in Continuous Domains ( http://arxiv.org/abs/2004.11687v1 )

ライセンス: Link先を確認
Laurent Meunier, Carola Doerr, Jeremy Rapin, Olivier Teytaud(参考訳) 実験の設計、ランダム探索、集団に基づく手法の初期化、または進化アルゴリズムのエポック内でのサンプリングは、最適な位置を近似する確率分布に従って描画されたサンプルを使用する。 近年の研究では, サンプリングに用いる最適探索分布は, 最適位置に関する不確かさをモデル化した先行分布よりも, 分布中心付近でピークとなる可能性が示唆されている。 このステートメントを確認し、人口サイズ$\lambda$ と次元 $d$ に依存する探索分布のこの再構成の明示的な値を提供し、実験的に結果を検証する。

Design of experiments, random search, initialization of population-based methods, or sampling inside an epoch of an evolutionary algorithm use a sample drawn according to some probability distribution for approximating the location of an optimum. Recent papers have shown that the optimal search distribution, used for the sampling, might be more peaked around the center of the distribution than the prior distribution modelling our uncertainty about the location of the optimum. We confirm this statement, provide explicit values for this reshaping of the search distribution depending on the population size $\lambda$ and the dimension $d$, and validate our results experimentally.
翻訳日:2022-12-10 02:41:11 公開日:2020-04-24
# スパースニューラルネットワークの計算:将来のハードウェアへのインスピレーション

Computation on Sparse Neural Networks: an Inspiration for Future Hardware ( http://arxiv.org/abs/2004.11946v1 )

ライセンス: Link先を確認
Fei Sun, Minghai Qin, Tianyun Zhang, Liu Liu, Yen-Kuang Chen, Yuan Xie(参考訳) ニューラルネットワークモデルは、コンピュータビジョン、パーソナライズドレコメンデーション、自然言語処理など、多くの難しい問題を解決するために広く使われている。 これらのモデルは非常に計算集約的で、既存のサーバとIoTデバイスのハードウェア限界に達しています。 したがって、精度を最大に保ったまま、計算量を大幅に削減したより良いモデルアーキテクチャを見つけることは、一般的な研究トピックである。 計算の複雑さを減らすための様々なメカニズムのうち、モデル重みとアクティベーションのゼロ値を特定してそれらを計算するのを避けることは、有望な方向である。 本稿では,スパースアルゴリズム,ソフトウェアフレームワーク,ハードウェアアクセラレーションの観点から,スパースニューラルネットワークの計算に関する研究の現状を概説する。 我々は,スパース構造の探索が,高効率モデル実行戦略に加えて,高品質モデル探索の一般的な方法論であることを示す。 本稿では,重みパラメータの数とモデル構造に影響されるモデルの精度について論じる。 対応するモデルは、それぞれ重み支配領域と構造支配領域に配置される。 実際の複雑な問題に対して,重み支配領域において大規模でスパースなモデルを探索することがより有用であることを示す。 目的を達成するためには、適切なスパース構造を探すための新しいアプローチが必要であり、スパースモデルの高速イテレーションを容易にするために新しいスパーストレーニングハードウェアを開発する必要がある。

Neural network models are widely used in solving many challenging problems, such as computer vision, personalized recommendation, and natural language processing. Those models are very computationally intensive and reach the hardware limit of the existing server and IoT devices. Thus, finding better model architectures with much less amount of computation while maximally preserving the accuracy is a popular research topic. Among various mechanisms that aim to reduce the computation complexity, identifying the zero values in the model weights and in the activations to avoid computing them is a promising direction. In this paper, we summarize the current status of the research on the computation of sparse neural networks, from the perspective of the sparse algorithms, the software frameworks, and the hardware accelerations. We observe that the search for the sparse structure can be a general methodology for high-quality model explorations, in addition to a strategy for high-efficiency model execution. We discuss the model accuracy influenced by the number of weight parameters and the structure of the model. The corresponding models are called to be located in the weight dominated and structure dominated regions, respectively. We show that for practically complicated problems, it is more beneficial to search large and sparse models in the weight dominated region. In order to achieve the goal, new approaches are required to search for proper sparse structures, and new sparse training hardware needs to be developed to facilitate fast iterations of sparse models.
翻訳日:2022-12-10 02:40:50 公開日:2020-04-24
# 画像分類器におけるバックドアデータ中毒攻撃の体系的評価

Systematic Evaluation of Backdoor Data Poisoning Attacks on Image Classifiers ( http://arxiv.org/abs/2004.11514v1 )

ライセンス: Link先を確認
Loc Truong, Chace Jones, Brian Hutchinson, Andrew August, Brenda Praggastis, Robert Jasper, Nicole Nichols, Aaron Tuor(参考訳) バックドアデータ中毒攻撃は、機械学習(ML)システムの潜在的な安全性リスクとして、コンピュータビジョン研究で最近実証されている。 従来のデータ中毒攻撃は、トレーニングデータを操作してMLモデルの信頼性を損なう一方、バックドアデータ中毒攻撃は、MLモデルに敵に有利な所定の応答を提供する「トリガー」を組み込んだ入力がなければシステム性能を維持する。 我々の研究は,ML画像分類器を対象とした事前のバックドアデータ収集研究に基づいて,トリガパターンの種類,リトレーニング中のトリガパターンの持続性,毒性戦略,アーキテクチャ(ResNet-50,NasNet,NasNet-Mobile),データセット(Flowers,CIFAR-10),潜在的な防御正則化技術(Contrastive Loss,Logit Squeezing,Manifold Mixup,Soft-Nearest-Neighbors Loss)など,さまざまな実験条件を体系的に評価する。 実験は4つの重要な結果をもたらす。 まず, モデルアーキテクチャ, トリガーパターン, 正規化技術など, 様々な要因により, バックドア毒殺攻撃の成功率は様々である。 第2に,有毒なモデルでは,パフォーマンス検査だけでは検出が困難であることが分かりました。 第3に、レギュラー化は一般的にバックドアの成功率を低下させるが、レギュラー化の形式によって効果もわずかに増加することもある。 最後に、データ中毒によって挿入されたバックドアは、モデルの性能に影響を与えることなく、少数のクリーンなデータに対して追加のトレーニングを行った後、効果を発揮できない。

Backdoor data poisoning attacks have recently been demonstrated in computer vision research as a potential safety risk for machine learning (ML) systems. Traditional data poisoning attacks manipulate training data to induce unreliability of an ML model, whereas backdoor data poisoning attacks maintain system performance unless the ML model is presented with an input containing an embedded "trigger" that provides a predetermined response advantageous to the adversary. Our work builds upon prior backdoor data-poisoning research for ML image classifiers and systematically assesses different experimental conditions including types of trigger patterns, persistence of trigger patterns during retraining, poisoning strategies, architectures (ResNet-50, NasNet, NasNet-Mobile), datasets (Flowers, CIFAR-10), and potential defensive regularization techniques (Contrastive Loss, Logit Squeezing, Manifold Mixup, Soft-Nearest-Neighbors Loss). Experiments yield four key findings. First, the success rate of backdoor poisoning attacks varies widely, depending on several factors, including model architecture, trigger pattern and regularization technique. Second, we find that poisoned models are hard to detect through performance inspection alone. Third, regularization typically reduces backdoor success rate, although it can have no effect or even slightly increase it, depending on the form of regularization. Finally, backdoors inserted through data poisoning can be rendered ineffective after just a few epochs of additional training on a small set of clean data without affecting the model's performance.
翻訳日:2022-12-10 02:40:27 公開日:2020-04-24
# gcan:ソーシャルメディア上での偽ニュース検出のためのグラフ認識コアテンションネットワーク

GCAN: Graph-aware Co-Attention Networks for Explainable Fake News Detection on Social Media ( http://arxiv.org/abs/2004.11648v1 )

ライセンス: Link先を確認
Yi-Ju Lu and Cheng-Te Li(参考訳) 本稿では,偽ニュースの検出問題をソーシャルメディア上でより現実的なシナリオで解決する。 原文の短文ツイートと、テキストコメントのないリツイートユーザのシーケンスを考えると、原文のツイートが偽であるか否かを予測し、疑わしいリツイート者とそれらが懸念する単語のエビデンスをハイライトすることで説明を生成する。 本稿では,新しいニューラルネットワークモデルであるgraph-aware co-attention networks(gcan)を開発した。 実ツイートデータセットで実施された大規模な実験により、GCANは平均して16%の精度で最先端の手法を大幅に上回ることができることが示された。 加えて、ケーススタディはgcanが合理的な説明を生み出すことも示している。

This paper solves the fake news detection problem under a more realistic scenario on social media. Given the source short-text tweet and the corresponding sequence of retweet users without text comments, we aim at predicting whether the source tweet is fake or not, and generating explanation by highlighting the evidences on suspicious retweeters and the words they concern. We develop a novel neural network-based model, Graph-aware Co-Attention Networks (GCAN), to achieve the goal. Extensive experiments conducted on real tweet datasets exhibit that GCAN can significantly outperform state-of-the-art methods by 16% in accuracy on average. In addition, the case studies also show that GCAN can produce reasonable explanations.
翻訳日:2022-12-10 02:39:53 公開日:2020-04-24
# BERTを用いた言語間情報検索

Cross-lingual Information Retrieval with BERT ( http://arxiv.org/abs/2004.13005v1 )

ライセンス: Link先を確認
Zhuolin Jiang, Amro El-Jaroudi, William Hartmann, Damianos Karakos, Lingjun Zhao(参考訳) 最近、BERTやXLNetといった複数のニューラルネットワークモデルが開発され、文分類、質問応答、文書ランキングなど、様々なNLPタスクにおいて顕著な成果を上げている。 本稿では,言語間情報検索のタスクにおいて,一般的な双方向言語モデルであるBERTを用いて,英語クエリと外国語文書の関係をモデル化し,学習する。 並列コーパスから派生した自家製のCLIRトレーニングデータを用いて,事前学習した多言語BERTモデルを弱監督下で微調整することにより,BERTに基づく深い関係マッチングモデルを導入・訓練する。 リトアニア語文書を短文クエリに対して検索した結果,本モデルの有効性が示され,競合ベースラインアプローチよりも優れていた。

Multiple neural language models have been developed recently, e.g., BERT and XLNet, and achieved impressive results in various NLP tasks including sentence classification, question answering and document ranking. In this paper, we explore the use of the popular bidirectional language model, BERT, to model and learn the relevance between English queries and foreign-language documents in the task of cross-lingual information retrieval. A deep relevance matching model based on BERT is introduced and trained by finetuning a pretrained multilingual BERT model with weak supervision, using home-made CLIR training data derived from parallel corpora. Experimental results of the retrieval of Lithuanian documents against short English queries show that our model is effective and outperforms the competitive baseline approaches.
翻訳日:2022-12-10 02:39:22 公開日:2020-04-24
# 微調整ってどんな感じ? 効率的な言語モデル学習

How fine can fine-tuning be? Learning efficient language models ( http://arxiv.org/abs/2004.14129v1 )

ライセンス: Link先を確認
Evani Radiya-Dixit and Xin Wang(参考訳) 言語理解タスクにおける最先端のパフォーマンスは、今やますます大きなネットワークで達成されている。 大量のラベルのないテキストコーパスで事前学習された言語モデルを考えると、タスクを学ぶには、非常に軽い教師付き微調整のみが必要である: 微調整ステップの数は、通常、合計パラメータ数より5桁低い。 これは、微調整がパラメータ空間の事前学習モデルと小さな違いをもたらすということなのだろうか? もしそうなら、各タスクのモデル全体の保存と計算を回避できますか? 本稿では,変換器からの双方向エンコーダ表現(BERT)を例として用いて,これらの問題に対処する。 予想通り、微調整されたモデルが事前訓練されたモデルに近いパラメータ空間であり、その密接度は層ごとに異なる。 最重要層のみを微調整することは十分である。 さらに、トレーニング済みモデルのスパース化バージョンには、驚くほど多くの優れたソリューションがあることが分かりました。 結果として、事前学習されたパラメータの特定のレイヤの特定の数のエントリをゼロに設定するだけで、タスク固有のパラメータストレージと計算コストの両方を節約して、巨大な言語モデルの微調整が可能になる。

State-of-the-art performance on language understanding tasks is now achieved with increasingly large networks; the current record holder has billions of parameters. Given a language model pre-trained on massive unlabeled text corpora, only very light supervised fine-tuning is needed to learn a task: the number of fine-tuning steps is typically five orders of magnitude lower than the total parameter count. Does this mean that fine-tuning only introduces small differences from the pre-trained model in the parameter space? If so, can one avoid storing and computing an entire model for each task? In this work, we address these questions by using Bidirectional Encoder Representations from Transformers (BERT) as an example. As expected, we find that the fine-tuned models are close in parameter space to the pre-trained one, with the closeness varying from layer to layer. We show that it suffices to fine-tune only the most critical layers. Further, we find that there are surprisingly many good solutions in the set of sparsified versions of the pre-trained model. As a result, fine-tuning of huge language models can be achieved by simply setting a certain number of entries in certain layers of the pre-trained parameters to zero, saving both task-specific parameter storage and computational cost.
翻訳日:2022-12-10 02:39:08 公開日:2020-04-24