このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200906となっている論文です。

PDF登録状況(公開日: 20200906)

TitleAuthorsAbstract論文公表日・翻訳日
# 一次元フロケトポロジカル絶縁体における時結晶相と周期拡散振動の普遍的存在

Universal presence of time-crystalline phases and period-doubling oscillations in one-dimensional Floquet topological insulators ( http://arxiv.org/abs/2005.05082v2 )

ライセンス: Link先を確認
Yiming Pan, Bing Wang(参考訳) 本研究では,一次元周期駆動系における位相フロッケ時間結晶(tftc)の普遍的存在を報告した。 我々のモデルにおける自発的離散時間変換対称性(DTS)の破れの剛性と実現には、異常な位相不変量(0モードと$\pi$モード)が、障害や多体局在の存在の代わりに必然的に共存する必要がある。 基礎となる駆動の特定の周波数範囲において、ゼロモードとπモードの異常なフロケット位相共存は、自発的に発振する周期共振(2T, 2サイクルの駆動)を発生させ、低調波応答(\omega/2$, half the drive frequency)をもたらすことが判明した。 剛周期振動は、準エネルギースペクトルにおける0の非自明な開度と$\pi$-ギャップの両方による摂動に対して位相的に保護され、その結果、ある準エネルギー分割が$\pi/T$である2つのフレケット固有状態の間の特定の「ラビ振動」と見なされる。 時間結晶的な「基底状態」のモデリングは、トポロジカルフォトニクスや超低温場のような実験プラットフォームで容易に実現できる。 また,Floquet系における位相相転移の探索や,Floquet型トポロジカル絶縁体とフォトニクス,周期倍の時間結晶とのギャップの埋め合わせにも大きな関心が寄せられている。

In this work, we reported a ubiquitous presence of topological Floquet time crystal (TFTC) in one-dimensional periodically-driven systems. The rigidity and realization of spontaneous discrete time-translation symmetry (DTS) breaking in our model require necessarily coexistence of anomalous topological invariants (0 modes and $\pi$ modes), instead of the presence of disorders or many-body localization. We found that in a particular frequency range of the underlying drive, the anomalous Floquet phase coexistence between zero and pi modes can produce the period-doubling (2T, two cycles of the drive) that breaks the spontaneously, leading to the subharmonic response ($\omega/2$, half the drive frequency). The rigid period-oscillation is topologically-protected against perturbations due to both non-trivially opening of 0 and $\pi$-gaps in the quasienergy spectrum, thus, as a result, can be viewed as a specific "Rabi oscillation" between two Floquet eigenstates with certain quasienergy splitting $\pi/T$. Our modeling of the time-crystalline 'ground state' can be easily realized in experimental platforms such as topological photonics and ultracold fields. Also, our work can bring significant interests to explore topological phase transition in Floquet systems and to bridge the gap between Floquet topological insulators and photonics, and period-doubled time crystals.
翻訳日:2023-05-20 19:58:07 公開日:2020-09-06
# 1979年から2019年までの2世代におけるIMDbデータ : その1 データセットの導入と予備分析

IMDb data from Two Generations, from 1979 to 2019; Part one, Dataset Introduction and Preliminary Analysis ( http://arxiv.org/abs/2005.14147v3 )

ライセンス: Link先を確認
M. Bahraminasr, A. Vafaei Sadr(参考訳) ユーザ規制としての「IMDb」と、最も訪問者の多いポータルは、巨大なデータベースを作成する機会を提供している。 Internet Movie Database - IMDbの情報の分析では、映画に関連するもの、あるいはユーザーが提供したもののいずれかが、各映画の成功経路の決定的要因を明らかにするのに役立つ。 総合的なデータセットの欠如を感じ、統計的手法と機械学習モデルを用いて、後の分析のための補足的データセットを作成することを決定した。この日までに最大のデータセットである79万タイトルに対して、評価データ、ジャンル、キャストとクルー、MPAA評価証明書、親のガイドの詳細、関連する映画情報、ポスターなど、IMDbに提供される様々な情報からなる。 本論文は、作成したデータセットの記述と、データの動向、IMDbスコアの人口統計分析、ジャンルMPAA評価証明書との関係などを含む予備分析により、上記の目標を達成するための一連の論文の最初のものである。

"IMDb" as a user-regulating and one the most-visited portal has provided an opportunity to create an enormous database. Analysis of the information on Internet Movie Database - IMDb, either those related to the movie or provided by users would help to reveal the determinative factors in the route of success for each movie. As the lack of a comprehensive dataset was felt, we determined to do create a compendious dataset for the later analysis using the statistical methods and machine learning models; It comprises of various information provided on IMDb such as rating data, genre, cast and crew, MPAA rating certificate, parental guide details, related movie information, posters, etc, for over 79k titles which is the largest dataset by this date. The present paper is the first paper in a series of papers aiming at the mentioned goals, by a description of the created dataset and a preliminary analysis including some trend in data, demographic analysis of IMDb scores and their relation of genre MPAA rating certificate has been investigated.
翻訳日:2023-05-18 02:51:29 公開日:2020-09-06
# スパイラル形量子導波路のスペクトル特性

Spectral properties of spiral-shaped quantum waveguides ( http://arxiv.org/abs/2009.02730v1 )

ライセンス: Link先を確認
Pavel Exner and Milos Tater(参考訳) 硬壁スパイラル状領域に閉じ込められた粒子の特性について検討した。 ケーススタディとして,連続しきい値以上のスペクトルがしきい値から絶対的に連続しているアルキメデス渦巻を詳細に分析した。 しかし、半径幅と垂直幅の微妙な違いは、「曲がらない」導波路とは対照的に、この場合離散スペクトルは空であることを意味する。 また、マルチアームアルキメデス渦巻きや、中心空洞を持つ渦巻き導波路などの修正についても論じるが、後者の場合、空洞が臨界サイズを超えた場合、既に境界状態が存在する。 より一般的なスパイラル領域では、スペクトルの性質は 'expanding' か 'shrinking' かに依存する。 最も興味深い状況は、有界状態の存在が漸近状態に到達する方向に依存する漸近的アルキメデスの場合である。

We investigate properties of a particle confined to a hard-wall spiral-shaped region. As a case study we analyze in detail the Archimedean spiral for which the spectrum above the continuum threshold is absolutely continuous away from the thresholds. The subtle difference between the radial and perpendicular width implies, however, that in contrast to `less curved' waveguides, the discrete spectrum is empty in this case. We also discuss modifications such a multi-arm Archimedean spirals and spiral waveguides with a central cavity; in the latter case bound state already exist if the cavity exceeds a critical size. For more general spiral regions the spectral nature depends on whether they are `expanding' or `shrinking'. The most interesting situation occurs in the asymptotically Archimedean case where the existence of bound states depends on the direction from which the asymptotics is reached.
翻訳日:2023-05-03 11:30:12 公開日:2020-09-06
# 周期的に相互作用する量子ビットを持つ時間分子

Time molecules with periodically driven interacting qubits ( http://arxiv.org/abs/2009.02722v1 )

ライセンス: Link先を確認
K. V. Shulga, I. Vakulchyk, Y. Nakamura, S. Flach, and M. V. Fistul(参考訳) 時間分子(TM)の時間的量子力学的干渉現象の数値的証拠を提供する。 そのような分光状態の様々な状態は、周期$T$と周期$\pi$-pulsesの周期列を受ける2つの相互作用量子ビットの力学において観察される。 TMは周期的に出現し、長い期間は$\delta t_\mathrm{TM} \gg T$である。 すべてのtmsは、全分極のほぼゼロの値を示し、対応するベル状態の最大値$s=\ln 2$までエントロピー$s$の強い強化を示す。 TMはFloquet固有値のコンメンサビリティと最大絡み合ったFloquet固有状態の存在によって生成される。 tmはデチューニングされたシステムパラメータとキュービット数の増加で安定である。 TMは超伝導量子ビットの配列によるマイクロ波実験で観測できる。

We provide numerical evidence for a temporal quantum-mechanical interference phenomenon: time molecules (TM). A variety of such stroboscopic states are observed in the dynamics of two interacting qubits subject to a periodic sequence of $\pi$-pulses with the period $T$. The TMs appear periodically in time and have a large duration, $\delta t_\mathrm{TM} \gg T$. All TMs demonstrate an almost zero value of the total polarization and a strong enhancement of the entanglement entropy $S$ up to the maximum value $S=\ln 2$ of a corresponding Bell state. The TMs are generated by the commensurability of the Floquet eigenvalues and the presence of maximally entangled Floquet eigenstates. The TMs remain stable with detuned system parameters and with an increased number of qubits. The TMs can be observed in microwave experiments with an array of superconducting qubits.
翻訳日:2023-05-03 11:29:57 公開日:2020-09-06
# フォン・ノイマンの隠れ変数定理

Von Neumann's No Hidden Variable Theorem ( http://arxiv.org/abs/2009.02683v1 )

ライセンス: Link先を確認
Michael Revzen(参考訳) フォン・ノイマンは、ヒルベルト空間(HS)の量子力学(QM)の定式化を導くために、4つの仮定を用いる。 この理論では、分散自由アンサンブルは存在しない。 分散自由アンサンブルを許容する量子力学の理論に適合するためには、いくつかの仮定を変更する必要がある。 既存の QM の定式化、位相空間 (PS) の定式化は分散自由アンサンブルを許容し、したがって隠れ変数理論として定式化される。 PS理論の中では、違反した仮定(テキストではI)を、$\mathbb{R}$ の値 r が$f(\mathbb{R})$ の値 f(r) を意味することを要求するものと特定する。 この違反は、hs理論に関連する作用素順序の c-数隠れ変数理論内の追跡によって生じ、理論間の1-1対応に必要となる。

Von Neumann use 4 assumptions to derive the Hilbert space (HS) formulation of quantum mechanics (QM). Within this theory dispersion free ensembles do not exist. To accommodate a theory of quantum mechanics that allow dispersion free ensemble some of the assumptions need be modified. An existing formulation of QM, the phase space (PS) formulation allow dispersion free ensembles and thus is qualifies as an hidden variable theory. Within the PS theory we identify the violated assumption (dubbed I in the text) to be the one that requires that the value r for the quantity $\mathbb{R}$ implies the value f(r) for the quantity $f(\mathbb{R})$. We note that this violation arise due to tracking within c-number hidden variable theory of the operator ordering involved in HS theory as is required for a 1-1 correspondence between the theories.
翻訳日:2023-05-03 11:29:21 公開日:2020-09-06
# IVACS: コロナウイルス(COVID-19)自己診断のためのインテリジェント音声アシスタント

IVACS: Intelligent Voice Assistant for Coronavirus Disease (COVID-19) Self-Assessment ( http://arxiv.org/abs/2009.02673v1 )

ライセンス: Link先を確認
Parashar Dhakal, Praveen Damacharla, Ahmad Y. Javaid, Hari K. Vege and Vijay K. Devabhaktuni(参考訳) この論文の執筆時点では、重症急性呼吸器症候群(SARS-COV-2)として知られる新型コロナウイルスの感染者は約1100万人である。 様々な医療機関が、この伝染病の拡散を予防するための重要なステップの1つは、症状の自己評価である。 複数の企業がすでに、新型コロナウイルスの自己診断のためのモバイルおよびWebベースのアプリケーションを開拓し、この世界的なパンデミックの広がりを減らしている。 新型コロナウイルス自己診断(IVACS)のためのインテリジェント音声ベースアシスタントを提案する。 このインタラクティブアシスタントは、CDC(Centers for Disease Control and Prevention)とWHO(World Health Organization)のガイドラインを用いて、新型コロナウイルス関連の症状を診断するために構築されている。 このアプリケーションの実証試験は、nasa task load index (tlx) を用いて、22人の被験者、すべてのボランティアで行われ、被験者のパフォーマンス精度が測定されている。 その結果,IVACSはユーザにとって有益であることが示唆された。 しかし、その普及を促進するにはさらなる研究と開発が必要である。

At the time of writing this paper, the world has around eleven million cases of COVID-19, scientifically known as severe acute respiratory syndrome corona-virus 2 (SARS-COV-2). One of the popular critical steps various health organizations are advocating to prevent the spread of this contagious disease is self-assessment of symptoms. Multiple organizations have already pioneered mobile and web-based applications for self-assessment of COVID-19 to reduce this global pandemic's spread. We propose an intelligent voice-based assistant for COVID-19 self-assessment (IVACS). This interactive assistant has been built to diagnose the symptoms related to COVID-19 using the guidelines provided by the Centers for Disease Control and Prevention (CDC) and the World Health Organization (WHO). The empirical testing of the application has been performed with 22 human subjects, all volunteers, using the NASA Task Load Index (TLX), and subjects performance accuracy has been measured. The results indicate that the IVACS is beneficial to users. However, it still needs additional research and development to promote its widespread application.
翻訳日:2023-05-03 11:29:02 公開日:2020-09-06
# 二重結合マッハ・ツェンダー干渉計を用いた位相雑音免疫無条件古典鍵分布

Phase noise-immune unconditionally secured classical key distribution using doubly coupled Mach-Zehnder interferometer ( http://arxiv.org/abs/2009.02665v1 )

ライセンス: Link先を確認
Byoung S. Ham(参考訳) 近年、二重マッハ・ツェンダー干渉計のフレーム内の古典鍵分布(USCKD)における非条件セキュリティのための新しい物理学が提案され、量子鍵分布プロトコルの非閉鎖定理の影響を受けない原理の証明として実証されている。 温度変動, 大気乱流, 機械的振動などによる環境相の変動により, USCKDの2チャネル伝送配置にはアクティブフェーズロックが必要であると考えられる。 ここで、USCKDの2チャンネルレイアウトは、特に自由空間光リンクのための環境ノイズ免疫プロトコルであり、ランダム位相ノイズを考慮した場合、伝送距離は潜在的に無制限であることを示す。

Recently, new physics for unconditional security in a classical key distribution (USCKD) in a frame of a double Mach-Zehnder interferometer has been proposed and demonstrated as a proof of principle, where the unconditional security is unaffected by the no-cloning theorem of quantum key distribution protocols. Due to environmental phase fluctuations caused by temperature variations, atmospheric turbulences, or mechanical vibrations, active phase locking seems to be necessary for the two-channel transmission layout of USCKD. Here, the two-channel layout of USCKD is demonstrated to be an environmental noise-immune protocol especially for free space optical links, where the transmission distance is potentially unlimited if random phase noises are considered.
翻訳日:2023-05-03 11:28:45 公開日:2020-09-06
# SilkViser:ブロックチェーンベースの暗号トランザクションデータのビジュアルエクスプローラ

SilkViser:A Visual Explorer of Blockchain-based Cryptocurrency Transaction Data ( http://arxiv.org/abs/2009.02651v1 )

ライセンス: Link先を確認
Zengsheng Zhong, Shuirun Wei, Yeting Xu, Ying Zhao, Fangfang Zhou, Feng Luo, and Ronghua Shi(参考訳) 多くのブロックチェーンベースの暗号通貨は、オンライントランザクションデータを見るためのオンラインブロックチェーンエクスプローラーを提供する。 しかし、従来のブロックチェーンエクスプローラは、主にテキストと表形式でトランザクション情報を提示する。 このような形式は、初心者(NUsers)にとって暗号通貨取引機構の理解を困難にしている。 経験豊富なユーザ(ユーザ)にとって、高度なトランザクション情報を認識するには不十分な情報である。 本稿では、silkviserと呼ばれる新しいオンライン暗号通貨取引データ閲覧ツールを紹介する。 詳細なシナリオと要件分析を導いた上で,紙台帳にインスパイアされたブロックやブロックチェーンの可視化や,古代銅貨にインスパイアされたトランザクションの可視化など,一連の可視化設計を行い,ユーザが暗号通貨のトランザクションメカニズムを理解し,高度なトランザクション情報を認識するのを支援する。 また、簡単で自由なデータ探索を容易にする軽量なインタラクションセットも提供しています。 また,silkviserのユーザビリティと有効性を定量的に評価するために,ユーザ調査を行った。 結果は、SilkViserがNUsersとEUserの要件を満たすことができることを示している。 われわれの視覚化デザインは、データ閲覧におけるヌーサーの未熟さを補い、潜在的なユーザーを惹きつけ、暗号通貨取引に参加することができる。

Many blockchain-based cryptocurrencies provide users with online blockchain explorers for viewing online transaction data. However, traditional blockchain explorers mostly present transaction information in textual and tabular forms. Such forms make understanding cryptocurrency transaction mechanisms difficult for novice users (NUsers). They are also insufficiently informative for experienced users (EUsers) to recognize advanced transaction information. This study introduces a new online cryptocurrency transaction data viewing tool called SilkViser. Guided by detailed scenario and requirement analyses, we create a series of appreciating visualization designs, such as paper ledger-inspired block and blockchain visualizations and ancient copper coin-inspired transaction visualizations, to help users understand cryptocurrency transaction mechanisms and recognize advanced transaction information. We also provide a set of lightweight interactions to facilitate easy and free data exploration. Moreover, a controlled user study is conducted to quantitatively evaluate the usability and effectiveness of SilkViser. Results indicate that SilkViser can satisfy the requirements of NUsers and EUsers. Our visualization designs can compensate for the inexperience of NUsers in data viewing and attract potential users to participate in cryptocurrency transactions.
翻訳日:2023-05-03 11:28:30 公開日:2020-09-06
# 超ラジアント相転移臨界点での完全固有スクイーズ

Perfect Intrinsic Squeezing at the Superradiant Phase Transition Critical Point ( http://arxiv.org/abs/2009.02630v1 )

ライセンス: Link先を確認
Kenji Hayashida, Takuma Makihara, Nicolas Marquez Peraca, Diego Fallas Padilla, Han Pu, Junichiro Kono, and Motoaki Bamba(参考訳) ディックモデルにより記述された光子-マター結合系の基底状態は、超ラジカル相転移(SRPT)の量子臨界点において完全に圧縮される。 対向回転光子-原子カップリングの存在下では、基底状態は光子と原子集合励起に基づいて2モード圧縮真空として解析的に表される。 2モード基底における量子揺らぎの分散は、共役揺らぎが発散するsrpt臨界点において消滅し、理想的にはハイゼンベルクの不確実性原理を満たす。

The ground state of the photon-matter coupled system described by the Dicke model is found to be perfectly squeezed at the quantum critical point of the superradiant phase transition (SRPT). In the presence of the counter-rotating photon-atom coupling, the ground state is analytically expressed as a two-mode squeezed vacuum in the basis of photons and atomic collective excitations. The variance of a quantum fluctuation in the two-mode basis vanishes at the SRPT critical point, with its conjugate fluctuation diverging, ideally satisfying the Heisenberg uncertainty principle.
翻訳日:2023-05-03 11:28:12 公開日:2020-09-06
# 差異プライバシのデプロイ時のランダム性

Randomness Concerns When Deploying Differential Privacy ( http://arxiv.org/abs/2009.03777v1 )

ライセンス: Link先を確認
Simson L. Garfinkel and Philip Leclerc(参考訳) 米国国勢調査局は、2020年12月の人口・住宅国勢調査で収集された機密応答データを保護するために、差分プライバシー(DP)を使用している。 国勢調査局のDPシステムは開示回避システム(DAS)に実装されており、乱数源を必要とする。 2020年の国勢調査では、人や家庭のテーブルを保護するために、およそ90TBのランダムバイトが必要になると見積もっている。 暗号とdpには重大な違いがあるが、ランダム性に対する同様の要件がある。 von neumann の " middle-square" 法、mersenne twister (mt19937) (前はデフォルトのnumpy 乱数生成器であり、プロダクションプライバシ保存システムでは受け入れられない)、linux /dev/urandom デバイスなど、決定論的コンピュータにおける乱数生成の歴史を概観する。 また、いわゆる"Lava Lamps"やIntel Secure Key RDRAND命令など、ハードウェアの乱数生成方式についても検討する。 最終的に、/dev/urandom と Intel Secure Key RDSEED 命令のビットを混合した AES-CTR-DRBG を用いて、Amazon Web Services (AWS) 環境でランダムビットを生成する計画を提示しました。

The U.S. Census Bureau is using differential privacy (DP) to protect confidential respondent data collected for the 2020 Decennial Census of Population & Housing. The Census Bureau's DP system is implemented in the Disclosure Avoidance System (DAS) and requires a source of random numbers. We estimate that the 2020 Census will require roughly 90TB of random bytes to protect the person and household tables. Although there are critical differences between cryptography and DP, they have similar requirements for randomness. We review the history of random number generation on deterministic computers, including von Neumann's "middle-square" method, Mersenne Twister (MT19937) (previously the default NumPy random number generator, which we conclude is unacceptable for use in production privacy-preserving systems), and the Linux /dev/urandom device. We also review hardware random number generator schemes, including the use of so-called "Lava Lamps" and the Intel Secure Key RDRAND instruction. We finally present our plan for generating random bits in the Amazon Web Services (AWS) environment using AES-CTR-DRBG seeded by mixing bits from /dev/urandom and the Intel Secure Key RDSEED instruction, a compromise of our desire to rely on a trusted hardware implementation, the unease of our external reviewers in trusting a hardware-only implementation, and the need to generate so many random bits.
翻訳日:2023-05-03 11:21:18 公開日:2020-09-06
# 単一光子干渉による混合状態絡み合いのキャラクタリゼーション

Characterizing mixed state entanglement through single-photon interference ( http://arxiv.org/abs/2009.02829v1 )

ライセンス: Link先を確認
Mayukh Lahiri, Radek Lapkiewicz, Armin Hochrainer, Gabriela Barreto Lemos and Anton Zeilinger(参考訳) 絡み合いの検証と測定は量子力学の実験実験や量子通信や情報科学にも不可欠である。 両部混合状態における絡み合いの検証の標準的な方法は、両方の粒子の検出と偶然の測定を必要とする。 本稿では、光子のうちの1つを検知することなく、2光子混合状態における絡み合いの検証と測定を可能にする方法を提案する。 それぞれ同じ2光子混合状態を生成することができるが、同時に放出することはない。 2光子混合状態における絡み合いに関する情報を含む単一光子干渉パターンを生成できることを示す。 干渉パターンの可視性から絡み合いに関する情報を取得することが可能であることが証明された。 本手法は混合状態における絡み合いの検証と測定のための異なる方法を示す。

Entanglement verification and measurement is essential for experimental tests of quantum mechanics and also for quantum communication and information science. Standard methods of verifying entanglement in a bipartite mixed state require detection of both particles and involve coincidence measurement. We present a method that enables us to verify and measure entanglement in a two-photon mixed state without detecting one of the photons, i.e., without performing any coincidence measurement or postselection. We consider two identical sources, each of which can generate the same two-photon mixed state but they never emit simultaneously. We show that one can produce a set of single-photon interference patterns, which contain information about entanglement in the two-photon mixed state. We prove that it is possible to retrieve the information about entanglement from the visibility of the interference patterns. Our method reveals a distinct avenue for verifying and measuring entanglement in mixed states.
翻訳日:2023-05-03 11:20:26 公開日:2020-09-06
# 変分量子アルゴリズムの古典シミュレーションにおける勾配の効率的な計算

Efficient calculation of gradients in classical simulations of variational quantum algorithms ( http://arxiv.org/abs/2009.02823v1 )

ライセンス: Link先を確認
Tyson Jones, Julien Gacon(参考訳) パラメータ空間におけるエネルギー勾配の計算は、変分近似量子アルゴリズムのほぼユビキタスなサブルーチンとなっている。 このサブルーチンの「忠実」古典的エミュレーションはその量子的評価を模倣し、P変量パラメータのO(P^2)ゲート演算としてスケールする。 これはしばしば中程度のシミュレーションのボトルネックであり、「バッチ回路」評価のようなHPC戦略を惹きつけている。 本稿では、O(P)時間における勾配を正確に計算し、O(1)状態ベクトルを用いて「フル状態」状態ベクトルシミュレータと互換性のあるエミュレーション戦略の導出について述べる。 このアルゴリズムは、古典的な機械学習でよく用いられ、yao.jlのような量子シミュレータで最初に使われる可逆コスト関数の自動微分の最適化技術に似ている。 対照的に、我々のスキームは量子演算子の繰り返し形式から直接派生しており、量子コンピューティングのコミュニティに親しみやすいかもしれない。 私たちの戦略は非常に単純で、'apply gate'、'clone state'、'inner product'プリミティブのみを使用しており、既存のシミュレータの実装と統合が容易です。 ゲート並列化スキームやハードウェアアクセラレーションと分散シミュレータと互換性がある。 提案手法は,既存の量子シミュレータにおける実装を明確に導くため,共通ゲート導関数の動作方法の詳細を含む指導的手法で記述する。 さらに,Qiskit で実装することで提案手法を実証し,忠実なシミュレーションによる比較ベンチマークを行う。 最後に,ノイズチャネルの密度行列シミュレーションへのスキーム拡張の難しさについて述べる。

Calculating the energy gradient in parameter space has become an almost ubiquitous subroutine of variational near-term quantum algorithms. "Faithful" classical emulation of this subroutine mimics its quantum evaluation, and scales as O(P^2) gate operations for P variational parameters. This is often the bottleneck for the moderately-sized simulations, and has attracted HPC strategies like "batch-circuit" evaluation. We here present a novel derivation of an emulation strategy to precisely calculate the gradient in O(P) time and using O(1) state-vectors, compatible with "full-state" state-vector simulators. The prescribed algorithm resembles the optimised technique for automatic differentiation of reversible cost functions, often used in classical machine learning, and first employed in quantum simulators like Yao.jl. In contrast, our scheme derives directly from a recurrent form of quantum operators, and may be more familiar to a quantum computing community. Our strategy is very simple, uses only 'apply gate', 'clone state' and 'inner product' primitives and is hence straightforward to implement and integrate with existing simulators. It is compatible with gate parallelisation schemes, and hardware accelerated and distributed simulators. We describe the scheme in an instructive way, including details of how common gate derivatives can be performed, to clearly guide implementation in existing quantum simulators. We furthermore demonstrate the scheme by implementing it in Qiskit, and perform some comparative benchmarking with faithful simulation. Finally, we remark upon the difficulty of extending the scheme to density-matrix simulation of noisy channels.
翻訳日:2023-05-03 11:20:12 公開日:2020-09-06
# 量子有限時間熱力学:単一キュービットエンジンからの洞察

Quantum finite-time thermodynamics: insight from a single qubit engine ( http://arxiv.org/abs/2009.02801v1 )

ライセンス: Link先を確認
Roie Dann, Ronnie Kosloff and Peter Salamon(参考訳) 熱力学に時間を組み込むことで、効率と電力のトレードオフに対処することができる。 クビットエンジンは、オープンシステムの量子理論に基づく第一原理からこのトレードオフを研究するためのおもちゃモデルとして機能する。 熱輸送, 量子摩擦, 熱化から生じる非可逆性の量子起源について, 外部駆動の存在下での研究を行った。 我々はottoおよびcarnotテンプレートに基づいて,様々な有限時間エンジンサイクルを構築する。 解析では,コヒーレンスの役割とエントロピー生成の量子的起源を強調する。

Incorporating time into thermodynamics allows addressing the tradeoff between efficiency and power. A qubit engine serves as a toy model to study this tradeoff from first principles, based on the quantum theory of open systems. We study the quantum origin of irreversibility, originating from heat transport, quantum friction and thermalization in the presence of external driving. We construct various finite-time engine cycles based on the Otto and Carnot templates. Our analysis highlights the role of coherence and the quantum origin of entropy production.
翻訳日:2023-05-03 11:19:31 公開日:2020-09-06
# 合成データを用いた高次元シミュレーションモデルの最適化

Optimization of High-dimensional Simulation Models Using Synthetic Data ( http://arxiv.org/abs/2009.02781v1 )

ライセンス: Link先を確認
Thomas Bartz-Beielstein, Eva Bartz, Frederik Rehbach, Olaf Mersmann(参考訳) シミュレーションモデルは、リソース使用量の推定とキャパシティ計画に有用なツールである。 多くの場合、信頼できるデータは利用できない。 本稿では,シミュレーションパラメータに対する可算区間の仕様のみを必要とするBuBシミュレータを提案する。 代理モデルに基づく最適化を行うことで、改良されたシミュレーションモデルパラメータを決定することができる。 さらに、最も重要なモデルパラメータとその相互作用の深い洞察を可能にする詳細な統計分析を行うこともできる。 この情報は、さらに調査すべきパラメータのスクリーニングに使用することができる。 当社のアプローチを実証するために,病院の容量と資源計画タスクをシミュレートし,最適化した。 この研究は、新型コロナウイルスのパンデミックによる困難について明確に取り上げている。 たとえ限られた実世界のデータしか利用できないとしても、BuBシミュレータは最悪のシナリオやベストケースのシナリオを考えるのに役立ちます。 BuBシミュレータは、例えば、追加のリソース(個人の保護装置、スタッフ、医薬品)を追加したり、いくつかのコホート(年齢、健康状態など)を指定することで、様々な方法で拡張することができる。 キーワード: 合成データ、離散イベントシミュレーション、代理モデルに基づく最適化、COVID-19、機械学習、人工知能、病院のリソース計画、予測ツール、キャパシティ計画。

Simulation models are valuable tools for resource usage estimation and capacity planning. In many situations, reliable data is not available. We introduce the BuB simulator, which requires only the specification of plausible intervals for the simulation parameters. By performing a surrogate-model based optimization, improved simulation model parameters can be determined. Furthermore, a detailed statistical analysis can be performed, which allows deep insights into the most important model parameters and their interactions. This information can be used to screen the parameters that should be further investigated. To exemplify our approach, a capacity and resource planning task for a hospital was simulated and optimized. The study explicitly covers difficulties caused by the COVID-19 pandemic. It can be shown, that even if only limited real-world data is available, the BuB simulator can be beneficially used to consider worst- and best-case scenarios. The BuB simulator can be extended in many ways, e.g., by adding further resources (personal protection equipment, staff, pharmaceuticals) or by specifying several cohorts (based on age, health status, etc.). Keywords: Synthetic data, discrete-event simulation, surrogate-model-based optimization, COVID-19, machine learning, artificial intelligence, hospital resource planning, prediction tool, capacity planning.
翻訳日:2023-05-03 11:19:25 公開日:2020-09-06
# E-Mobilityのためのブロックチェーンを用いたスマート計測システムの検討

A Survey on Smart Metering Systems using Blockchain for E-Mobility ( http://arxiv.org/abs/2009.09075v1 )

ライセンス: Link先を確認
Juan C. Olivares-Rojas, Enrique Reyes-Archundia, Jos\'e A. Guti\'errez-Gnecchi, Ismael Molina-Moreno(参考訳) 電気は私たちの日々の活動を支援するのに不可欠な快適さです。 業界による競争的な増加とエネルギーコストにより、顧客に電力を供給する新しい価値と機会が生み出される。 これらの新しい機会の1つは電気自動車だ。 電気自動車の登場に伴い、世界中の電力システムに様々な課題と機会が提示されている。 例えば、従来の電力請求方式では、電力は必要な場所で消費され、適切な使用者が請求されていなければ、エンドユーザーが異なるポイント(例えば親戚の家)で電気自動車を充電できないようにしなければならない(これは高価な電力の消費が多いため)。 電気モビリティを実現するためには、エネルギー消費のスマート測定や、これらの測定のサイバーセキュリティといった新しい課題を解決しなければならない。 本研究は、ブロックチェーンやその他のセキュリティメカニズムを使用してe-mobilityを実現する、さまざまなスマート計測技術の研究を示す。

Electricity is an essential comfort to support our daily activities. With the competitive increase and energy costs by the industry, new values and opportunities for delivering electricity to customers are produced. One of these new opportunities is electric vehicles. With the arrival of electric vehicles, various challenges and opportunities are being presented in the electric power system worldwide. For example, under the traditional electric power billing scheme, electric power has to be consumed where it is needed so that end-users could not charge their electric vehicles at different points (e.g. a relative's house) if this the correct user is not billed (this due to the high consumption of electrical energy that makes it expensive). To achieve electric mobility, they must solve new challenges, such as the smart metering of energy consumption and the cybersecurity of these measurements. The present work shows a study of the different smart metering technologies that use blockchain and other security mechanisms to achieve e-mobility.
翻訳日:2023-05-03 11:13:24 公開日:2020-09-06
# 液体中のアト秒ダイナミクス

Attosecond Dynamics in Liquids ( http://arxiv.org/abs/2009.04913v1 )

ライセンス: Link先を確認
H. J. W\"orner, A. Schild, D. Jelovina, I. Jordan, C. Perry, T. T. Luu, Z. Yin(参考訳) 原子にはアト秒科学がよく発達し、分子や固体には有望な結果が得られた。 本稿では,液体中のアト秒時間分解測定器の開発の最初のステップについて概説する。 これらの進歩は、化学反応や生物学的過程の自然環境における電子動力学の時間領域研究へのアクセスを提供する。 アト秒パルスと高ハーモニックスペクトロスコピー(hhs)を用いたポンププローブ測定という,アト秒科学の2つの主な分野を代表する2つの手法に注目した。 まず,円筒状マイクロジェットを用いたアト秒光電子分光と液体と気体水の時間遅延測定への応用について検討する。 本稿では,実験手法,新しいデータ分析手法,実験結果について述べる。 液体中のattosecond chronoscopyを量子力学的レベルで完全に記述するために必要な概念的および理論的枠組みを詳細に述べる。 これには光イオン化遅延、散乱遅延、電子輸送のコヒーレントな記述、レーザー支援光電子放出と散乱が含まれる。 その結果, 液体のアト秒クロノスコープは, 一般に両種類の遅延や電子平均自由経路に敏感であることがわかった。 現状の量子散乱とモンテカルロ軌道法を含む詳細なモデリングを通して、20-30eVの光子エネルギーにおける液体水のアト秒クロノスコープにおいて、光イオン化遅延が支配的であることを示す。 この結論は実験と理論のほぼ定量的な合意によって支持されている。 第2部では平らなマイクロジェットに基づく液体のHHSを紹介する。 これらの結果は、超紫外線状態に非常に遠くまで広がる液体中での高調波発生(HHG)の最初の観測である。

Attosecond science is well developed for atoms and promising results have been obtained for molecules and solids. Here, we review the first steps in developing attosecond time-resolved measurements in liquids. These advances provide access to time-domain studies of electronic dynamics in the natural environment of chemical reactions and biological processes. We concentrate on two techniques that are representative of the two main branches of attosecond science: pump-probe measurements using attosecond pulses and high-harmonic spectroscopy (HHS). In the first part, we discuss attosecond photoelectron spectroscopy with cylindrical microjets and its application to measure time delays between liquid and gaseous water. We present the experimental techniques, the new data-analysis methods and the experimental results. We describe in detail the conceptual and theoretical framework required to fully describe attosecond chronoscopy in liquids at a quantum-mechanical level. This includes photoionization delays, scattering delays, as well as a coherent description of electron transport and (laser-assisted) photoemission and scattering. As a consequence, we show that attosecond chronoscopy of liquids is, in general, sensitive to both types of delays, as well as the electron mean-free paths. Through detailed modeling, involving state-of-the-art quantum scattering and Monte-Carlo trajectory methods, we show that the photoionization delays dominate in attosecond chronoscopy of liquid water at photon energies of 20-30 eV. This conclusion is supported by a near-quantitative agreement between experiment and theory. In the second part, we introduce HHS of liquids based on flat microjets. These results represent the first observation of high-harmonic generation (HHG) in liquids extending well beyond the visible into the extreme-ultraviolet regime.
翻訳日:2023-05-03 11:13:11 公開日:2020-09-06
# モーメントコントラストを用いた話者埋め込み学習

Learning Speaker Embedding with Momentum Contrast ( http://arxiv.org/abs/2001.01986v2 )

ライセンス: Link先を確認
Ke Ding and Xuanji He and Guanglu Wan(参考訳) 話者検証は、可変長の発話から話者識別的埋め込みを抽出する表現学習タスクとして定式化することができる。 Momentum Contrast (MoCo)は、最近提案された教師なし表現学習フレームワークであり、下流視覚タスクのための優れた特徴表現を学習する効果を示した。 本研究では,音声セグメントから話者埋め込みを学習するためにMoCoを適用する。 教師なし学習と事前学習のためのMoCoについて検討する。 教師なしのシナリオでは、話者固有の情報を用いることなく、オーディオデータからMoCoによって埋め込みが学習される。 2500ドルのスピーカーを持つ大規模データセットでは、mocoは教師なしで訓練されたeer 4.275\%$を達成でき、追加のラベルなしデータを使用するとeerはさらに3.58\%$となる。 事前トレーニングシナリオでは、MoCoによってトレーニングされたエンコーダを使用して、下流の教師ありトレーニングを初期化する。 mocoトレーニングモデルの微調整により、eer(equal error rate)は、スクラッチから慎重に調整されたベースライントレーニングと比較して、相対値(1.44\%$から1.242\%$)で13.7\%削減される。 比較研究により,moco学習による話者埋め込みの有効性が確認された。

Speaker verification can be formulated as a representation learning task, where speaker-discriminative embeddings are extracted from utterances of variable lengths. Momentum Contrast (MoCo) is a recently proposed unsupervised representation learning framework, and has shown its effectiveness for learning good feature representation for downstream vision tasks. In this work, we apply MoCo to learn speaker embedding from speech segments. We explore MoCo for both unsupervised learning and pretraining settings. In the unsupervised scenario, embedding is learned by MoCo from audio data without using any speaker specific information. On a large scale dataset with $2,500$ speakers, MoCo can achieve EER $4.275\%$ trained unsupervisedly, and the EER can decrease further to $3.58\%$ if extra unlabelled data are used. In the pretraining scenario, encoder trained by MoCo is used to initialize the downstream supervised training. With finetuning on the MoCo trained model, the equal error rate (EER) reduces $13.7\%$ relative ($1.44\%$ to $1.242\%$) compared to a carefully tuned baseline training from scratch. Comparative study confirms the effectiveness of MoCo learning good speaker embedding.
翻訳日:2023-01-13 20:26:38 公開日:2020-09-06
# 大規模MIMO CSIフィードバックのための分散深部畳み込み圧縮

Distributed Deep Convolutional Compression for Massive MIMO CSI Feedback ( http://arxiv.org/abs/2003.04684v2 )

ライセンス: Link先を確認
Mahdi Boloursaz Mashhadi, Qianqian Yang, and Deniz Gunduz(参考訳) 大規模マルチインプット・マルチアウトプット(MIMO)システムは、空間的多様性と多重化ゲインを達成するために、基地局(BS)のダウンリンクチャネル状態情報(CSI)を必要とする。 周波数分割デュプレックス(FDD)マルチユーザMIMOネットワークでは、各ユーザがそのダウンリンクCSIをBSに圧縮してフィードバックする必要がある。 CSIのオーバヘッドはアンテナ、ユーザ、サブキャリアの数とともにスケールし、全体的なスペクトル効率のボトルネックとなる。 本稿では、畳み込み層と量子化およびエントロピー符号化ブロックからなるディープラーニング(DL)ベースのCSI圧縮スキームDeepCMCを提案する。 従来のDLベースのCSI削減構造と比較して、DeepCMCはデコーダに残層を持つ新しい完全畳み込みニューラルネットワーク(NN)アーキテクチャを提案し、量子化とエントロピー符号化ブロックを設計に組み込んでいる。 DeepCMCは、CSI品質とフィードバックオーバーヘッドの間のトレードオフを可能にする、重み付きレート歪みコストを最小限に抑えるように訓練されている。 シミュレーションの結果,同じ圧縮速度でcsiの再構成品質の観点から,deepcmcがart csi圧縮スキームの状態を上回っていることがわかった。 また,マルチユーザMIMOシナリオのための分散バージョンのDeepCMCを提案し,複数のユーザからのCSIを分散的にエンコード・再構築する。 分散DeepCMCは、単一のMIMOユーザ固有のCSI構造を圧縮に利用するだけでなく、近隣ユーザのチャネル行列間の相関を利用して、DeepCMCと比較してパフォーマンスを向上する。 また,複数のユーザに対して拡張可能な分散deepcmcの複合化学習手法を提案し,クラスタベースの分散deepcmcアプローチを実践的実装として提案する。

Massive multiple-input multiple-output (MIMO) systems require downlink channel state information (CSI) at the base station (BS) to achieve spatial diversity and multiplexing gains. In a frequency division duplex (FDD) multiuser massive MIMO network, each user needs to compress and feedback its downlink CSI to the BS. The CSI overhead scales with the number of antennas, users and subcarriers, and becomes a major bottleneck for the overall spectral efficiency. In this paper, we propose a deep learning (DL)-based CSI compression scheme, called DeepCMC, composed of convolutional layers followed by quantization and entropy coding blocks. In comparison with previous DL-based CSI reduction structures, DeepCMC proposes a novel fully-convolutional neural network (NN) architecture, with residual layers at the decoder, and incorporates quantization and entropy coding blocks into its design. DeepCMC is trained to minimize a weighted rate-distortion cost, which enables a trade-off between the CSI quality and its feedback overhead. Simulation results demonstrate that DeepCMC outperforms the state of the art CSI compression schemes in terms of the reconstruction quality of CSI for the same compression rate. We also propose a distributed version of DeepCMC for a multi-user MIMO scenario to encode and reconstruct the CSI from multiple users in a distributed manner. Distributed DeepCMC not only utilizes the inherent CSI structures of a single MIMO user for compression, but also benefits from the correlations among the channel matrices of nearby users to further improve the performance in comparison with DeepCMC. We also propose a reduced-complexity training method for distributed DeepCMC, allowing to scale it to multiple users, and suggest a cluster-based distributed DeepCMC approach for practical implementation.
翻訳日:2022-12-25 19:39:05 公開日:2020-09-06
# モーメント問題におけるカーネル平均埋め込みを用いた分布あいまいさ下の最悪のリスク定量化

Worst-Case Risk Quantification under Distributional Ambiguity using Kernel Mean Embedding in Moment Problem ( http://arxiv.org/abs/2004.00166v2 )

ライセンス: Link先を確認
Jia-Jie Zhu, Wittawat Jitkrittum, Moritz Diehl, Bernhard Sch\"olkopf(参考訳) 希少かつ影響の大きい事象を予測するために,カーネルメソッドの最近の開発 -- カーネルは組込みを意味する -- を用いて,分布的曖昧性の下で最悪のリスクを定量化する。 具体的には、曖昧性集合(すなわちモーメント制約)が関連する再生カーネルヒルベルト空間の制約によって非パラメトリックな方法で記述される一般化モーメント問題を定式化する。 次に、抽出可能な近似とその理論的正当性を示す。 具体的な応用として,制約付き確率制御系のコンテキストにおける最悪の制約違反確率を特徴付けるために提案手法を数値的に検証する。

In order to anticipate rare and impactful events, we propose to quantify the worst-case risk under distributional ambiguity using a recent development in kernel methods -- the kernel mean embedding. Specifically, we formulate the generalized moment problem whose ambiguity set (i.e., the moment constraint) is described by constraints in the associated reproducing kernel Hilbert space in a nonparametric manner. We then present the tractable approximation and its theoretical justification. As a concrete application, we numerically test the proposed method in characterizing the worst-case constraint violation probability in the context of a constrained stochastic control system.
翻訳日:2022-12-18 02:05:53 公開日:2020-09-06
# 波形領域におけるリアルタイム音声強調

Real Time Speech Enhancement in the Waveform Domain ( http://arxiv.org/abs/2006.12847v3 )

ライセンス: Link先を確認
Alexandre Defossez, Gabriel Synnaeve, Yossi Adi(参考訳) 本稿では,ラップトップCPU上でリアルタイムに動作する生波形を用いた因果音声強調モデルを提案する。 提案モデルは、スキップ接続を持つエンコーダデコーダアーキテクチャに基づいている。 時間と周波数の両方に最適化され、複数の損失関数を使用する。 実験的な証拠は、静止騒音や非定常騒音、室内残響など、様々な種類の背景雑音を除去できることを示している。 さらに、生波形に直接適用されるデータ拡張手法のセットを提案し、モデルの性能と一般化能力をさらに向上させる。 客観的指標と人的判断の両方を用いて、いくつかの標準ベンチマークで評価を行う。 提案モデルは,生波形を直接処理しながら,因果法と非因果法の両方の最先端性能に適合する。

We present a causal speech enhancement model working on the raw waveform that runs in real-time on a laptop CPU. The proposed model is based on an encoder-decoder architecture with skip-connections. It is optimized on both time and frequency domains, using multiple loss functions. Empirical evidence shows that it is capable of removing various kinds of background noise including stationary and non-stationary noises, as well as room reverb. Additionally, we suggest a set of data augmentation techniques applied directly on the raw waveform which further improve model performance and its generalization abilities. We perform evaluations on several standard benchmarks, both using objective metrics and human judgements. The proposed model matches state-of-the-art performance of both causal and non causal methods while working directly on the raw waveform.
翻訳日:2022-11-17 22:34:12 公開日:2020-09-06
# 密度固定:クラス優先に基づく単純かつ効果的な正規化法

Density Fixing: Simple yet Effective Regularization Method based on the Class Prior ( http://arxiv.org/abs/2007.03899v2 )

ライセンス: Link先を確認
Masanari Kimura and Ryohei Izawa(参考訳) 機械学習モデルは、ラベル付きデータの欠如によって引き起こされる過剰フィットに苦しむ。 この問題に対処するために,教師付きおよび半教師付き学習によく用いられる密度固定法という正規化手法の枠組みを提案した。 提案手法は, モデルの事前分布や発生頻度を近似させることにより, 一般化性能を向上させる。 この正規化項は、自然に最大推定の式から導かれ、理論上は正当化される。 さらに, 漸近的行動を含む提案手法の理論的解析を行った。 複数のベンチマークデータセットに対する実験結果は議論を支援するのに十分であり,本手法は実世界の機械学習問題において有用であることが示唆された。

Machine learning models suffer from overfitting, which is caused by a lack of labeled data. To tackle this problem, we proposed a framework of regularization methods, called density-fixing, that can be used commonly for supervised and semi-supervised learning. Our proposed regularization method improves the generalization performance by forcing the model to approximate the class's prior distribution or the frequency of occurrence. This regularization term is naturally derived from the formula of maximum likelihood estimation and is theoretically justified. We further provide the several theoretical analyses of the proposed method including asymptotic behavior. Our experimental results on multiple benchmark datasets are sufficient to support our argument, and we suggest that this simple and effective regularization method is useful in real-world machine learning problems.
翻訳日:2022-11-12 10:01:53 公開日:2020-09-06
# モデル解釈による深層アクティブラーニング

Deep Active Learning by Model Interpretability ( http://arxiv.org/abs/2007.12100v4 )

ライセンス: Link先を確認
Qiang Liu and Zhaocheng Liu and Xiaofang Zhu and Yeliang Xiu(参考訳) しかし、近年のディープニューラルネットワーク(DNN)の様々な研究課題における成功は、大量のラベル付きサンプルに大きく依存している。 これは現実世界のアプリケーションでかなりのアノテーションコストを必要とする可能性がある。 幸いなことに、アクティブな学習は、最小のアノテーションコストでハイパフォーマンスモデルをトレーニングするための有望な方法論です。 ディープラーニングの文脈では、アクティブラーニングの重要な疑問は、DNNのサンプルの情報を正確に識別する方法である。 本稿では,dnnにおける分割線形解釈可能性に触発されて,サンプルの線形分離可能な領域をアクティブラーニング問題に導入し,モデル解釈可能性(dami)を用いた新しい深層アクティブラーニング手法を提案する。 ラベルなしデータ全体の最大代表性を維持するため、DNNにおける断片的線形解釈可能性によって導入された異なる線形分離可能な領域のサンプルを選択し、ラベル付けしようとする。 表データモデリングのための多層知覚(mlp)のモデル化に注目する。 具体的には,MLPの局所的な断片解釈を各サンプルの表現として使用し,K-Centerクラスタリングを直接実行してサンプルを選択し,ラベル付けする。 ただし、このDAMIのプロセス全体は、手動でチューニングするハイパーパラメータを必要としない。 提案手法の有効性を検証するため,複数の表付きデータセットに対して広範な実験を行った。 実験結果から、DAMIはいくつかの最先端比較手法よりも常に優れていることが示された。

Recent successes of Deep Neural Networks (DNNs) in a variety of research tasks, however, heavily rely on the large amounts of labeled samples. This may require considerable annotation cost in real-world applications. Fortunately, active learning is a promising methodology to train high-performing model with minimal annotation cost. In the deep learning context, the critical question of active learning is how to precisely identify the informativeness of samples for DNN. In this paper, inspired by piece-wise linear interpretability in DNN, we introduce the linearly separable regions of samples to the problem of active learning, and propose a novel Deep Active learning approach by Model Interpretability (DAMI). To keep the maximal representativeness of the entire unlabeled data, DAMI tries to select and label samples on different linearly separable regions introduced by the piece-wise linear interpretability in DNN. We focus on modeling Multi-Layer Perception (MLP) for modeling tabular data. Specifically, we use the local piece-wise interpretation in MLP as the representation of each sample, and directly run K-Center clustering to select and label samples. To be noted, this whole process of DAMI does not require any hyper-parameters to tune manually. To verify the effectiveness of our approach, extensive experiments have been conducted on several tabular datasets. The experimental results demonstrate that DAMI constantly outperforms several state-of-the-art compared approaches.
翻訳日:2022-11-07 11:53:33 公開日:2020-09-06
# 公正なオンラインパーソナライゼーション

Fairness-Aware Online Personalization ( http://arxiv.org/abs/2007.15270v2 )

ライセンス: Link先を確認
G Roshan Lal and Sahin Cem Geyik and Krishnaram Kenthapadi(参考訳) 貸付、雇用、大学入学などの重要な応用における意思決定は、ユビキタス接続、クラウドコンピューティングを使用した大量のきめ細かいデータ収集、集約、処理、洗練された機械学習モデルの適用へのアクセスの容易化など、さまざまな要因によって、アルゴリズムモデルとテクニックの使用の増加を目撃している。 多くの場合、このようなアプリケーションは検索とレコメンデーションシステムを利用しており、パーソナライズされたランキングアルゴリズムを利用している。 同時に、このようなデータ駆動システムの使用によって引き起こされる倫理的および法的課題に対する意識が高まっている。 さまざまな分野の研究者や実践者が最近、このようなシステムが特定の集団に対して識別する可能性を強調している。 個人格付けを含むオンラインパーソナライズ設定における公平性について検討する。 公平なウォームスタートマシン学習モデルからはじめて、オンラインパーソナライゼーションが、ユーザが応答に偏っている場合、モデルが不公平な方法で行動することを学ぶことを実証する。 この目的のために,潜在的なバイアス付き特徴と潜在的なバイアス付きラベルを持つトレーニングデータを生成するためのスタイリングモデルを構築し,ユーザが多くの現実のシナリオのようにバイアスに応答するときのモデルによって学習されるバイアスの程度を定量化する。 次に、公正な制約の下でパーソナライズされたモデルを学習する問題を定式化し、機械学習におけるバイアスを軽減するための正規化に基づくアプローチを提案する。 パラメータ設定の異なる広範囲なシミュレーションにより,本手法の有効性を示す。 コード:https://github.com/groshanlal/Fairness-Aware-Online-Personalization

Decision making in crucial applications such as lending, hiring, and college admissions has witnessed increasing use of algorithmic models and techniques as a result of a confluence of factors such as ubiquitous connectivity, ability to collect, aggregate, and process large amounts of fine-grained data using cloud computing, and ease of access to applying sophisticated machine learning models. Quite often, such applications are powered by search and recommendation systems, which in turn make use of personalized ranking algorithms. At the same time, there is increasing awareness about the ethical and legal challenges posed by the use of such data-driven systems. Researchers and practitioners from different disciplines have recently highlighted the potential for such systems to discriminate against certain population groups, due to biases in the datasets utilized for learning their underlying recommendation models. We present a study of fairness in online personalization settings involving the ranking of individuals. Starting from a fair warm-start machine-learned model, we first demonstrate that online personalization can cause the model to learn to act in an unfair manner if the user is biased in his/her responses. For this purpose, we construct a stylized model for generating training data with potentially biased features as well as potentially biased labels and quantify the extent of bias that is learned by the model when the user responds in a biased manner as in many real-world scenarios. We then formulate the problem of learning personalized models under fairness constraints and present a regularization based approach for mitigating biases in machine learning. We demonstrate the efficacy of our approach through extensive simulations with different parameter settings. Code: https://github.com/groshanlal/Fairness-Aware-Online-Personalization
翻訳日:2022-11-05 13:15:34 公開日:2020-09-06
# 小図形キーワードスポッティングのための時間畳み込みと時間遅延ニューラルネットワークを用いたニューラルネットワーク

Neural ODE with Temporal Convolution and Time Delay Neural Networks for Small-Footprint Keyword Spotting ( http://arxiv.org/abs/2008.00209v2 )

ライセンス: Link先を確認
Hiroshi Fuketa and Yukinori Morita(参考訳) 本稿では,kws(small-footprint keyword spotting)のためのニューラル常微分方程式(node)に基づくニューラルネットワークモデルを提案する。 我々は, NODE を KWS に適用することにより, バッチ正規化を NODE ベースのネットワークに適用し, 推論時の計算量を削減する手法を提案する。 最後に,提案モデルのモデルパラメータの数が従来のKWSモデルよりも68%小さくなることを示す。

In this paper, we propose neural network models based on the neural ordinary differential equation (NODE) for small-footprint keyword spotting (KWS). We present techniques to apply NODE to KWS that make it possible to adopt Batch Normalization to NODE-based network and to reduce the number of computations during inference. Finally, we show that the number of model parameters of the proposed model is smaller by 68% than that of the conventional KWS model.
翻訳日:2022-11-04 01:18:45 公開日:2020-09-06
# グラフによるロバストノード表現の学習

Learning Robust Node Representations on Graphs ( http://arxiv.org/abs/2008.11416v2 )

ライセンス: Link先を確認
Xu Chen and Ya Zhang and Ivor Tsang and Yuangang Pan(参考訳) グラフニューラルネットワーク(GNN)は、グラフ上のノード表現学習の一般的な方法論として、現在主にノード表現の滑らかさと識別性を保存することに焦点を当てている。 グラフ上のロバストなノード表現は、入力に対するわずかな摂動に対してノード表現が耐性を持つという安定性特性をさらに保持する必要がある。 本稿では,ノード表現のスムーズさと識別性に加えて,ノード表現の安定性を導入し,教師なしで頑健なノード表現を学習するコントラストグラフニューラルネットワーク(CGNN)と呼ばれる新しい手法を開発した。 具体的には、CGNNは、既存のGNNモデルとの滑らかさを保ちながら、対照的な学習目標による安定性と識別性を維持している。 さらに、提案手法は、他の多くのバックボーンモデル(GCN、GraphSage、GATなど)を装備できる汎用フレームワークである。 帰納的および帰納的な学習環境下での4つのベンチマーク実験により,近年の教師なしモデルと比べ,本手法の有効性が示された。

Graph neural networks (GNN), as a popular methodology for node representation learning on graphs, currently mainly focus on preserving the smoothness and identifiability of node representations. A robust node representation on graphs should further hold the stability property which means a node representation is resistant to slight perturbations on the input. In this paper, we introduce the stability of node representations in addition to the smoothness and identifiability, and develop a novel method called contrastive graph neural networks (CGNN) that learns robust node representations in an unsupervised manner. Specifically, CGNN maintains the stability and identifiability by a contrastive learning objective, while preserving the smoothness with existing GNN models. Furthermore, the proposed method is a generic framework that can be equipped with many other backbone models (e.g. GCN, GraphSage and GAT). Extensive experiments on four benchmarks under both transductive and inductive learning setups demonstrate the effectiveness of our method in comparison with recent supervised and unsupervised models.
翻訳日:2022-10-24 21:03:12 公開日:2020-09-06
# グラフニューラルネットワークのためのアーキテクチャ探索の簡易化

Simplifying Architecture Search for Graph Neural Network ( http://arxiv.org/abs/2008.11652v2 )

ライセンス: Link先を確認
Huan Zhao and Lanning Wei and Quanming Yao(参考訳) 近年、様々なシナリオでグラフニューラルネットワーク(GNN)の人気が高まっている。 最適なデータ固有のGNNアーキテクチャを得るために、研究者は畳み込みニューラルネットワークにおいて効果的なアーキテクチャを発見するために驚くべき進歩を遂げたNAS(Neural Architecture Search)手法に目を向けた。 GraphNASとAuto-GNNの2つの予備的な作業は、NASメソッドをGNNに適用する最初の試みである。 有望な結果にもかかわらず、設計された検索空間のため、GraphNASとAuto-GNNの表現能力と検索効率にいくつかの欠点がある。 これらの欠点を克服するために,新たな検索空間と強化学習に基づく検索アルゴリズムからなるsnagフレームワーク(simplified neural architecture search for graph neural networks)を提案する。 実世界のデータセットに関する大規模な実験は、GraphNASやAuto-GNNなど、人間によって設計されたGNNやNASメソッドと比較して、SNAGフレームワークの有効性を示している。

Recent years have witnessed the popularity of Graph Neural Networks (GNN) in various scenarios. To obtain optimal data-specific GNN architectures, researchers turn to neural architecture search (NAS) methods, which have made impressive progress in discovering effective architectures in convolutional neural networks. Two preliminary works, GraphNAS and Auto-GNN, have made first attempt to apply NAS methods to GNN. Despite the promising results, there are several drawbacks in expressive capability and search efficiency of GraphNAS and Auto-GNN due to the designed search space. To overcome these drawbacks, we propose the SNAG framework (Simplified Neural Architecture search for Graph neural networks), consisting of a novel search space and a reinforcement learning based search algorithm. Extensive experiments on real-world datasets demonstrate the effectiveness of the SNAG framework compared to human-designed GNNs and NAS methods, including GraphNAS and Auto-GNN.
翻訳日:2022-10-24 21:02:09 公開日:2020-09-06
# 次世代の3次元再構築政策

Next-Best View Policy for 3D Reconstruction ( http://arxiv.org/abs/2008.12664v2 )

ライセンス: Link先を確認
Daryl Peralta, Joel Casimiro, Aldrin Michael Nilles, Justine Aletta Aguilar, Rowel Atienza and Rhandley Cajote(参考訳) 手動で視点を選択したり、ドローンを使った大規模な3d再構築のために円形経路のような一般的な飛行プランナーを使うと、しばしば不完全な3dモデルになる。 最近の研究は、次のベストビューを選択するための情報ゲインのような手作業によるヒューリスティックに頼っている。 本研究では,Next-Best View(NBV)ポリシーを学習するためのScan-RLという学習アルゴリズムを提案する。 エージェントをトレーニングし、評価するために、3DハウスモデルのデータセットであるHouses3Kを作成しました。 実験の結果,Scan-RLを使用すれば,基準円路よりも少ない段数と短い距離で家屋をスキャンできることがわかった。 実験結果は、訓練中に見られなかったものを含む複数の家屋を単一のnbvポリシーでスキャンできることも示している。 Scan-RLへのリンクはhttps://github.com/darylperalta/ScanRLで、Houses3Kデータセットはhttps://github.com/darylperalta/Houses3Kで見ることができる。

Manually selecting viewpoints or using commonly available flight planners like circular path for large-scale 3D reconstruction using drones often results in incomplete 3D models. Recent works have relied on hand-engineered heuristics such as information gain to select the Next-Best Views. In this work, we present a learning-based algorithm called Scan-RL to learn a Next-Best View (NBV) Policy. To train and evaluate the agent, we created Houses3K, a dataset of 3D house models. Our experiments show that using Scan-RL, the agent can scan houses with fewer number of steps and a shorter distance compared to our baseline circular path. Experimental results also demonstrate that a single NBV policy can be used to scan multiple houses including those that were not seen during training. The link to Scan-RL is available at https://github.com/darylperalta/ScanRL and Houses3K dataset can be found at https://github.com/darylperalta/Houses3K.
翻訳日:2022-10-24 02:13:37 公開日:2020-09-06
# AGIのメタモデルとフレームワーク

A Metamodel and Framework for AGI ( http://arxiv.org/abs/2008.12879v2 )

ライセンス: Link先を確認
Hugo Latapie and Ozkan Kilic(参考訳) 人工知能システムは超人的性能を示すことができるが、重要な方法では、単細胞生物の知性さえも欠いているだろうか? 答は明らかに、狭いAIシステムに対する'yes'である。 動物、植物、さらには単細胞生物は、確実に危険を避け、食物に向かって移動することを学ぶ。 これは、世界の有用なモデルを自律的に生成する物理的知識保存メタモデルによって達成される。 知識の構造を保存することは、人間や人工的な、より高度な抽象レベルを管理する高度な知性にとって重要であると仮定する。 これは、継続的学習と適応を必要とする複雑な現実世界の問題にAGIサブシステムを適用することから学んだ重要な教訓である。 本稿では,応用AGIシステム構築のための知識保存メタモデルとフレームワークを実装したDeep Fusion Reasoning Engine(DFRE)を紹介する。 DFREメタモデルは、対称関係と反対称関係の明確な区別、抽象のレベルをはっきりと表す階層的な知識表現を作成する能力など、いくつかの重要な基本的な知識を保存している。 これらの機能を組み込んだDFREメタモデルは、組合せ爆発の管理や累積的、分散的、フェデレーション学習の実現など、AGIにどのようなメリットがあるかを示す。 提案手法は,教師なし物体の検出と認識において,平均94%の精度を実現する。 この研究は、AGIに対する最先端のアプローチ、最近のAGIを意図した研究、グラニュラーコンピューティングコミュニティ、およびAlfred Korzybskiの一般的な意味論に触発されている。

Can artificial intelligence systems exhibit superhuman performance, but in critical ways, lack the intelligence of even a single-celled organism? The answer is clearly 'yes' for narrow AI systems. Animals, plants, and even single-celled organisms learn to reliably avoid danger and move towards food. This is accomplished via a physical knowledge preserving metamodel that autonomously generates useful models of the world. We posit that preserving the structure of knowledge is critical for higher intelligences that manage increasingly higher levels of abstraction, be they human or artificial. This is the key lesson learned from applying AGI subsystems to complex real-world problems that require continuous learning and adaptation. In this paper, we introduce the Deep Fusion Reasoning Engine (DFRE), which implements a knowledge-preserving metamodel and framework for constructing applied AGI systems. The DFRE metamodel exhibits some important fundamental knowledge preserving properties such as clear distinctions between symmetric and antisymmetric relations, and the ability to create a hierarchical knowledge representation that clearly delineates between levels of abstraction. The DFRE metamodel, which incorporates these capabilities, demonstrates how this approach benefits AGI in specific ways such as managing combinatorial explosion and enabling cumulative, distributed and federated learning. Our experiments show that the proposed framework achieves 94% accuracy on average on unsupervised object detection and recognition. This work is inspired by the state-of-the-art approaches to AGI, recent AGI-aspiring work, the granular computing community, as well as Alfred Korzybski's general semantics.
翻訳日:2022-10-24 02:04:19 公開日:2020-09-06
# ベンガル質問応答システムにおける質問分類のための分類器結合アプローチ

Classifier Combination Approach for Question Classification for Bengali Question Answering System ( http://arxiv.org/abs/2008.13597v2 )

ライセンス: Link先を確認
Somnath Banerjee, Sudip Kumar Naskar, Paolo Rosso and Sivaji Bandyopadhyay(参考訳) 質問分類(QC)は自動質問応答システムの主要な構成要素である。 本研究は, ベンガルの質問分類課題において, 既存の個人モデルよりも, 複数モデルの組み合わせにより, より良い分類性能が得られることを示した。 我々は、QCの精度を高めるために、最先端のマルチモデル組み合わせ技術、すなわちアンサンブル、積み重ね、投票を利用した。 ベンガルの質問の語彙的、構文的、意味的特徴は、4つのよく知られた分類器(na\"{\i}ve bayes, kernel na\"{\i}ve bayes, rule induction, and decision tree)で使われ、基礎学習者として機能する。 8つの粗粒クラスを持つ単層質問クラス分類は、69個の細粒クラスを追加して2層分類に拡張される。 単層および二層分類の両方で実験を行った。 実験結果から,大まかな質問クラスでは,分類器の組み合わせが単一分類器の分類方法より4.02%優れていた。 全体として、積み重ね手法はきめ細かな分類に最適な結果をもたらし、精度は87.79%に達する。 ここで提示されるアプローチは、質問応答システムを開発するために、他のインド・アーリア語またはインド語言語で使用できる。

Question classification (QC) is a prime constituent of automated question answering system. The work presented here demonstrates that the combination of multiple models achieve better classification performance than those obtained with existing individual models for the question classification task in Bengali. We have exploited state-of-the-art multiple model combination techniques, i.e., ensemble, stacking and voting, to increase QC accuracy. Lexical, syntactic and semantic features of Bengali questions are used for four well-known classifiers, namely Na\"{\i}ve Bayes, kernel Na\"{\i}ve Bayes, Rule Induction, and Decision Tree, which serve as our base learners. Single-layer question-class taxonomy with 8 coarse-grained classes is extended to two-layer taxonomy by adding 69 fine-grained classes. We carried out the experiments both on single-layer and two-layer taxonomies. Experimental results confirmed that classifier combination approaches outperform single classifier classification approaches by 4.02% for coarse-grained question classes. Overall, the stacking approach produces the best results for fine-grained classification and achieves 87.79% of accuracy. The approach presented here could be used in other Indo-Aryan or Indic languages to develop a question answering system.
翻訳日:2022-10-23 06:35:55 公開日:2020-09-06
# 自然災害評価のための高分解能UAV画像の総合的セマンティックセグメンテーション

Comprehensive Semantic Segmentation on High Resolution UAV Imagery for Natural Disaster Damage Assessment ( http://arxiv.org/abs/2009.01193v2 )

ライセンス: Link先を確認
Maryam Rahnemoonfar, Tashnim Chowdhury, Robin Murphy, Odair Fernandes(参考訳) 本稿では,災害シナリオにおける視覚的知覚のための大規模ハリケーン・マイケルデータセットと,セマンティックセグメンテーションのための最先端深層ニューラルネットワークモデルについて述べる。 データセットは約2000の高解像度空中画像からなり、セマンティックセグメンテーションのための注釈付き地対地データを含んでいる。 データセットの課題を議論し、このデータセットの最先端のメソッドを訓練し、これらの手法が災害状況をどのように認識できるかを評価する。 最後に,今後の研究課題について論じる。

In this paper, we present a large-scale hurricane Michael dataset for visual perception in disaster scenarios, and analyze state-of-the-art deep neural network models for semantic segmentation. The dataset consists of around 2000 high-resolution aerial images, with annotated ground-truth data for semantic segmentation. We discuss the challenges of the dataset and train the state-of-the-art methods on this dataset to evaluate how well these methods can recognize the disaster situations. Finally, we discuss challenges for future research.
翻訳日:2022-10-22 19:27:43 公開日:2020-09-06
# 圧電エネルギーハーベスターを用いた同時エネルギーハーベスティングと歩行認識

Simultaneous Energy Harvesting and Gait Recognition using Piezoelectric Energy Harvester ( http://arxiv.org/abs/2009.02752v1 )

ライセンス: Link先を確認
Dong Ma, Guohao Lan, Weitao Xu, Mahbub Hassan, Wen Hu(参考訳) 応力や振動から電気を発生させる圧電式エネルギー回収装置は、ウェアラブルの電池寿命を延ばすための有効なソリューションとして注目を集めている。 近年の研究では、PEHはエネルギーを発生させるだけでなく、その応力や振動パターンが歩行に大きく影響するため、人間の歩行を効率よく検出する受動的センサーとしても機能することが明らかになった。 しかし、PEHは運動の正確な測定のために設計されていないため、従来の分類アルゴリズムでは歩行認識精度は低いままである。 発生した電気を同時に記憶すると、精度はさらに悪化する。 生成エネルギーを同時保存しながら確実に歩行を分類するために、2つの異なる貢献をする。 まず,PEH電気信号に対するエネルギー貯蔵の効果をフィルタする前処理アルゴリズムを提案する。 第2に,歩行による電力発生の時間的情報を正確に把握する長寿命メモリ(LSTM)ネットワーク分類器を提案する。 提案した歩行認識アーキテクチャをインソールの形状因子として試作し,その歩行認識とエネルギー収穫性能を20被験者で評価した。 その結果,提案手法は,リコール率12%以上の歩行を検知し,最大127%のエネルギーを消費しながら38%の消費電力を消費することがわかった。

Piezoelectric energy harvester, which generates electricity from stress or vibrations, is gaining increasing attention as a viable solution to extend battery life in wearables. Recent research further reveals that, besides generating energy, PEH can also serve as a passive sensor to detect human gait power-efficiently because its stress or vibration patterns are significantly influenced by the gait. However, as PEHs are not designed for precise measurement of motion, achievable gait recognition accuracy remains low with conventional classification algorithms. The accuracy deteriorates further when the generated electricity is stored simultaneously. To classify gait reliably while simultaneously storing generated energy, we make two distinct contributions. First, we propose a preprocessing algorithm to filter out the effect of energy storage on PEH electricity signal. Second, we propose a long short-term memory (LSTM) network-based classifier to accurately capture temporal information in gait-induced electricity generation. We prototype the proposed gait recognition architecture in the form factor of an insole and evaluate its gait recognition as well as energy harvesting performance with 20 subjects. Our results show that the proposed architecture detects human gait with 12% higher recall and harvests up to 127% more energy while consuming 38% less power compared to the state-of-the-art.
翻訳日:2022-10-21 08:42:51 公開日:2020-09-06
# Libri-Adapt: 教師なしドメイン適応のための新しい音声データセット

Libri-Adapt: A New Speech Dataset for Unsupervised Domain Adaptation ( http://arxiv.org/abs/2009.02814v1 )

ライセンス: Link先を確認
Akhil Mathur, Fahim Kawsar, Nadia Berthouze, Nicholas D. Lane(参考訳) 本稿では,音声認識モデルにおける教師なし領域適応研究を支援するための新しいデータセットLibri-Adaptを提案する。 LibriSpeechコーパス上に構築されたLibri-Adaptは、モバイルと組み込みのマイクで録音された英語の音声を含み、72の異なるドメインにまたがる。 具体的には、Libri-AdaptはASRモデルにおけるドメインシフトの研究を促進する。 a) 異なる音響環境 b) 話者アクセントの変動 c)マイクロホンのハードウェア及びプラットフォームソフトウェアにおける異質性 d) 上記3つのシフトの組み合わせ また、これらのドメインシフトがMozilla DeepSpeech2 ASRモデルに与える影響を定量化するベースライン結果も提供します。

This paper introduces a new dataset, Libri-Adapt, to support unsupervised domain adaptation research on speech recognition models. Built on top of the LibriSpeech corpus, Libri-Adapt contains English speech recorded on mobile and embedded-scale microphones, and spans 72 different domains that are representative of the challenging practical scenarios encountered by ASR models. More specifically, Libri-Adapt facilitates the study of domain shifts in ASR models caused by a) different acoustic environments, b) variations in speaker accents, c) heterogeneity in the hardware and platform software of the microphones, and d) a combination of the aforementioned three shifts. We also provide a number of baseline results quantifying the impact of these domain shifts on the Mozilla DeepSpeech2 ASR model.
翻訳日:2022-10-21 08:42:28 公開日:2020-09-06
# resnet34をバックボーンとして用いた胸部x線における気胸セグメンテーション第2報

The 2ST-UNet for Pneumothorax Segmentation in Chest X-Rays using ResNet34 as a Backbone for U-Net ( http://arxiv.org/abs/2009.02805v1 )

ライセンス: Link先を確認
Ayat Abedalla, Malak Abdullah, Mahmoud Al-Ayyoub, Elhadj Benkhelifa(参考訳) 気胸(しつどう、英: pneumothorax)とは、肺と胸壁の間の胸腔に空気が存在することを指す。 小さく(治療を必要とせず)、あるいは大きくなり、時間通りに特定・治療されないと死亡することがある。 胸部x線を用いて専門家によって容易に見分けられる。 この方法はほとんどエラーのないものですが、時間がかかり、専門家の放射線科医が必要です。 近年,コンピュータビジョンは肺気胸の検出・分節に大いに役立っている。 本稿では,気胸像を分割する2段階訓練システム (2st-unet) を提案する。 このシステムは、ImageNetデータセットで事前トレーニングされたResidual Networks (ResNet-34)バックボーンを備えたU-Netに基づいて構築されている。 まず、トレーニングされたモデルの重みをロードする前に、低い解像度でネットワークをトレーニングし、より高い解像度でネットワークを再トレーニングします。 また,SWA (Stochastic Weight Averaging) やデータ拡張 (Data Augmentation) ,テスト時間拡張 (Test-Time Augmentation) など,様々な手法を利用する。 2019 siim-acr pneumothorax segmentation challengeで提供されている胸部x線データセットは、12,047枚のトレーニング画像と3,205枚のテスト画像を含んでいる。 実験の結果,2段階トレーニングがネットワーク収束の高速化につながることがわかった。 提案手法は,1,475点中124点のモデルのうち,上位9%にDice similarity Coefficient(DSC)を配置する平均0。

Pneumothorax, also called a collapsed lung, refers to the presence of the air in the pleural space between the lung and chest wall. It can be small (no need for treatment), or large and causes death if it is not identified and treated on time. It is easily seen and identified by experts using a chest X-ray. Although this method is mostly error-free, it is time-consuming and needs expert radiologists. Recently, Computer Vision has been providing great assistance in detecting and segmenting pneumothorax. In this paper, we propose a 2-Stage Training system (2ST-UNet) to segment images with pneumothorax. This system is built based on U-Net with Residual Networks (ResNet-34) backbone that is pre-trained on the ImageNet dataset. We start with training the network at a lower resolution before we load the trained model weights to retrain the network with a higher resolution. Moreover, we utilize different techniques including Stochastic Weight Averaging (SWA), data augmentation, and Test-Time Augmentation (TTA). We use the chest X-ray dataset that is provided by the 2019 SIIM-ACR Pneumothorax Segmentation Challenge, which contains 12,047 training images and 3,205 testing images. Our experiments show that 2-Stage Training leads to better and faster network convergence. Our method achieves 0.8356 mean Dice Similarity Coefficient (DSC) placing it among the top 9% of models with a rank of 124 out of 1,475.
翻訳日:2022-10-21 08:40:59 公開日:2020-09-06
# 教師なしワッサースタイン距離誘導領域適応による3次元マルチドメイン肝切除

Unsupervised Wasserstein Distance Guided Domain Adaptation for 3D Multi-Domain Liver Segmentation ( http://arxiv.org/abs/2009.02831v1 )

ライセンス: Link先を確認
Chenyu You, Junlin Yang, Julius Chapiro, James S. Duncan(参考訳) ディープニューラルネットワークは、大量のラベル付きデータを提供する場合、ソースドメインで例外的な学習能力と一般化性を示す。 しかし、よく訓練されたモデルは、しばしばドメインシフトのためにターゲットドメインで失敗する。 教師なしドメイン適応(unsupervised domain adaptation)は、ソースドメインから医療画像にトレーニングされた堅牢なモデルを新しいターゲットドメインに適用する際のネットワークパフォーマンスを改善することを目的としている。 本稿では,ワッサースタイン距離誘導不整合表現に基づく3次元マルチドメイン肝セグメンテーションの手法を提案する。 具体的には、ドメイン間の共有特徴レベル情報とドメイン固有の外観空間をキャプチャする共有コンテンツ空間に画像を埋め込む。 既存の相互情報に基づく表現学習アプローチは、多領域の医療画像タスクにおける完全な表現を捕捉できないことが多い。 これらの問題を緩和するため、wasserstein距離を利用してより完全な表現を学習し、コンテンツ判別器を導入し、表現の絡み合いをより容易にする。 実験により,本手法はマルチモーダリティ肝セグメンテーションタスクにおける最先端技術よりも優れていることが示された。

Deep neural networks have shown exceptional learning capability and generalizability in the source domain when massive labeled data is provided. However, the well-trained models often fail in the target domain due to the domain shift. Unsupervised domain adaptation aims to improve network performance when applying robust models trained on medical images from source domains to a new target domain. In this work, we present an approach based on the Wasserstein distance guided disentangled representation to achieve 3D multi-domain liver segmentation. Concretely, we embed images onto a shared content space capturing shared feature-level information across domains and domain-specific appearance spaces. The existing mutual information-based representation learning approaches often fail to capture complete representations in multi-domain medical imaging tasks. To mitigate these issues, we utilize Wasserstein distance to learn more complete representation, and introduces a content discriminator to further facilitate the representation disentanglement. Experiments demonstrate that our method outperforms the state-of-the-art on the multi-modality liver segmentation task.
翻訳日:2022-10-21 08:40:35 公開日:2020-09-06
# ロボット協調プロセスのための階層的アーキテクチャ

A Hierarchical Architecture for Human-Robot Cooperation Processes ( http://arxiv.org/abs/2009.02807v1 )

ライセンス: Link先を確認
Kourosh Darvish, Enrico Simetti, Fulvio Mastrogiovanni, Giuseppe Casalino(参考訳) 本稿では,多変量ショップ床作業において,作業者の自律性を高めるために設計された階層型人間ロボット協調アーキテクチャflexhrc+を提案する。 アーキテクチャは、知覚、表現、行動の3つのレベルを含んでいる。 以前の仕事にもとづいて 焦点を絞って (i)人手による行動の変動に対応する協調ロボットの運用のためのループ内意思決定プロセス (ii)一階述語論理を用いてオンライン動作を形式的に指定する階層的および/またはグラフを統合する表現レベル。 このアーキテクチャには、コラボレーティブな家具組み立てとオブジェクトの位置決めタスクを含む実験が伴っている。

In this paper we propose FlexHRC+, a hierarchical human-robot cooperation architecture designed to provide collaborative robots with an extended degree of autonomy when supporting human operators in high-variability shop-floor tasks. The architecture encompasses three levels, namely for perception, representation, and action. Building up on previous work, here we focus on (i) an in-the-loop decision making process for the operations of collaborative robots coping with the variability of actions carried out by human operators, and (ii) the representation level, integrating a hierarchical AND/OR graph whose online behaviour is formally specified using First Order Logic. The architecture is accompanied by experiments including collaborative furniture assembly and object positioning tasks.
翻訳日:2022-10-21 08:40:19 公開日:2020-09-06
# ECG合成とデノナイズに対する生成的敵対的アプローチ

A Generative Adversarial Approach To ECG Synthesis And Denoising ( http://arxiv.org/abs/2009.02700v1 )

ライセンス: Link先を確認
Karol Antczak(参考訳) GAN(Generative Adversarial Networks)は、人間によって実際のものと区別が難しい合成データを生成することで知られている。 本稿では,GANを用いて現実的なECG信号を生成する手法を提案する。 我々はこれらを利用してECG信号の最先端のフィルタリング品質を実現するデノナイズオートエンコーダを訓練し評価する。 実データのみにトレーニングされたモデルと比較して,生成データの性能が向上することを示す。 また,訓練された判別器ネットワークを用いた情報伝達学習の効果について検討した。

Generative Adversarial Networks (GAN) are known to produce synthetic data that are difficult to discern from real ones by humans. In this paper we present an approach to use GAN to produce realistically looking ECG signals. We utilize them to train and evaluate a denoising autoencoder that achieves state-of-the-art filtering quality for ECG signals. It is demonstrated that generated data improves the model performance compared to the model trained on real data only. We also investigate an effect of transfer learning by reusing trained discriminator network for denoising model.
翻訳日:2022-10-21 08:39:19 公開日:2020-09-06
# 非定常バンディットのための変化検出に基づくトンプソンサンプリングフレームワーク

A Change-Detection Based Thompson Sampling Framework for Non-Stationary Bandits ( http://arxiv.org/abs/2009.02791v1 )

ライセンス: Link先を確認
Gourab Ghatak(参考訳) 本研究では,非定常な2本腕バンディット・フレームワークについて検討し,動的環境の追跡を行うため,TS(change-detection with TS-CD)アルゴリズムを提案する。 非定常性はポアソン到着過程を用いてモデル化され、到着毎の報酬の平均が変化する。 提案手法は,最近の腕の報酬に対する経験的平均と,その歴史から得られる報酬の平均の推定値を比較した。 経験平均が平均推定値から閾値よりも大きい値でずれたときの変化を検出する。 そこで我々は,TS-CDが変化を検知するために,帯域幅が一定でなければならない時間窓の時間境界を特徴付ける。 その結果,ポアソンの到着過程のパラメータの上限が明らかになり,TS-CDは漸近的後悔の最適性を高い確率で達成した。 最後に,無線ネットワークにおける無線アクセス技術(RAT)選択のエッジ制御のためのTS-CDの有効性を検証する。 以上の結果から,ts-cdは古典的マックスパワーラット選択戦略に勝るだけでなく,非定常環境向けに設計された能動的適応型および受動的適応型バンディットアルゴリズムに勝ることが示された。

We consider a non-stationary two-armed bandit framework and propose a change-detection based Thompson sampling (TS) algorithm, named TS with change-detection (TS-CD), to keep track of the dynamic environment. The non-stationarity is modeled using a Poisson arrival process, which changes the mean of the rewards on each arrival. The proposed strategy compares the empirical mean of the recent rewards of an arm with the estimate of the mean of the rewards from its history. It detects a change when the empirical mean deviates from the mean estimate by a value larger than a threshold. Then, we characterize the lower bound on the duration of the time-window for which the bandit framework must remain stationary for TS-CD to successfully detect a change when it occurs. Consequently, our results highlight an upper bound on the parameter for the Poisson arrival process, for which the TS-CD achieves asymptotic regret optimality with high probability. Finally, we validate the efficacy of TS-CD by testing it for edge-control of radio access technique (RAT)-selection in a wireless network. Our results show that TS-CD not only outperforms the classical max-power RAT selection strategy but also other actively adaptive and passively adaptive bandit algorithms that are designed for non-stationary environments.
翻訳日:2022-10-21 08:38:49 公開日:2020-09-06
# ディープニューラルネットワークの高次準モンテカルロ訓練

Higher-order Quasi-Monte Carlo Training of Deep Neural Networks ( http://arxiv.org/abs/2009.02713v1 )

ライセンス: Link先を確認
M. Longo, S. Mishra, T. K. Rusch, Ch. Schwab(参考訳) 本稿では,DNN (Deep Neural Network) によるDtO (Data-to-Observable) マップのトレーニングに準モンテカルロ点を用いた新しいアルゴリズム手法と誤差解析を提案する。 本解析により,tanhなどの正則活性化関数を持つ深層および浅層ニューラルネットワークの入力データ空間におけるトレーニング点の高次一貫性,決定論的選択が明らかになった。 これらの新しいトレーニングポイントは、基礎となる一般化誤差の高次減衰(トレーニングサンプル数)を促進することが証明され、入力データ空間における次元の呪いのない整合誤差境界は、隠蔽層におけるDNN重みが一定の総和条件を満たすことを仮定する。 本稿では,理論解析を裏付ける不確定な入力を持つ楕円型および放物型pdesからのdto写像の数値実験を行う。

We present a novel algorithmic approach and an error analysis leveraging Quasi-Monte Carlo points for training deep neural network (DNN) surrogates of Data-to-Observable (DtO) maps in engineering design. Our analysis reveals higher-order consistent, deterministic choices of training points in the input data space for deep and shallow Neural Networks with holomorphic activation functions such as tanh. These novel training points are proved to facilitate higher-order decay (in terms of the number of training samples) of the underlying generalization error, with consistency error bounds that are free from the curse of dimensionality in the input data space, provided that DNN weights in hidden layers satisfy certain summability conditions. We present numerical experiments for DtO maps from elliptic and parabolic PDEs with uncertain inputs that confirm the theoretical analysis.
翻訳日:2022-10-21 08:38:13 公開日:2020-09-06
# TransPR: 透明光集積型ニューラル3Dシーンポイントレンダ

TRANSPR: Transparency Ray-Accumulating Neural 3D Scene Point Renderer ( http://arxiv.org/abs/2009.02819v1 )

ライセンス: Link先を確認
Maria Kolos, Artem Sevastopolsky, Victor Lempitsky(参考訳) 半透明シーンをモデル化するニューラルポイントベースグラフィック手法を提案し,その評価を行った。 前身のパイプラインと同様に、wesはプロキシジオメトリのモデル化にポイントクラウドを使用し、各ポイントをニューラルネットワーク記述子で拡張する。 さらに、各ポイントのアプローチで学習可能な透明性値を導入しました。 我々のニューラルレンダリング手順は2つのステップからなる。 まず、多チャンネル画像にレイグルーピングを用いて点雲をラスタライズする。 次に、学習可能な畳み込みネットワークを使用してラスタ化画像をRGB出力に“翻訳”するニューラルネットワークレンダリングステップが続く。 ニューラルディスクリプタとレンダリングネットワークの勾配に基づく最適化を使用して、新しいシーンをモデル化することができる。 半透明点クラウドシーンの新しいビューは、我々のアプローチでトレーニングした後生成できることを示します。 実験では,半透明部分を有するシーンのニューラルポイントベースモデリングに半透明性を導入することの利点を実証する。

We propose and evaluate a neural point-based graphics method that can model semi-transparent scene parts. Similarly to its predecessor pipeline, ours uses point clouds to model proxy geometry, and augments each point with a neural descriptor. Additionally, a learnable transparency value is introduced in our approach for each point. Our neural rendering procedure consists of two steps. Firstly, the point cloud is rasterized using ray grouping into a multi-channel image. This is followed by the neural rendering step that "translates" the rasterized image into an RGB output using a learnable convolutional network. New scenes can be modeled using gradient-based optimization of neural descriptors and of the rendering network. We show that novel views of semi-transparent point cloud scenes can be generated after training with our approach. Our experiments demonstrate the benefit of introducing semi-transparency into the neural point-based modeling for a range of scenes with semi-transparent parts.
翻訳日:2022-10-21 08:32:09 公開日:2020-09-06
# 悪天候に対するロバスト性評価・改善のための降雨レンダリング

Rain rendering for evaluating and improving robustness to bad weather ( http://arxiv.org/abs/2009.03683v1 )

ライセンス: Link先を確認
Maxime Tremblay, Shirsendu Sukanta Halder, Raoul de Charette, Jean-Fran\c{c}ois Lalonde(参考訳) 雨は大気を水粒子で満たし、光がシーンからカメラへと変化しないという一般的な仮定を破る。 雨がコンピュータビジョンアルゴリズムに影響を与えることはよく知られているが、その影響の定量化は難しい。 本稿では,一般的なコンピュータビジョンアルゴリズムを体系的に評価し,降雨量を制御できるレインレンダリングパイプラインを提案する。 我々は,既存の画像データセットに人工雨を加える3つの異なる方法を提案する。 物理粒子シミュレータと正確な降雨測光モデルを組み合わせた物理系雨補強法である。 ユーザスタディでレンダリング手法を検証し、雨が最先端技術よりも73%もリアルであると判断されたことを実証する。 降雨量の増加したKITTI,Cityscapes,nuScenesのデータセットを用いて,オブジェクト検出,セマンティックセグメンテーション,深度推定アルゴリズムの徹底的な評価を行い,オブジェクト検出の15%,セマンティックセグメンテーションの60%,深度推定誤差の6倍の順で,その性能が低下することを示す。 拡張された合成データの微調整により、オブジェクト検出で21%、セマンティックセグメンテーションで37%、深さ推定で8%の改善が得られました。

Rain fills the atmosphere with water particles, which breaks the common assumption that light travels unaltered from the scene to the camera. While it is well-known that rain affects computer vision algorithms, quantifying its impact is difficult. In this context, we present a rain rendering pipeline that enables the systematic evaluation of common computer vision algorithms to controlled amounts of rain. We present three different ways to add synthetic rain to existing images datasets: completely physic-based; completely data-driven; and a combination of both. The physic-based rain augmentation combines a physical particle simulator and accurate rain photometric modeling. We validate our rendering methods with a user study, demonstrating our rain is judged as much as 73% more realistic than the state-of-theart. Using our generated rain-augmented KITTI, Cityscapes, and nuScenes datasets, we conduct a thorough evaluation of object detection, semantic segmentation, and depth estimation algorithms and show that their performance decreases in degraded weather, on the order of 15% for object detection, 60% for semantic segmentation, and 6-fold increase in depth estimation error. Finetuning on our augmented synthetic data results in improvements of 21% on object detection, 37% on semantic segmentation, and 8% on depth estimation.
翻訳日:2022-10-21 08:31:55 公開日:2020-09-06
# SemEval-2020 タスク11:ニュース記事におけるプロパガンダ技術の検出

SemEval-2020 Task 11: Detection of Propaganda Techniques in News Articles ( http://arxiv.org/abs/2009.02696v1 )

ライセンス: Link先を確認
G. Da San Martino, A. Barr\'on-Cede\~no, H. Wachsmuth, R. Petrov, P. Nakov(参考訳) 本稿では,新聞記事におけるプロパガンダ技術の検出に関するSemEval-2020 Task 11の結果と主な成果を紹介する。 タスクには2つのサブタスクがあった。 Subtask SI は Span Identification に関するものだ。 プレーンテキストのドキュメントが与えられたら、プロパガンダを含む特定のテキストの断片を見つける。 特定のテキスト断片が与えられたとき、完全なドキュメントの文脈で、それが使用するプロパガンダのテクニックを決定し、14の可能なプロパガンダのテクニックのインベントリから選択する。 250チームが参加して参加し、44人がテストセットに応募した。 本稿では,タスクを提示し,結果を分析し,システム提案とそれを用いた手法について考察する。 両方のサブタスクでは、最高のシステムは事前訓練されたトランスフォーマーとアンサンブルを使用する。

We present the results and the main findings of SemEval-2020 Task 11 on Detection of Propaganda Techniques in News Articles. The task featured two subtasks. Subtask SI is about Span Identification: given a plain-text document, spot the specific text fragments containing propaganda. Subtask TC is about Technique Classification: given a specific text fragment, in the context of a full document, determine the propaganda technique it uses, choosing from an inventory of 14 possible propaganda techniques. The task attracted a large number of participants: 250 teams signed up to participate and 44 made a submission on the test set. In this paper, we present the task, analyze the results, and discuss the system submissions and the methods they used. For both subtasks, the best systems used pre-trained Transformers and ensembles.
翻訳日:2022-10-21 08:31:18 公開日:2020-09-06
# 乗算器とlsmrの交互方向法によるフィードフォワードニューラルネットワークの学習のためのfpga高速化手法

An FPGA Accelerated Method for Training Feed-forward Neural Networks Using Alternating Direction Method of Multipliers and LSMR ( http://arxiv.org/abs/2009.02784v1 )

ライセンス: Link先を確認
Seyedeh Niusha Alavi Foumani, Ce Guo, Wayne Luk(参考訳) 本稿では,ニューラルネットワークトレーニングのための新しいFPGA高速化アルゴリズムの設計,実装,デプロイ,試験を行った。 アルゴリズム自体は独立した研究オプションで開発された。 本手法は,LSMRを用いたハードウェア設計において問題となる行列逆転などの手法を回避し,並列特性の強い乗算器の交互方向法に基づく。 中間段階として,柔軟な層数と隠れサイズを持つフィードフォワードニューラルネットワークのためのADMM-LSMR法をC言語で完全に実装した。 本手法は, 精度を損なうことなく, 定点演算で動作可能であることを示した。 次に,Intel FPGA SDK for OpenCLを用いたFPGA高速化バージョンを考案し,さらにIntel Arria 10 GX FPGA上でプログラムのデプロイに成功した。 FPGAアクセラレーションプログラムは、同等のCPU実装と比較して最大6倍の速度で動作し、有望な精度を実現した。

In this project, we have successfully designed, implemented, deployed and tested a novel FPGA accelerated algorithm for neural network training. The algorithm itself was developed in an independent study option. This training method is based on Alternating Direction Method of Multipliers algorithm, which has strong parallel characteristics and avoids procedures such as matrix inversion that are problematic in hardware designs by employing LSMR. As an intermediate stage, we fully implemented the ADMM-LSMR method in C language for feed-forward neural networks with a flexible number of layers and hidden size. We demonstrated that the method can operate with fixed-point arithmetic without compromising the accuracy. Next, we devised an FPGA accelerated version of the algorithm using Intel FPGA SDK for OpenCL and performed extensive optimisation stages followed by successful deployment of the program on an Intel Arria 10 GX FPGA. The FPGA accelerated program showed up to 6 times speed up comparing to equivalent CPU implementation while achieving promising accuracy.
翻訳日:2022-10-21 08:31:04 公開日:2020-09-06
# 引用数予測のための引用ネットワーク構造 : ディープラーニングによるアプローチ

Utilizing Citation Network Structure to Predict Citation Counts: A Deep Learning Approach ( http://arxiv.org/abs/2009.02647v1 )

ライセンス: Link先を確認
Qihang Zhao(参考訳) 科学技術の発展に伴い、毎年世界中で発行される学術論文の数は、ほぼ指数関数的に増加した。 多くの研究論文が科学と技術の繁栄を強調する一方で、いくつかの問題も提起している。 誰もが知っているように、学術論文は研究結果の最も直感的な具体化であり、研究者のレベルを反映することができる。 また、資金調達や資金配分などの意思決定の評価基準でもある。 したがって、学術論文の質を測定する方法は非常に重要である。 学術論文を測定するための最も一般的な基準は論文の引用数であり、この指標は科学論文の評価に広く使われており、他の多くの指標(h-indexなど)の基礎にもなっている。 したがって、学術論文の引用数を正確に予測できることは非常に重要である。 本稿では,情報カスケードの効果を組み合わせたエンドツーエンドのディープラーニングネットワークであるDeepCCPを提案し,情報カスケード予測の観点から引用数予測問題を考察する。 DeepCCPは、紙の初期段階に形成された引用ネットワークを直接入力として使用し、その出力は一定期間後に対応する紙の引用数である。 deepccpは、引用ネットワークの構造と時間情報のみを使用し、他の追加情報を必要としないが、優れた性能を達成できる。 6つの実データ集合の実験によると、DeepCCPは引用数予測の精度において最先端の手法よりも優れている。

With the advancement of science and technology, the number of academic papers published in the world each year has increased almost exponentially. While a large number of research papers highlight the prosperity of science and technology, they also give rise to some problems. As we all know, academic papers are the most intuitive embodiment of the research results of scholars, which can reflect the level of researchers. It is also the evaluation standard for decision-making such as promotion and allocation of funds. Therefore, how to measure the quality of an academic paper is very important. The most common standard for measuring academic papers is the number of citation counts of papers, because this indicator is widely used in the evaluation of scientific publications, and it also serves as the basis for many other indicators (such as the h-index). Therefore, it is very important to be able to accurately predict the citation counts of academic papers. This paper proposes an end-to-end deep learning network, DeepCCP, which combines the effect of information cascade and looks at the citation counts prediction problem from the perspective of information cascade prediction. DeepCCP directly uses the citation network formed in the early stage of the paper as the input, and the output is the citation counts of the corresponding paper after a period of time. DeepCCP only uses the structure and temporal information of the citation network, and does not require other additional information, but it can still achieve outstanding performance. According to experiments on 6 real data sets, DeepCCP is superior to the state-of-the-art methods in terms of the accuracy of citation count prediction.
翻訳日:2022-10-21 08:30:48 公開日:2020-09-06
# Perfusion Imaging: データ同化アプローチ

Perfusion Imaging: A Data Assimilation Approach ( http://arxiv.org/abs/2009.02796v1 )

ライセンス: Link先を確認
Peirong Liu, Yueh Z. Lee, Stephen R. Aylward, and Marc Niethammer(参考訳) 灌流画像(PI)は脳卒中や脳腫瘍の診断に用いられる。 一般的に用いられるPIアプローチはMRI(MRI)またはCT(CT)に基づいており、造影剤が血管を通って組織に移動する影響を測定する。 例えば、ボクセル内無干渉運動に基づくコントラストエージェントフリーアプローチも存在しているが、臨床ではあまり使われていない。 これらの方法は動脈入力関数(aif)を概ねモデル組織灌流まで推定し、空間依存を無視し、確実にaifを推定することは非自明であり、灌流対策の標準化が困難となる。 そこで本研究では, コントラスト力学を最もよく説明できる対流拡散モデルの速度場と拡散場を推定するデータ同化手法(PIANO)を提案する。 PIANOは空間的依存を考慮せず、AIFを推定したり、特定のコントラスト剤のボーラス形状に依存したりする必要もない。 具体的には, 推定問題のパラメータ化, 数値推定手法を提案し, PIANOを広範囲に評価する。 PIANOは, 脳卒中評価において, 従来の灌流法と比較して, 速度と拡散場の曖昧さの解消に成功し, 感度の高い測定結果が得られることを示した。

Perfusion imaging (PI) is clinically used to assess strokes and brain tumors. Commonly used PI approaches based on magnetic resonance imaging (MRI) or computed tomography (CT) measure the effect of a contrast agent moving through blood vessels and into tissue. Contrast-agent free approaches, for example, based on intravoxel incoherent motion, also exist, but are so far not routinely used clinically. These methods rely on estimating on the arterial input function (AIF) to approximately model tissue perfusion, neglecting spatial dependencies, and reliably estimating the AIF is also non-trivial, leading to difficulties with standardizing perfusion measures. In this work we therefore propose a data-assimilation approach (PIANO) which estimates the velocity and diffusion fields of an advection-diffusion model that best explains the contrast dynamics. PIANO accounts for spatial dependencies and neither requires estimating the AIF nor relies on a particular contrast agent bolus shape. Specifically, we propose a convenient parameterization of the estimation problem, a numerical estimation approach, and extensively evaluate PIANO. We demonstrate that PIANO can successfully resolve velocity and diffusion field ambiguities and results in sensitive measures for the assessment of stroke, comparing favorably to conventional measures of perfusion.
翻訳日:2022-10-21 08:29:37 公開日:2020-09-06
# レーン追従アクターのゴール指向動作予測

Goal-Directed Occupancy Prediction for Lane-Following Actors ( http://arxiv.org/abs/2009.12174v1 )

ライセンス: Link先を確認
Poornima Kaniarasu, Galen Clark Haynes, Micol Marchetti-Bowick(参考訳) 共有道路を走る車両の将来の挙動を予測することは、安全な自動運転にとって重要なタスクである。 この問題に対する既存の多くのアプローチは、全ての可能な車両の挙動を単純化された高レベルの行動に蒸留しようと試みている。 しかし、これらのアクションカテゴリは、現実世界で遭遇する複雑な道路網で可能な全範囲の操作を記述するのに十分ではない。 この不足に対処するために,マップドロードトポロジーを利用して可能な目標を推論し,ダイナミックロードアクタの将来の空間占有率を予測する新しい手法を提案する。 提案手法は,地図付きレーン形状に整合した将来の占有率を正確に予測し,局所的なシーンコンテキストに基づくマルチモーダル性を自然に捉えつつ,先行作業で観測されるモード崩壊問題に悩まされないことを示す。

Predicting the possible future behaviors of vehicles that drive on shared roads is a crucial task for safe autonomous driving. Many existing approaches to this problem strive to distill all possible vehicle behaviors into a simplified set of high-level actions. However, these action categories do not suffice to describe the full range of maneuvers possible in the complex road networks we encounter in the real world. To combat this deficiency, we propose a new method that leverages the mapped road topology to reason over possible goals and predict the future spatial occupancy of dynamic road actors. We show that our approach is able to accurately predict future occupancy that remains consistent with the mapped lane geometry and naturally captures multi-modality based on the local scene context while also not suffering from the mode collapse problem observed in prior work.
翻訳日:2022-10-21 08:22:45 公開日:2020-09-06
# MIDAS at SemEval-2020 Task 10: Emphasis Selection using Label Distribution Learning and Contextual Embeddings

MIDAS at SemEval-2020 Task 10: Emphasis Selection using Label Distribution Learning and Contextual Embeddings ( http://arxiv.org/abs/2009.02619v1 )

ライセンス: Link先を確認
Sarthak Anand, Pradyumna Gupta, Hemant Yadav, Debanjan Mahata, Rakesh Gosangi, Haimin Zhang, Rajiv Ratn Shah(参考訳) 本稿では,本論文のテキスト強調選択に関するsemval 2020 - task 10への提案について述べる。 我々は,この強調選択問題を,様々な文脈埋め込みモデルを用いて基礎となるテキストを表現するシーケンスラベリングタスクとしてアプローチする。 また,アノテータの不一致を考慮したラベル分布学習も行った。 モデルアーキテクチャの選択、レイヤのトレーニング可能性、異なるコンテキストの埋め込みを実験します。 私たちの最高のパフォーマンスアーキテクチャは、さまざまなモデルの集合体で、全体的なマッチングスコアは0.783で、31チーム中15位です。 最後に, 音声タグ, 文長, 単語の順序などの観点から分析を行った。

This paper presents our submission to the SemEval 2020 - Task 10 on emphasis selection in written text. We approach this emphasis selection problem as a sequence labeling task where we represent the underlying text with various contextual embedding models. We also employ label distribution learning to account for annotator disagreements. We experiment with the choice of model architectures, trainability of layers, and different contextual embeddings. Our best performing architecture is an ensemble of different models, which achieved an overall matching score of 0.783, placing us 15th out of 31 participating teams. Lastly, we analyze the results in terms of parts of speech tags, sentence lengths, and word ordering.
翻訳日:2022-10-21 08:22:30 公開日:2020-09-06
# 可視化における一時期--因果関係における文章的物語の使用の理解

Once Upon A Time In Visualization: Understanding the Use of Textual Narratives for Causality ( http://arxiv.org/abs/2009.02649v1 )

ライセンス: Link先を確認
Arjun Choudhry, Mandar Sharma, Pramod Chundury, Thomas Kapler, Derek W.S. Gray, Naren Ramakrishnan and Niklas Elmqvist(参考訳) 因果性ビジュアライゼーションは、分散システムに送信されたメッセージ、歴史的紛争の原因と効果、時間とともに政治的アクター間の相互作用など、イベントの時間的連鎖を理解するのに役立つ。 しかし、これらのイベントシーケンスのスケールと複雑さが大きくなるにつれて、これらの視覚化でさえ圧倒的に利用できなくなる。 本稿では、因果性可視化を強化するためのデータ駆動型ストーリーテリング手法としてテキスト物語を提案する。 まず,因果的データを記述するために,テキスト・ナラティブを用いた設計空間を提案する。 次に,2つの因果関係の可視化から因果関係の情報を復元するよう被験者に依頼した,クラウドソースによるユーザ調査の結果を提示する。 最後に、特定の介入が因果モデルにどのように影響するかを理解するための因果可視化システムであるCAUSEWORKSについて述べる。 本システムは,デザイン空間に基づく自動テキスト物語機構を組み込んでいる。 複雑な事象を理解するためにシステムを利用した専門家へのインタビューを通じてCAUSEWORKSを検証する。

Causality visualization can help people understand temporal chains of events, such as messages sent in a distributed system, cause and effect in a historical conflict, or the interplay between political actors over time. However, as the scale and complexity of these event sequences grows, even these visualizations can become overwhelming to use. In this paper, we propose the use of textual narratives as a data-driven storytelling method to augment causality visualization. We first propose a design space for how textual narratives can be used to describe causal data. We then present results from a crowdsourced user study where participants were asked to recover causality information from two causality visualizations--causal graphs and Hasse diagrams--with and without an associated textual narrative. Finally, we describe CAUSEWORKS, a causality visualization system for understanding how specific interventions influence a causal model. The system incorporates an automatic textual narrative mechanism based on our design space. We validate CAUSEWORKS through interviews with experts who used the system for understanding complex events.
翻訳日:2022-10-21 08:22:17 公開日:2020-09-06
# フィンランドにおける自動方言適応と知覚的創造性への影響

Automatic Dialect Adaptation in Finnish and its Effect on Perceived Creativity ( http://arxiv.org/abs/2009.02685v1 )

ライセンス: Link先を確認
Mika H\"am\"al\"ainen, Niko Partanen, Khalid Alnajjar, Jack Rueter and Thierry Poibeau(参考訳) 標準フィンランド語で書かれたテキストを異なる方言に適応させる新しいアプローチを提案する。 文字レベルのNMTモデルについて,マルチディレクタとトランスファーの学習手法を用いて実験を行った。 モデルは20以上の異なる方言でテストされる。 結果は転校学習を好んでいるように思われるが,マルチダイアレクタアプローチには強く影響しない。 言語適応がコンピュータ生成詩の創造性に与える影響について検討した。 以上の結果から,方言が標準フィンランド語から逸脱するほど,既存の評価基準よりも低いスコアが与えられる傾向が示唆された。 しかし、単語アソシエーションテストでは、クリエイティビティとオリジニティをより方言と、標準フィンランド語よりもフルエンシーと結びつける。

We present a novel approach for adapting text written in standard Finnish to different dialects. We experiment with character level NMT models both by using a multi-dialectal and transfer learning approaches. The models are tested with over 20 different dialects. The results seem to favor transfer learning, although not strongly over the multi-dialectal approach. We study the influence dialectal adaptation has on perceived creativity of computer generated poetry. Our results suggest that the more the dialect deviates from the standard Finnish, the lower scores people tend to give on an existing evaluation metric. However, on a word association test, people associate creativity and originality more with dialect and fluency more with standard Finnish.
翻訳日:2022-10-21 08:22:01 公開日:2020-09-06
# UPB at SemEval-2020 Task 9: Identifying Sentiment in Code-Mixed Social Media Texts using Transformers and Multi-Task Learning (英語)

UPB at SemEval-2020 Task 9: Identifying Sentiment in Code-Mixed Social Media Texts using Transformers and Multi-Task Learning ( http://arxiv.org/abs/2009.02780v1 )

ライセンス: Link先を確認
George-Eduard Zaharia, George-Alexandru Vlad, Dumitru-Clementin Cercel, Traian Rebedea, Costin-Gabriel Chiru(参考訳) 感情分析は、今日の世論調査で広く使われているプロセスである。 この現象は、様々な分野、特に特定の主題に関するユーザの態度や満足度に関する情報収集において応用される。 しかし、考えや思考を表現するために2つの言語を組み合わせる傾向にある文化において、そのようなプロセスを管理する作業が顕著に困難になる。 2つの言語から単語をインターリーブすることで、ユーザは簡単に表現できるが、このテクニックに慣れていない人だけでなく、標準的な意見マイニングアルゴリズムでも、テキストをはるかに理解しにくくすることができる。 本稿では,我々のチームがSemEval-2020 Task 9のために開発した,ヒンディー語とスペイン語の2つのコード混合言語をカバーするシステムについて述べる。 私たちは、トレーニング済みの単語埋め込みと同様に、いくつかのニューラルネットワークアプローチを活用するソリューションを導入することで、この問題を解決するつもりです。 我々のアプローチ (multlingual bert) はヒンディー語と英語のタスクで有望なパフォーマンスを達成し、平均的なf1-score は 0.6850 で、競争リーダーボードに登録され、62人中16位にランクインした。 スペイン語のタスクでは、別の多言語トランスフォーマーベースモデルであるXLM-RoBERTaを用いて、29人中17人のうち平均0.7064のF1スコアを得た。

Sentiment analysis is a process widely used in opinion mining campaigns conducted today. This phenomenon presents applications in a variety of fields, especially in collecting information related to the attitude or satisfaction of users concerning a particular subject. However, the task of managing such a process becomes noticeably more difficult when it is applied in cultures that tend to combine two languages in order to express ideas and thoughts. By interleaving words from two languages, the user can express with ease, but at the cost of making the text far less intelligible for those who are not familiar with this technique, but also for standard opinion mining algorithms. In this paper, we describe the systems developed by our team for SemEval-2020 Task 9 that aims to cover two well-known code-mixed languages: Hindi-English and Spanish-English. We intend to solve this issue by introducing a solution that takes advantage of several neural network approaches, as well as pre-trained word embeddings. Our approach (multlingual BERT) achieves promising performance on the Hindi-English task, with an average F1-score of 0.6850, registered on the competition leaderboard, ranking our team 16th out of 62 participants. For the Spanish-English task, we obtained an average F1-score of 0.7064 ranking our team 17th out of 29 participants by using another multilingual Transformer-based model, XLM-RoBERTa.
翻訳日:2022-10-21 08:21:23 公開日:2020-09-06
# SemEval-2020 Task 7: サプライズをハーモラスヘッドラインのアンロックの鍵として使う

Duluth at SemEval-2020 Task 7: Using Surprise as a Key to Unlock Humorous Headlines ( http://arxiv.org/abs/2009.02795v1 )

ライセンス: Link先を確認
Shuning Jin, Yue Yin, XianE Tang, Ted Pedersen(参考訳) semeval-2020タスク7: 編集されたニュース見出しの真菌性を評価する。 ユーモアの違和感理論に触発されて、私たちは対照的なアプローチを使って、編集された見出しの驚きを捉えました。 公式評価では,49件中11件目で0.531件のRMSEが得られた。 Subtask 2では、我々のシステムは精度0.632で、32件中9番目です。

We use pretrained transformer-based language models in SemEval-2020 Task 7: Assessing the Funniness of Edited News Headlines. Inspired by the incongruity theory of humor, we use a contrastive approach to capture the surprise in the edited headlines. In the official evaluation, our system gets 0.531 RMSE in Subtask 1, 11th among 49 submissions. In Subtask 2, our system gets 0.632 accuracy, 9th among 32 submissions.
翻訳日:2022-10-21 08:20:52 公開日:2020-09-06
# Active Learning++: 局所モデル記述を用いたアノテーションの推論

Active Learning++: Incorporating Annotator's Rationale using Local Model Explanation ( http://arxiv.org/abs/2009.04568v1 )

ライセンス: Link先を確認
Bhavya Ghai, Q. Vera Liao, Yunfeng Zhang, Klaus Mueller(参考訳) 本稿では,アノテータのラベルを活用できる新しいアクティブラーニング(al)フレームワークであるactive learning++を提案する。 アノテーションは、与えられたクエリの重要性に基づいて入力特徴をランク付けすることでラベルを選択するための根拠を提供することができる。 この追加のインプットを組み込むために,バググベースのクエリ by committee (qbc) サンプリング戦略における不一致対策を変更した。 すべての委員会モデルを等しく重み付けして次の事例を選択する代わりに、アノテータのランクにより高い一致で委員会モデルにより高い重みを割り当てます。 具体的には,各委員会モデルの特徴的重要度に基づく局所的な説明を作成した。 アノテータが提供する特徴ランキングと局所モデル説明との類似度スコアを用いて、対応する委員会モデルごとに重みを割り当てる。 このアプローチは、LIMEのような局所的な説明を生成するためにモデルに依存しない手法を用いて、任意の種類のMLモデルに適用できる。 シミュレーション研究により,本フレームワークはQBCベースのバニラALフレームワークよりも優れていた。

We propose a new active learning (AL) framework, Active Learning++, which can utilize an annotator's labels as well as its rationale. Annotators can provide their rationale for choosing a label by ranking input features based on their importance for a given query. To incorporate this additional input, we modified the disagreement measure for a bagging-based Query by Committee (QBC) sampling strategy. Instead of weighing all committee models equally to select the next instance, we assign higher weight to the committee model with higher agreement with the annotator's ranking. Specifically, we generated a feature importance-based local explanation for each committee model. The similarity score between feature rankings provided by the annotator and the local model explanation is used to assign a weight to each corresponding committee model. This approach is applicable to any kind of ML model using model-agnostic techniques to generate local explanation such as LIME. With a simulation study, we show that our framework significantly outperforms a QBC based vanilla AL framework.
翻訳日:2022-10-21 08:13:09 公開日:2020-09-06
# アカデミックパフォーマンス推定のための計算モデル

Computational Models for Academic Performance Estimation ( http://arxiv.org/abs/2009.02661v1 )

ライセンス: Link先を確認
Vipul Bansal, Himanshu Buckchash, Balasubramanian Raman(参考訳) 新型コロナウイルスのパンデミックによる在宅勤務における学生と学部の成績評価は,学生と学部の双方にとって大きな問題となっている。 そこで本研究では,学生の学習記録を部分的に活用する自動成績推定システムの構築に向けて,ディープラーニングと機械学習のアプローチを詳細に分析する。 私たちの主な貢献は (a)15のコースからなる大規模データセット(学術研究用公開共有) b)このデータセットの推定問題に関する統計解析とアブレーション (c)深層学習アプローチによる予測分析と,他の技術や機械学習アルゴリズムとの比較。 機能エンジニアリングや論理関数の推論に依存する従来のアプローチとは異なり、我々のアプローチは完全にデータ駆動であり、様々な予測タスクでパフォーマンスが向上する。

Evaluation of students' performance for the completion of courses has been a major problem for both students and faculties during the work-from-home period in this COVID pandemic situation. To this end, this paper presents an in-depth analysis of deep learning and machine learning approaches for the formulation of an automated students' performance estimation system that works on partially available students' academic records. Our main contributions are (a) a large dataset with fifteen courses (shared publicly for academic research) (b) statistical analysis and ablations on the estimation problem for this dataset (c) predictive analysis through deep learning approaches and comparison with other arts and machine learning algorithms. Unlike previous approaches that rely on feature engineering or logical function deduction, our approach is fully data-driven and thus highly generic with better performance across different prediction tasks.
翻訳日:2022-10-21 08:12:29 公開日:2020-09-06
# プライベートマトリックス分析のための枠組み

A Framework for Private Matrix Analysis ( http://arxiv.org/abs/2009.02668v1 )

ライセンス: Link先を確認
Jalaj Upadhyay, Sarvagya Upadhyay(参考訳) 我々は,最後の$W$の更新のみを解析に有用と考えるスライディングウィンドウモデルにおけるプライベート行列解析について検討した。 我々は、スペクトル近似、主成分分析、線形回帰のための空間微分プライベートアルゴリズムを第1の効率$o(W)$で提供する。 また,主成分分析の2つの重要な変種であるスパース主成分分析と非負主成分分析に対して,効率的な微分プライベートアルゴリズムを導入する。 我々の研究以前には、静的なデータ設定においてもスパースかつ非負の差分な主成分分析ではそのような結果は知られていなかった。 これらのアルゴリズムは、ストリーム行列から形成される正の半定義行列上の十分条件を同定することによって得られる。 また、アルゴリズムが乗法近似と加法誤差を与える場合でも、低ランク近似を計算するのに必要な空間上の下限を示す。 これは、ある通信複雑性の問題への還元によるものである。

We study private matrix analysis in the sliding window model where only the last $W$ updates to matrices are considered useful for analysis. We give first efficient $o(W)$ space differentially private algorithms for spectral approximation, principal component analysis, and linear regression. We also initiate and show efficient differentially private algorithms for two important variants of principal component analysis: sparse principal component analysis and non-negative principal component analysis. Prior to our work, no such result was known for sparse and non-negative differentially private principal component analysis even in the static data setting. These algorithms are obtained by identifying sufficient conditions on positive semidefinite matrices formed from streamed matrices. We also show a lower bound on space required to compute low-rank approximation even if the algorithm gives multiplicative approximation and incurs additive error. This follows via reduction to a certain communication complexity problem.
翻訳日:2022-10-21 08:12:20 公開日:2020-09-06
# アクティブ集合同定のためのスクリーニング規則とその複雑さ

Screening Rules and its Complexity for Active Set Identification ( http://arxiv.org/abs/2009.02709v1 )

ライセンス: Link先を確認
Eugene Ndiaye and Olivier Fercoq and Joseph Salmon(参考訳) 近年,機械学習による最適化問題において,空間性などのアクティブな構造を明確に識別する手法として,スクリーニングルールが導入されている。 これにより、実質的な次元縮小に基づく新しい加速方法が導かれる。 スクリーニング規則は,部分微分集合の自然性質と最適性条件の組み合わせに起因し,それゆえ統一的に理解できることを示す。 軽度の仮定の下で、収束アルゴリズムの最適能動集合を特定するのに必要な反復数を分析する。 収束率にのみ依存することを示す。

Screening rules were recently introduced as a technique for explicitly identifying active structures such as sparsity, in optimization problem arising in machine learning. This has led to new methods of acceleration based on a substantial dimension reduction. We show that screening rules stem from a combination of natural properties of subdifferential sets and optimality conditions, and can hence be understood in a unified way. Under mild assumptions, we analyze the number of iterations needed to identify the optimal active set for any converging algorithm. We show that it only depends on its convergence rate.
翻訳日:2022-10-21 08:11:59 公開日:2020-09-06
# ビクラスタリングによるヤラルールの自動生成

Automatic Yara Rule Generation Using Biclustering ( http://arxiv.org/abs/2009.03779v1 )

ライセンス: Link先を確認
Edward Raff, Richard Zak, Gary Lopez Munoz, William Fleming, Hyrum S. Anderson, Bobby Filar, Charles Nicholas, James Holt(参考訳) yara rulesは、サイバーセキュリティ実践者とアナリストの間でユビキタスなツールである。 マルウェアのファミリを検出するための高品質なYaraルールの開発は、専門家のユーザでさえ、労力と時間を要する可能性がある。 ツールはほとんど存在せず、特定の家族向けのyaraルールの生成を自動化する方法に関する作業は比較的少ない。 本稿では,大規模n-gram (n \geq 8$) と新たなバイクラスタ化アルゴリズムを組み合わせることで,既存のソフトウェアよりも効果的なyaraルールを構築する。 当社の方法であるAutoYaraは高速で、リモートネットワークにデプロイするチームのための低リソース機器へのデプロイを可能にします。 以上の結果から,AutoYaraは,偽陽性率を低く保ちながら,人的アナリストとのマッチングやパフォーマンスを向上しながら,有用な真陽性率のルールを作成することで,アナリストの作業量を削減することができることが示された。 さらに、マルウェアアナリストによる実世界のテストでは、autoyaraはアナリストがyaraルールを構築するのに費やす時間を44-86%削減し、現在のツールでは処理できないより高度なマルウェアに時間を費やすことができる。 コードはhttps://github.com/NeuromorphicComputationResearchProgramで公開される。

Yara rules are a ubiquitous tool among cybersecurity practitioners and analysts. Developing high-quality Yara rules to detect a malware family of interest can be labor- and time-intensive, even for expert users. Few tools exist and relatively little work has been done on how to automate the generation of Yara rules for specific families. In this paper, we leverage large n-grams ($n \geq 8$) combined with a new biclustering algorithm to construct simple Yara rules more effectively than currently available software. Our method, AutoYara, is fast, allowing for deployment on low-resource equipment for teams that deploy to remote networks. Our results demonstrate that AutoYara can help reduce analyst workload by producing rules with useful true-positive rates while maintaining low false-positive rates, sometimes matching or even outperforming human analysts. In addition, real-world testing by malware analysts indicates AutoYara could reduce analyst time spent constructing Yara rules by 44-86%, allowing them to spend their time on the more advanced malware that current tools can't handle. Code will be made available at https://github.com/NeuromorphicComputationResearchProgram .
翻訳日:2022-10-21 08:11:51 公開日:2020-09-06
# Sickle cell 病患者におけるSpleen 長自動計測のための深層学習

Deep Learning for Automatic Spleen Length Measurement in Sickle Cell Disease Patients ( http://arxiv.org/abs/2009.02704v1 )

ライセンス: Link先を確認
Zhen Yuan, Esther Puyol-Anton, Haran Jogeesvaran, Catriona Reid, Baba Inusa, Andrew P. King(参考訳) シックル細胞病(scd)は、世界で最も一般的な遺伝疾患の一つである。 scdの小児では脾腫(脾の異常な拡大)が頻発する。 未治療の場合、脾腫は生命を脅かす可能性がある。 脾臓の大きさを測定するための現在のワークフローには、おそらく2次元超音波画像における手動長さ測定が続く。 しかし、この手動測定はオペレーターの専門知識に依存しており、オブザーバー内およびオブザーバー間変動の対象となる。 超音波画像から脾臓長の自動推定を行うための深層学習法について検討した。 本研究では,2種類のアプローチについて,1つのセグメンテーションベースと1つの直接的な長さ推定に基づいて検討し,人的専門家による測定結果と比較した。 我々の最良のモデル(セグメンテーションベース)はパーセンテージ長の誤差が7.42%となり、サーバ間変動のレベル(5.47%-6.34%)に近づいている。 私たちの知る限りでは、これは超音波画像から完全に自動化された方法で脾臓のサイズを測定する最初の試みです。

Sickle Cell Disease (SCD) is one of the most common genetic diseases in the world. Splenomegaly (abnormal enlargement of the spleen) is frequent among children with SCD. If left untreated, splenomegaly can be life-threatening. The current workflow to measure spleen size includes palpation, possibly followed by manual length measurement in 2D ultrasound imaging. However, this manual measurement is dependent on operator expertise and is subject to intra- and inter-observer variability. We investigate the use of deep learning to perform automatic estimation of spleen length from ultrasound images. We investigate two types of approach, one segmentation-based and one based on direct length estimation, and compare the results against measurements made by human experts. Our best model (segmentation-based) achieved a percentage length error of 7.42%, which is approaching the level of inter-observer variability (5.47%-6.34%). To the best of our knowledge, this is the first attempt to measure spleen size in a fully automated way from ultrasound images.
翻訳日:2022-10-21 08:11:27 公開日:2020-09-06
# semeval-2020タスク4 : 言語モデルのアンサンブルに基づくコモンセンス検証と説明システム

QiaoNing at SemEval-2020 Task 4: Commonsense Validation and Explanation system based on ensemble of language model ( http://arxiv.org/abs/2009.02645v1 )

ライセンス: Link先を確認
Pai Liu(参考訳) 本稿では,semeval-2020タスク4コンペティションに提出された言語モデルシステム「共通性検証と説明」を提案する。 サブタスクA:検証とサブタスクB:説明の2つのサブタスクに参加する。 我々は、事前訓練された言語モデル(BERT、XLNet、RoBERTa、ALBERT)を用いて転送学習を行い、このタスクでそれらを微調整した。 そして、これらの特徴を比較して、将来の研究者がこれらのモデルをより適切に理解し、使用できるようにする。 アンサンブルされたモデルはこの問題をよりよく解決し、モデルの精度はサブタスクAで95.9%に達した。

In this paper, we present language model system submitted to SemEval-2020 Task 4 competition: "Commonsense Validation and Explanation". We participate in two subtasks for subtask A: validation and subtask B: Explanation. We implemented with transfer learning using pretrained language models (BERT, XLNet, RoBERTa, and ALBERT) and fine-tune them on this task. Then we compared their characteristics in this task to help future researchers understand and use these models more properly. The ensembled model better solves this problem, making the model's accuracy reached 95.9% on subtask A, which just worse than human's by only 3% accuracy.
翻訳日:2022-10-21 08:05:26 公開日:2020-09-06
# リカレントニューラルネットワークによるルーマニア語発音復元

Romanian Diacritics Restoration Using Recurrent Neural Networks ( http://arxiv.org/abs/2009.02743v1 )

ライセンス: Link先を確認
Stefan Ruseti, Teodor-Mihai Cotet and Mihai Dascalu(参考訳) diacriticsの復元はルーマニア語のテキストを適切に処理するための必須のステップであり、文字を適切に復元するためにコンテキストを必要とするため、簡単なものではありません。 ルーマニアのダイアクリティカルマークの復元のために実験されたほとんどの従来の手法はニューラルネットワークを使用しない。 それらの中で、この特定の言語に特に最適化されたソリューションはない(つまり、多くの異なる言語で動作するように設計されている)。 そこで本研究では,異なる抽象レベルの情報に応答してダイアクリティカルスを復元できる,再帰型ニューラルネットワークに基づく新しいニューラルネットワークを提案する。

Diacritics restoration is a mandatory step for adequately processing Romanian texts, and not a trivial one, as you generally need context in order to properly restore a character. Most previous methods which were experimented for Romanian restoration of diacritics do not use neural networks. Among those that do, there are no solutions specifically optimized for this particular language (i.e., they were generally designed to work on many different languages). Therefore we propose a novel neural architecture based on recurrent neural networks that can attend information at different levels of abstractions in order to restore diacritics.
翻訳日:2022-10-21 08:05:12 公開日:2020-09-06
# 勾配に基づく競争学習:理論

Gradient-based Competitive Learning: Theory ( http://arxiv.org/abs/2009.02799v1 )

ライセンス: Link先を確認
Giansalvo Cirrincione, Pietro Barbiero, Gabriele Ciravegna, Vincenzo Randazzo(参考訳) ディープラーニングは、教師付き学習と分類/回帰問題に広く使われている。 近年、このパラダイムを教師なしタスクに適用した新たな研究領域が登場し、実際、勾配に基づくアプローチは、入力データを扱うための関連する特徴を効率的かつ自律的に抽出する。 しかし、最先端技術は主に入力多様体を模倣するよりもアルゴリズムの効率と精度に重点を置いている。 それとは対照的に、競争学習は入力分布トポロジーを複製する強力なツールである。 本稿では,これら2つの手法,教師なし勾配ベースと競合学習を組み合わせた新しい視点を提案する。 この理論は、ニューラルネットワークが入力行列の変換を直接研究することで、トポロジカル構造を学習できるという直感に基づいている。 この目的のために、バニラの競合層とその双対が提示される。 前者は、深層クラスタリングのための標準的な競合層への適応であり、後者は転位行列で訓練される。 その等価性は理論的にも実験的にも広く証明されている。 しかし、デュアル層は、非常に高次元のデータセットを扱うのに適している。 提案手法は,非定常的および階層的クラスタリングなどのトポロジ的学習タスクの膨大な選択に一般化できるだけでなく,オートエンコーダや生成的逆ネットワークといったより複雑なアーキテクチャにも統合できるため,大きな可能性を秘めている。

Deep learning has been widely used for supervised learning and classification/regression problems. Recently, a novel area of research has applied this paradigm to unsupervised tasks; indeed, a gradient-based approach extracts, efficiently and autonomously, the relevant features for handling input data. However, state-of-the-art techniques focus mostly on algorithmic efficiency and accuracy rather than mimic the input manifold. On the contrary, competitive learning is a powerful tool for replicating the input distribution topology. This paper introduces a novel perspective in this area by combining these two techniques: unsupervised gradient-based and competitive learning. The theory is based on the intuition that neural networks are able to learn topological structures by working directly on the transpose of the input matrix. At this purpose, the vanilla competitive layer and its dual are presented. The former is just an adaptation of a standard competitive layer for deep clustering, while the latter is trained on the transposed matrix. Their equivalence is extensively proven both theoretically and experimentally. However, the dual layer is better suited for handling very high-dimensional datasets. The proposed approach has a great potential as it can be generalized to a vast selection of topological learning tasks, such as non-stationary and hierarchical clustering; furthermore, it can also be integrated within more complex architectures such as autoencoders and generative adversarial networks.
翻訳日:2022-10-21 08:04:43 公開日:2020-09-06
# フィードフォワードニューラルネットワークにおける乗算器の交互方向法の解析

An Analysis of Alternating Direction Method of Multipliers for Feed-forward Neural Networks ( http://arxiv.org/abs/2009.02825v1 )

ライセンス: Link先を確認
Seyedeh Niusha Alavi Foumani, Ce Guo, Wayne Luk(参考訳) 本研究では,乗算器の交互方向法(ADMM)と反復最小二乗法を用いて,ハードウェア互換のニューラルネットワークトレーニングアルゴリズムを提案する。 このアプローチの背後にある動機は、スケーラブルで並列化可能なニューラルネットワークのトレーニング方法を実行することだ。 これらの特徴により、このアルゴリズムはハードウェアの実装に適している。 higgsデータセット上では,隠れサイズ28の4層ニューラルネットワークを用いて,sgdとadamと比較して6.9\%,6.8\%の精度をそれぞれ達成した。 同様に、SGDとAdamと比較して21.0\%と2.2\%の精度改善を、隠れたサイズ8の3層ニューラルネットワークでIRISデータセットで観測することができる。 これは、ハードウェア実装において困難である行列反転(matrix inversion)の使用は、この方法では避けられている。 我々は,行列逆転がADMM精度に与える影響を評価し,行列逆転を最小二乗法に安全に置き換えて,所望の性能を維持することができることを示した。 また,提案手法の計算複雑性は,入力データセットの次元とネットワークの隠れサイズに関する多項式である。

In this work, we present a hardware compatible neural network training algorithm in which we used alternating direction method of multipliers (ADMM) and iterative least-square methods. The motive behind this approach was to conduct a method of training neural networks that is scalable and can be parallelised. These characteristics make this algorithm suitable for hardware implementation. We have achieved 6.9\% and 6.8\% better accuracy comparing to SGD and Adam respectively, with a four-layer neural network with hidden size of 28 on HIGGS dataset. Likewise, we could observe 21.0\% and 2.2\% accuracy improvement comparing to SGD and Adam respectively, on IRIS dataset with a three-layer neural network with hidden size of 8. This is while the use of matrix inversion, which is challenging for hardware implementation, is avoided in this method. We assessed the impact of avoiding matrix inversion on ADMM accuracy and we observed that we can safely replace matrix inversion with iterative least-square methods and maintain the desired performance. Also, the computational complexity of the implemented method is polynomial regarding dimensions of the input dataset and hidden size of the network.
翻訳日:2022-10-21 08:04:21 公開日:2020-09-06
# MFL_COVID19: 正常化マルチタスク特徴学習によるCOVID-19流行初期におけるケースの死亡率に影響を与える国別因子の定量化

MFL_COVID19: Quantifying Country-based Factors affecting Case Fatality Rate in Early Phase of COVID-19 Epidemic via Regularised Multi-task Feature Learning ( http://arxiv.org/abs/2009.02827v1 )

ライセンス: Link先を確認
Po Yang, Jun Qi, Xulong Wang, Yun Yang(参考訳) 最近の新型コロナウイルス(covid-19)の流行は世界中で急速に広がった。 多くの国は、感染を最小限に抑えるため、時間的に集中的な抑制を実施してきたが、医療資源の厳しい需要により、高いケース致命率(CFR)がもたらされた。 社会文化的問題や高齢化など他の国を基盤とした要因も、早期の道徳改善のために介入を行う実践的効果に影響している。 新型コロナウイルス感染症の第2波に備える上で、これらの要因と各国のCFRとの関係をよりよく理解することが重要である。 本稿では,CFRの感染初期における国別要因を定量化するための,新しい多タスク学習に基づく因子分析手法を提案する。 我々は,ML回帰問題としてCFR進行の予測を,観測されたCFRやその他の国々による要因を用いて定式化する。 この定式化では、すべてのCFR関連因子を27の指標を持つ6つのセクターに分類した。 予備的特徴相互作用の初期因子をキャリブレーションするために,フィルタ,ラッパー,ツリーベースモデルを組み合わせたハイブリッド特徴選択法を提案した。 次に,2つの典型的な単一タスクモデル (Ridge と Lasso 回帰) と1つの最先端MTFL法 (fuuse sparse group lasso) を定式化した。 fsgl(fused sparse group lasso)法は、covid-19流行の複数の時点に共通する国別要因の同時選択を可能にし、また、早期の期間を通じて各因子の時間的平滑さを取り入れることができる。 最後に,mtflモデルにおいて,複数の因子の重み不安定さのバランスをとるための,新たな時間的投票特徴選択方式を提案する。

Recent outbreak of COVID-19 has led a rapid global spread around the world. Many countries have implemented timely intensive suppression to minimize the infections, but resulted in high case fatality rate (CFR) due to critical demand of health resources. Other country-based factors such as sociocultural issues, ageing population etc., has also influenced practical effectiveness of taking interventions to improve morality in early phase. To better understand the relationship of these factors across different countries with COVID-19 CFR is of primary importance to prepare for potentially second wave of COVID-19 infections. In the paper, we propose a novel regularized multi-task learning based factor analysis approach for quantifying country-based factors affecting CFR in early phase of COVID-19 epidemic. We formulate the prediction of CFR progression as a ML regression problem with observed CFR and other countries-based factors. In this formulation, all CFR related factors were categorized into 6 sectors with 27 indicators. We proposed a hybrid feature selection method combining filter, wrapper and tree-based models to calibrate initial factors for a preliminary feature interaction. Then we adopted two typical single task model (Ridge and Lasso regression) and one state-of-the-art MTFL method (fused sparse group lasso) in our formulation. The fused sparse group Lasso (FSGL) method allows the simultaneous selection of a common set of country-based factors for multiple time points of COVID-19 epidemic and also enables incorporating temporal smoothness of each factor over the whole early phase period. Finally, we proposed one novel temporal voting feature selection scheme to balance the weight instability of multiple factors in our MTFL model.
翻訳日:2022-10-21 08:04:01 公開日:2020-09-06
# 深部視覚オドメトリーへのアプローチ, 課題, 応用 : 複雑で創発的な領域へ向けて

Approaches, Challenges, and Applications for Deep Visual Odometry: Toward to Complicated and Emerging Areas ( http://arxiv.org/abs/2009.02672v1 )

ライセンス: Link先を確認
Ke Wang, Sai Ma, Junlan Chen, Fan Ren(参考訳) ビジュアル・オドメトリー(VO)は、相対的な局所化問題に対処する一般的な方法であり、それはますます成熟し、正確になりつつあるが、困難な環境下では壊れやすい傾向にある。 従来の幾何学的手法と比較して、深層学習に基づく手法は、明示的な計算なしでデータから深度、光学的流れ、特徴、エゴモーションなどの効果的で堅牢な表現を自動的に学習することができる。 それでも、ディープラーニングベースのVO(Deep VO)の最近の進歩に関する詳細なレビューは残っていない。 そこで本稿では,学習の収益化とvoシステムの最適化について深い知見を得ることを目的としている。 まず、正確性、効率性、スケーラビリティ、動的性、実践性、拡張性など、さまざまな資格を確認し、それらを基準として使用します。 そこで,提案した基準を一様測定として,深度推定,特徴抽出,マッチング,ポーズ推定の観点から,深度学習がVOの性能に与える影響を詳細に評価し,議論した。 また、モバイルロボット、医療ロボット、拡張現実、仮想現実など、Deep VOの複雑で新興の領域についてもまとめる。 文献の分解、分析、比較を通じて、我々はついにいくつかのオープンな問題を提起し、この分野における今後の研究方向性を提起する。

Visual odometry (VO) is a prevalent way to deal with the relative localization problem, which is becoming increasingly mature and accurate, but it tends to be fragile under challenging environments. Comparing with classical geometry-based methods, deep learning-based methods can automatically learn effective and robust representations, such as depth, optical flow, feature, ego-motion, etc., from data without explicit computation. Nevertheless, there still lacks a thorough review of the recent advances of deep learning-based VO (Deep VO). Therefore, this paper aims to gain a deep insight on how deep learning can profit and optimize the VO systems. We first screen out a number of qualifications including accuracy, efficiency, scalability, dynamicity, practicability, and extensibility, and employ them as the criteria. Then, using the offered criteria as the uniform measurements, we detailedly evaluate and discuss how deep learning improves the performance of VO from the aspects of depth estimation, feature extraction and matching, pose estimation. We also summarize the complicated and emerging areas of Deep VO, such as mobile robots, medical robots, augmented reality and virtual reality, etc. Through the literature decomposition, analysis, and comparison, we finally put forward a number of open issues and raise some future research directions in this field.
翻訳日:2022-10-21 08:03:32 公開日:2020-09-06
# 不確実性認識疾患予測のためのエッジ変数グラフ畳み込みネットワーク

Edge-variational Graph Convolutional Networks for Uncertainty-aware Disease Prediction ( http://arxiv.org/abs/2009.02759v1 )

ライセンス: Link先を確認
Yongxiang Huang and Albert C. S. Chung(参考訳) 人口ベースの疾患分析の被験者間の関連を調査しながら、異なるモダリティのデータを相補的に活用できる計算モデルの必要性が高まっている。 画像データの表現学習における畳み込みニューラルネットワークの成功にもかかわらず、まだ非常に難しい課題である。 本稿では,不確実性認識疾患の予測のために,画像データと非画像データを自動的に統合するフレームワークを提案する。 中心となるのは変分エッジを持つ学習可能な適応型人口グラフであり、これはグラフ畳み込みニューラルネットワークと組み合わせて最適化可能であることを数学的に証明する。 グラフトポロジーに関連する予測の不確かさを推定するために,モンテカルロエッジドロップアウトの新しい概念を提案する。 4つのデータベースを用いた実験結果から,自閉症スペクトラム障害,アルツハイマー病,眼疾患の診断精度は一貫して改善し,コンピュータ支援診断におけるマルチモーダルデータの利用の一般化が示唆された。

There is a rising need for computational models that can complementarily leverage data of different modalities while investigating associations between subjects for population-based disease analysis. Despite the success of convolutional neural networks in representation learning for imaging data, it is still a very challenging task. In this paper, we propose a generalizable framework that can automatically integrate imaging data with non-imaging data in populations for uncertainty-aware disease prediction. At its core is a learnable adaptive population graph with variational edges, which we mathematically prove that it is optimizable in conjunction with graph convolutional neural networks. To estimate the predictive uncertainty related to the graph topology, we propose the novel concept of Monte-Carlo edge dropout. Experimental results on four databases show that our method can consistently and significantly improve the diagnostic accuracy for Autism spectrum disorder, Alzheimer's disease, and ocular diseases, indicating its generalizability in leveraging multimodal data for computer-aided diagnosis.
翻訳日:2022-10-21 08:03:08 公開日:2020-09-06
# 垂直分割データに基づくハイブリッド型微分プライベートフェデレーション学習

Hybrid Differentially Private Federated Learning on Vertically Partitioned Data ( http://arxiv.org/abs/2009.02763v1 )

ライセンス: Link先を確認
Chang Wang, Jian Liang, Mingkai Huang, Bing Bai, Kun Bai, Hao Li(参考訳) 本稿では,垂直分割データから一般化線形モデル(glm)を協調的に学習できることを,理想化された非プライベートなvflと比較した最初のハイブリッド・ディファレンシャル・プライベート(dp)フレームワークであるhdp-vflを提案する。 本研究は,準同型暗号 (he) やセキュアマルチパーティ計算 (mpc) といったプロトコルに依存する異なる組織間の,vflに基づくコラボレーショントレーニングの最近の進歩に基づいている。 特に、vflの中間結果(ir)が通信中にトレーニングデータの個人情報を漏洩させる可能性を分析し、vfl参加者のデータ機密性を確保するためにdpベースのプライバシー保護アルゴリズムを設計する。 数学的には、我々のアルゴリズムはVFLの実用性を保証するだけでなく、DP w.r.t.IRやJDP w.r.t.モデルウェイトといったマルチレベルプライバシも提供する。 実験の結果, 適切なプライバシ予算下での作業は, HEやMPCに基づくほとんどの先行作業において, メモリと処理時間の増大よりも, 理想化された非プライベートなVFL設定で学習したGLMと定量的に類似していることが判明した。 この論文が受け入れられれば、私たちのコードは公開されます。

We present HDP-VFL, the first hybrid differentially private (DP) framework for vertical federated learning (VFL) to demonstrate that it is possible to jointly learn a generalized linear model (GLM) from vertically partitioned data with only a negligible cost, w.r.t. training time, accuracy, etc., comparing to idealized non-private VFL. Our work builds on the recent advances in VFL-based collaborative training among different organizations which rely on protocols like Homomorphic Encryption (HE) and Secure Multi-Party Computation (MPC) to secure computation and training. In particular, we analyze how VFL's intermediate result (IR) can leak private information of the training data during communication and design a DP-based privacy-preserving algorithm to ensure the data confidentiality of VFL participants. We mathematically prove that our algorithm not only provides utility guarantees for VFL, but also offers multi-level privacy, i.e. DP w.r.t. IR and joint differential privacy (JDP) w.r.t. model weights. Experimental results demonstrate that our work, under adequate privacy budgets, is quantitatively and qualitatively similar to GLMs, learned in idealized non-private VFL setting, rather than the increased cost in memory and processing time in most prior works based on HE or MPC. Our codes will be released if this paper is accepted.
翻訳日:2022-10-21 07:56:07 公開日:2020-09-06
# PSO-PS:ディープニューラルネットワークの分散トレーニングのための粒子群最適化によるパラメータ同期

PSO-PS: Parameter Synchronization with Particle Swarm Optimization for Distributed Training of Deep Neural Networks ( http://arxiv.org/abs/2009.03816v1 )

ライセンス: Link先を確認
Qing Ye, Yuxuan Han, Yanan sun and JIancheng Lv(参考訳) パラメータ更新は並列性に基づく分散ディープラーニングにおいて重要な段階である。 同期手法はディープニューラルネットワーク(DNN)の分散トレーニングに広く用いられている。 同期メソッドの通信と同期のオーバーヘッドを減らすために、同期周波数(例えば、$n$のミニバッチ毎に)を減少させることは簡単なアプローチである。 しかし、しばしば収束不良に悩まされる。 本稿では,粒子群最適化(pso)をdnnの分散学習プロセスに統合し,新しいパラメータを自動的に計算する新しいアルゴリズムを提案する。 提案アルゴリズムでは,計算作業は粒子によって符号化され,dnnの重みとトレーニング損失は粒子属性によってモデル化される。 各同期段階では、重みや勾配を平均化する代わりに、すべての労働者から集めたサブウェイトからPSOによって重みが更新される。 提案アルゴリズムの性能を検証するために,MNIST と CIFAR10 の2つの画像分類ベンチマークを用いて実験を行い,複数の異なる同期構成で競合相手と比較した。 実験結果は,提案アルゴリズムの競合性を示すものである。

Parameter updating is an important stage in parallelism-based distributed deep learning. Synchronous methods are widely used in distributed training the Deep Neural Networks (DNNs). To reduce the communication and synchronization overhead of synchronous methods, decreasing the synchronization frequency (e.g., every $n$ mini-batches) is a straightforward approach. However, it often suffers from poor convergence. In this paper, we propose a new algorithm of integrating Particle Swarm Optimization (PSO) into the distributed training process of DNNs to automatically compute new parameters. In the proposed algorithm, a computing work is encoded by a particle, the weights of DNNs and the training loss are modeled by the particle attributes. At each synchronization stage, the weights are updated by PSO from the sub weights gathered from all workers, instead of averaging the weights or the gradients. To verify the performance of the proposed algorithm, the experiments are performed on two commonly used image classification benchmarks: MNIST and CIFAR10, and compared with the peer competitors at multiple different synchronization configurations. The experimental results demonstrate the competitiveness of the proposed algorithm.
翻訳日:2022-10-21 07:55:38 公開日:2020-09-06
# サリエンシマップを用いた敵攻撃に対する検出防御

Detection Defense Against Adversarial Attacks with Saliency Map ( http://arxiv.org/abs/2009.02738v1 )

ライセンス: Link先を確認
Dengpan Ye, Chuanxi Chen, Changrui Liu, Hao Wang, Shunzhi Jiang(参考訳) ニューラルネットワークは、人間の視覚にほとんど受け入れられず、深層モデルの誤動作を引き起こす可能性のある敵の例に弱いことがよく理解されている。 このような現象は、安全およびセキュリティクリティカルなアプリケーションにおいて、極めて推定不可能な結果をもたらす可能性がある。 既存の防衛は、敵の攻撃、例えば敵の訓練技術に対するモデルの堅牢性を強化する傾向にある。 しかし、これらは通常、再トレーニングのコストが高く、モデルアーキテクチャやパラメータを変更するという面倒な操作のために実装が難しい。 本稿では,モデル解釈性の向上の観点から,モデルへの注意のメカニズムの導入に類似した,深層ネットワークによる物体識別の進展を理解するために,サリエンシーマップ法について論じる。 そこで我々は,新たな雑音と組み合わせた新しい手法を提案し,不整合戦略を用いて敵のサンプルを検出する。 ImageNetや人気モデルなど,一般的なデータセットに対する代表的な敵攻撃の実験結果から,本手法は高い検出成功率で全ての攻撃を効果的に検出できることを示す。 我々は,既存の最先端技術と比較し,本手法がより汎用的であることを示す。

It is well established that neural networks are vulnerable to adversarial examples, which are almost imperceptible on human vision and can cause the deep models misbehave. Such phenomenon may lead to severely inestimable consequences in the safety and security critical applications. Existing defenses are trend to harden the robustness of models against adversarial attacks, e.g., adversarial training technology. However, these are usually intractable to implement due to the high cost of re-training and the cumbersome operations of altering the model architecture or parameters. In this paper, we discuss the saliency map method from the view of enhancing model interpretability, it is similar to introducing the mechanism of the attention to the model, so as to comprehend the progress of object identification by the deep networks. We then propose a novel method combined with additional noises and utilize the inconsistency strategy to detect adversarial examples. Our experimental results of some representative adversarial attacks on common datasets including ImageNet and popular models show that our method can detect all the attacks with high detection success rate effectively. We compare it with the existing state-of-the-art technique, and the experiments indicate that our method is more general.
翻訳日:2022-10-21 07:54:56 公開日:2020-09-06
# 複素力学系に対する時空間活性化関数

Spatio-Temporal Activation Function To Map Complex Dynamical Systems ( http://arxiv.org/abs/2009.08931v1 )

ライセンス: Link先を確認
Parth Mahendra(参考訳) 現実世界の大半は複雑でカオス的な力学系によって支配されている。 これらの力学系はすべて、ニューラルネットワークを用いてそれらをモデル化する上で困難である。 現在、リカレントニューラルネットワークのサブセットであるリザーバコンピューティングは、複雑な力学系をシミュレートするために積極的に使われている。 本研究では,その出力に動的挙動を与えるための時間的項を含む2次元活性化関数を提案する。 時間的項の包含は、アクティベーション関数の基本的な性質を変化させ、リカレントニューラルネットワークに依存することなく、時系列データの複雑なダイナミクスをキャプチャする機能を提供する。

Most of the real world is governed by complex and chaotic dynamical systems. All of these dynamical systems pose a challenge in modelling them using neural networks. Currently, reservoir computing, which is a subset of recurrent neural networks, is actively used to simulate complex dynamical systems. In this work, a two dimensional activation function is proposed which includes an additional temporal term to impart dynamic behaviour on its output. The inclusion of a temporal term alters the fundamental nature of an activation function, it provides capability to capture the complex dynamics of time series data without relying on recurrent neural networks.
翻訳日:2022-10-21 07:53:39 公開日:2020-09-06