このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20210131となっている論文です。

PDF登録状況(公開日: 20210131)

TitleAuthorsAbstract論文公表日・翻訳日
# SYK$_{2}$モデルにおける相関障害

Correlated Disorder in the SYK$_{2}$ model ( http://arxiv.org/abs/2003.05401v3 )

ライセンス: Link先を確認
Pak Hang Chris Lau, Chen-Te Ma, Jeff Murugan, and Masaki Tezuka(参考訳) 詳細なスペクトル解析と2点および4点のソースにモデルを結合することにより、ランダムな二次相互作用を持つn$ majorana fermion の syk$_{2}$ モデルの研究を行った。 特に、分割関数から生成関数への一般化により、一般化されたスペクトル形状係数とレベル間隔分布関数を定義する。 n=2$ の場合、一般化されたスペクトル形式因子の厳密な解を得る。 これは、ソース項のより高い$n$ケースと質的に類似した振る舞いを示す。 正確な解は一般化されたスペクトル形状因子の挙動を理解するのに役立つ。 生成関数によって定義される一般化レベル間隔分布関数と隣接ギャップ比の平均値を算出する。 4点のソース項を持つsyk$_2$モデルでは、理論の近可積分領域におけるガウスユニタリアンサンブルの振る舞いを見つけ、これはカオスへの遷移を意味する。 この挙動は、展開スペクトルを持つ一般化スペクトル形状因子の連結部分によって確認される。 ソース項の相対強度が増加するにつれて、このガウス的ランダム行列の挙動から逸脱することは、SYK$_2$カップリングをオンにせずに4点のソース項だけでスペクトル形状係数から可積分スペクトルを示し、N$制限でレベル間隔分布関数を示すという観察と一致している。

We study the SYK$_{2}$ model of $N$ Majorana fermions with random quadratic interactions through a detailed spectral analysis and by coupling the model to 2- and 4-point sources. In particular, we define the generalized spectral form factor and level spacing distribution function by generalizing from the partition function to the generating function. For $N=2$, we obtain an exact solution of the generalized spectral form factor. It exhibits qualitatively similar behavior to the higher $N$ case with a source term. The exact solution helps understand the behavior of the generalized spectral form factor. We calculate the generalized level spacing distribution function and the mean value of the adjacent gap ratio defined by the generating function. For the SYK$_2$ model with a 4-point source term, we find a Gaussian unitary ensemble behavior in the near-integrable region of the theory, which indicates a transition to chaos. This behavior is confirmed by the connected part of the generalized spectral form factor with an unfolded spectrum. The departure from this Gaussian random matrix behavior as the relative strength of the source term is increased is consistent with the observation that the 4-point source term alone, without the SYK$_2$ couplings turned on, exhibits an integrable spectrum from the spectral form factor and level spacing distribution function in the large $N$ limit.
翻訳日:2023-05-29 11:11:01 公開日:2021-01-31
# 量子ビット上のマジック状態を持つ普遍量子計算のための隠れ変数モデル

A hidden variable model for universal quantum computation with magic states on qubits ( http://arxiv.org/abs/2004.01992v2 )

ライセンス: Link先を確認
Michael Zurel, Cihan Okay, Robert Raussendorf(参考訳) 有限状態空間上の確率分布のベイズ更新により、全ての量子計算が記述可能であることを示す。 マジック状態を持つ量子計算のモデルに適用した場合、この状態空間のサイズは、ゲートと測定シーケンスの長さではなく、量子計算で使用されるマジック状態の数にのみ依存する。

We show that every quantum computation can be described by Bayesian update of a probability distribution on a finite state space. When applied to the model of quantum computation with magic states, the size of this state space only depends on the number of magic states used in the quantum computation, and not on the length of the gate and measurement sequence.
翻訳日:2023-05-26 11:02:19 公開日:2021-01-31
# 量子貯留層の非マルコフセンシング

Non-Markovian Sensing of a Quantum Reservoir ( http://arxiv.org/abs/2005.08553v2 )

ライセンス: Link先を確認
Wei Wu, Si-Yuan Bai, Jun-Hong An(参考訳) 量子センシングは、センサーの量子リソースを使用して物理量の高感度測定を行うプロトコルを探索する。 従来のスキームは一般にユニタリダイナミクスを用いて量量をセンサ状態に符号化する。 微視的システムに対する貯水池によるデコヒーレンス制御において重要な役割を果たす量子貯水池のスペクトル密度を測定するために,非単位符号化光センシング方式を提案する。 符号化の非一意的ダイナミクスは、量子資源を分解するが、符号化時間をリソースにし、精度を向上させ、センサのスクイーズをリソースにし、ショットノイズ限界を越えさせるメカニズムを驚くほど見つけ出す。 以上の結果から,センサ保存バウンド状態の形成が原因であることが示唆された。 量子センシングのファミリーを豊かにすることで、量子リザーバを効率的に測定し、デコヒーレンス制御への洞察的なサポートを提供することができる。

Quantum sensing explores protocols using the quantum resource of sensors to achieve highly sensitive measurement of physical quantities. The conventional schemes generally use unitary dynamics to encode quantities into sensor states. In order to measure the spectral density of a quantum reservoir, which plays a vital role in controlling the reservoir-caused decoherence to microscopic systems, we propose a nonunitary-encoding optical sensing scheme. Although the nonunitary dynamics for encoding in turn degrades the quantum resource, we surprisingly find a mechanism to make the encoding time a resource to improve the precision and to make the squeezing of the sensor a resource to surpass the shot-noise limit. Our result shows that it is due to the formation of a sensor-reservoir bound state. Enriching the family of quantum sensing, our scheme gives an efficient way to measure the quantum reservoir and might supply an insightful support to decoherence control.
翻訳日:2023-05-19 11:33:35 公開日:2021-01-31
# 非エルミート系におけるフロッケ二階位相絶縁体

Floquet second-order topological insulators in non-Hermitian systems ( http://arxiv.org/abs/2008.06879v2 )

ライセンス: Link先を確認
Hong Wu, Bao-Qin Wang, Jun-Hong An(参考訳) 2階位相絶縁体(soti)は、$d$-次元系における$(d-2)$次元境界状態の存在で特徴付けられる。 非ハーミティ性はバルク境界対応(BBC)の崩壊を誘発し、周期運転は一般に非ハーミティアンSOTIの記述を曖昧にしている。 SOTIの応用を促進するために,2次元および3次元システムにおいて,エキゾチックな非エルミチアンSOTIの制御における周期駆動の役割について検討する。 非平衡系のバルクトポロジを通じて、BBCを回収し、SOTIに完全な記述を行う計画が提案されている。 2次元コーナー状態と3次元ヒンジ状態が広く可変され、1次および2次トポロジー絶縁体の共存が周期駆動によって引き起こされるリッチなエキゾチックな非エルミートソティスが発見されている。 トポロジカル位相の族を豊かにすることで、周期駆動によりコーナー/ヒンジ状態の数を調整することによって、SOTIを適用するための探索を促すことができる。

Second-order topological insulator (SOTI) is featured with the presence of $(d-2)$-dimensional boundary states in $d$-dimension systems. The non-Hermiticity induced breakdown of bulk-boundary correspondence (BBC) and the periodic driving on systems generally obscure the description of non-Hermitian SOTI. To prompt the applications of SOTIs, we explore the role of periodic driving in controllably creating exotic non-Hermitian SOTIs both for 2D and 3D systems. A scheme to retrieve the BBC and a complete description to SOTIs via the bulk topology of such nonequilibrium systems are proposed. It is found that rich exotic non-Hermitian SOTIs with a widely tunable number of 2D corner states and 3D hinge states and a coexistence of the first- and second-order topological insulators are induced by the periodic driving. Enriching the family of topological phases, our result may inspire the exploration to apply SOTIs via tuning the number of corner/hinge states by the periodic driving.
翻訳日:2023-05-06 03:08:50 公開日:2021-01-31
# 単一光子レベルで位相シフトキーの量子受信

Quantum receiver for phase-shift keying at the single photon level ( http://arxiv.org/abs/2009.03339v2 )

ライセンス: Link先を確認
Jasminder S. Sidhu, Shuro Izumi, Jonas S. Neergaard-Nielsen, Cosmo Lupo, Ulrik L. Andersen(参考訳) 量子強化受信機には従来の技術よりも高い感度を達成するための資源が供給されている。 光通信に適用するために、複数の非直交量子状態に対する識別能力の改善を提供する。 本研究では,二次位相シフト符号化信号に対する新しい復号法を提案する。 我々の受信機は標準量子限界を超え、既知の非適応検出器を低入力出力で上回る。 既存のアプローチとは異なり、受信機は線形光学素子とオンオフ光検出のみを利用する。 これにより、通信伝送速度を制限し、現在の技術で容易に実装できるフィードフォワード操作の要求を回避できる。

Quantum enhanced receivers are endowed with resources to achieve higher sensitivities than conventional technologies. For application in optical communications, they provide improved discriminatory capabilities for multiple non-orthogonal quantum states. In this work, we propose and experimentally demonstrate a new decoding scheme for quadrature phase-shift encoded signals. Our receiver surpasses the standard quantum limit and outperforms all previously known non-adaptive detectors at low input powers. Unlike existing approaches, the receiver only exploits linear optical elements and on-off photo-detection. This circumvents the requirement for challenging feed-forward operations that limit communication transmission rates and can be readily implemented with current technology.
翻訳日:2023-05-03 07:03:36 公開日:2021-01-31
# ニュートリノ振動の時空間相関に及ぼす非標準相互作用の影響

Effects of nonstandard interaction on temporal and spatial correlations in neutrino oscillations ( http://arxiv.org/abs/2010.02175v2 )

ライセンス: Link先を確認
Trisha Sarkar and Khushboo Dixit(参考訳) ニュートリノセクターの標準モデルを超える物理効果は、非標準相互作用パラメータによって便利に取り入れられる。 次元-6ベクトル作用素の形での新しい物理学を仮定すると、コヒーレント実験の結果を含むニュートリノ振動データの最近の大域的解析は、2つの好ましい新しい物理シナリオを示唆する。 これらは LMA-Light (正規の質量秩序を持つ) \& LMA-Dark (逆の質量秩序を持つ)パラメータのセクターである。 本研究では,レゲット・ガーグ型不等式 (lgti) に対する新しい物理解の効果について検討し,空間相関の尺度として考えられるフレーバーエントロピーと本物の三部体絡み合いとともに,系の時間相関を定量化する。 DUNE実験装置の3GeV周辺エネルギーに対するLGtIの違反は、新しい物理の存在を示すだけでなく、そのような新しい物理学は逆順序のLMA-Darkセクターの形で行われることが期待される。 さらに, lma-light解は, 一般論として, 量子相関測定値の値をsm予測値と比較して減少させることを示した。 一方、ダークソリューションはこれらの測定値を大幅に向上させることができる。

Effects of physics beyond the standard model in the neutrino sector are conveniently incorporated through non-standard interaction parameters. Assuming new physics in the form of dimension-6 vector operators, a recent global analysis of neutrino oscillation data including results from COHERENT experiment suggests two favorable new physics scenarios. These are LMA-Light (with normal mass ordering) \& LMA-Dark (with inverted mass ordering) sectors of parameters. In this work, we study the effects of new physics solutions on Leggett-Garg-type (LGtI) inequality which quantifies temporal correlations in the system along with flavor entropy and genuine tripartite entanglement which can be considered as measures of spatial correlations. We show that the violation of LGtI for $\nu_{\mu}$ energy around 3 GeV in the DUNE experimental set-up can not only be an indication of presence of new physics but such a new physics is expected to be in the form of LMA-Dark sector with inverted ordering. Further, we show that the LMA-Light solution, in general, decreases the values of all measures of quantum correlations in comparison to their SM predictions. On the other hand, the Dark solution can significantly enhance the values of these measures.
翻訳日:2023-04-29 22:26:10 公開日:2021-01-31
# オンライン求人広告によるCOVID-19危機時の英国求人市場調査

Studying the UK Job Market During the COVID-19 Crisis with Online Job Ads ( http://arxiv.org/abs/2010.03629v2 )

ライセンス: Link先を確認
Rudy Arthur(参考訳) 新型コロナウイルス(COVID-19)の世界的なパンデミックと、労働市場に深刻な影響を与えている。 これらの効果を理解するには、ルールが急速に変化し、局所的なロックダウンが成立する中で、データを可能な限りリアルタイムで取得し、分析する必要がある。 本研究では、Reed.co.ukのオンラインジョブボードからのデータを分析し、英国労働市場を調査する。 トピックモデリングとジオ推論を使って、セクターと地理によってデータを分解することができる。 また、3月の英国での新型コロナウイルス(covid-19)危機以降、給与、契約タイプ、労働様式がどう変化したかについても調査した。 総じて、ロックダウンの最初の数週間で、空室は60~70倍減った。 年末までに数字は幾分回復したが、全体の求人広告の赤字は40%以上と見積もられている。 セクターによって破壊され、入院や卒業の機会は大幅に減少し、ロックダウン時には介護や看護の機会も増えた。 地理的差は地域によって異なるが、局地的なロックダウンが回復を停止し、被害の少ない地域では空孔が減少していたという兆候もある。 また、給与の分配やフルタイムや常勤の雇用の数も大きく変化している。 これらの結果に加えて、これらの未解決条件における求人市場の迅速かつ詳細な調査を可能にするオープンな方法論を提示し、このデータセットを他人に問い合わせることのできるWebアプリケーション \url{jobtrender.com} について述べる。

The COVID-19 global pandemic and the lockdown policies enacted to mitigate it have had profound effects on the labour market. Understanding these effects requires us to obtain and analyse data in as close to real time as possible, especially as rules change rapidly and local lockdowns are enacted. In this work we study the UK labour market by analysing data from the online job board Reed.co.uk. Using topic modelling and geo-inference methods we are able to break down the data by sector and geography. We also study how the salary, contract type and mode of work have changed since the COVID-19 crisis hit the UK in March. Overall, vacancies were down by 60 to 70\% in the first weeks of lockdown. By the end of the year numbers had recovered somewhat, but the total job ad deficit is measured to be over 40\%. Broken down by sector, vacancies for hospitality and graduate jobs are greatly reduced, while there were more care work and nursing vacancies during lockdown. Differences by geography are less significant than between sectors, though there is some indication that local lockdowns stall recovery and less badly hit areas may have experienced a smaller reduction in vacancies. There are also small but significant changes in the salary distribution and number of full time and permanent jobs. In addition to these results, this work presents an open methodology that enables a rapid and detailed survey of the job market in these unsettled conditions and we describe a web application \url{jobtrender.com} that allows others to query this data set.
翻訳日:2023-04-29 17:50:36 公開日:2021-01-31
# 単分子配向局在顕微鏡I:基本限界

Single-molecule orientation localization microscopy I: fundamental limits ( http://arxiv.org/abs/2010.04060v2 )

ライセンス: Link先を確認
Oumeng Zhang and Matthew D. Lew(参考訳) 個々のフルオロフォアの3次元位置と配向を正確に測定することは、単一分子実験においてかなりの光子ショットノイズのため困難である。 この限られた光子予算にもかかわらず、2Dと3Dの位置と2Dと3Dの配向情報を蛍光画像にエンコードする多くの技術が開発されている。 本研究では, 古典的および量子的推定理論を適用し, 固定撮像系における双極子型エミッタの位置と配向を測定するための最適精度を導出する数学的枠組みを提案する。 全ての可能な回転運動を測定するための最大感度限界を達成する機器を設計することは不可能である。 さらに,ベクトル双極子イメージングモデルでは,スカラーモノポールモデルより量子制限局所化精度が約4-8%低いことが示されている。 総じて、可能な2次元および3次元の局所化および配向測定タスクの最大精度に最適化できる機器は存在しないと結論付けている。

Precisely measuring the three-dimensional position and orientation of individual fluorophores is challenging due to the substantial photon shot noise in single-molecule experiments. Facing this limited photon budget, numerous techniques have been developed to encode 2D and 3D position and 2D and 3D orientation information into fluorescence images. In this work, we adapt classical and quantum estimation theory and propose a mathematical framework to derive the best possible precision for measuring the position and orientation of dipole-like emitters for any fixed imaging system. We find that it is impossible to design an instrument that achieves the maximum sensitivity limit for measuring all possible rotational motions. Further, our vectorial dipole imaging model shows that the best quantum-limited localization precision is ~4-8% worse than that suggested by a scalar monopole model. Overall, we conclude that no single instrument can be optimized for maximum precision across all possible 2D and 3D localization and orientation measurement tasks.
翻訳日:2023-04-29 15:36:13 公開日:2021-01-31
# 大域対称性, ユークリッド重力, ブラックホール情報問題

Global symmetry, Euclidean gravity, and the black hole information problem ( http://arxiv.org/abs/2010.10539v2 )

ライセンス: Link先を確認
Daniel Harlow and Edgar Shaghoulian(参考訳) 本稿では、量子重力における大域的対称性の非存在とブラックホール情報問題のユニタリ分解との密接な関係について論じる。 特に、蒸発するブラックホールのページ曲線の最近の計算の必須成分が、ads/cft対応以上の大域対称性に対する最近の議論を量子重力のより現実的な理論に一般化するためにどのように用いられるかを示す。 また、通常の意味ではブラックホール情報問題のユニタリ解を持たない量子重力理論のいくつかの低次元例を示し、従って大域対称性を持つことができる。 この議論に動機づけられて、ある意味でユークリッド量子重力はホログラフィと同値であると推測する。

In this paper we argue for a close connection between the non-existence of global symmetries in quantum gravity and a unitary resolution of the black hole information problem. In particular we show how the essential ingredients of recent calculations of the Page curve of an evaporating black hole can be used to generalize a recent argument against global symmetries beyond the AdS/CFT correspondence to more realistic theories of quantum gravity. We also give several low-dimensional examples of quantum gravity theories which do not have a unitary resolution of the black hole information problem in the usual sense, and which therefore can and do have global symmetries. Motivated by this discussion, we conjecture that in a certain sense Euclidean quantum gravity is equivalent to holography.
翻訳日:2023-04-28 05:21:32 公開日:2021-01-31
# 絵画における感情と色彩--新しい時間的・空間的定量的視点

Emotion and color in paintings: a novel temporal and spatial quantitative perspective ( http://arxiv.org/abs/2102.00407v1 )

ライセンス: Link先を確認
Wenyuan Kong, Teng Fei, Thom Jencks(参考訳) 主観的な芸術作品として、芸術絵画は創造者の感情を表現している。 絵画で表現された感情と観客の感情は、学者が注目した2種類の感情である。 絵画によって表現される感情の伝統的な研究は、主に質的な視点から行われ、絵画の感情的価値の定量的なアウトプットも、美術史における感情表現の傾向の探索もない。 本研究では,絵画の表情を美術史の芸術的特徴として脅威とし,絵画の表情を識別するために認知計算技術を用い,美術史における絵画感情の空間的・時間的パターン,絵画の感情に対する性差,感情に関連する色嗜好の3つの側面から絵画の定量的測定を行う。 絵画史において,幸せの感情は古代から現代にかけて増大する傾向にあり,男女の表情パターンも時代とともに異なることが判明した。 色好みに関しては、異なる文化背景を持つアーティストは、色と感情の間に類似した関係性を持っていた。

As subjective artistic creations, artistic paintings carry emotion of their creators. Emotions expressed in paintings and emotion aroused in spectators by paintings are two kinds of emotions that scholars have paid attention to. Traditional studies on emotions expressed by paintings are mainly conducted from qualitative perspectives, with neither quantitative output on the emotional values of a painting, nor exploration of trends in the expression of emotion in art history. In this research we threat facial expressions in paintings as an artistic characteristics of art history and employ cognitive computation technology to identify the facial emotions in paintings and to investigate the quantitative measures of paintings from three emotion-related aspects: the spatial and temporal patterns of painting emotions in art history, the gender difference on the emotion of paintings and the color preference associated with emotions. We discovered that the emotion of happiness has a growing trend from ancient to modern times in paintings history, and men and women have different facial expressions patterns along time. As for color preference, artists with different culture backgrounds had similar association preferences between colors and emotions.
翻訳日:2023-04-13 05:09:16 公開日:2021-01-31
# コーンシャム密度汎関数論の統一と還元密度行列汎関数論

Unity of Kohn-Sham Density Functional Theory and Reduced Density Matrix Functional Theory ( http://arxiv.org/abs/2102.00394v1 )

ライセンス: Link先を確認
Neil Qiang Su(参考訳) この研究は、コーン・シャム(KS)密度汎関数理論(DFT)と還元密度行列汎関数理論(RDMFT)の2つの独立した理論枠組みを統一する理論を提示している。 KS軌道を超複素数系へ一般化すると、超複素KS(HCKS)理論はKS-DFTの密度の探索空間を RDMFT の分数的占有を持つ自然スピン軌道と等価な空間に拡張する。 これにより、HCKSは動的に異なる分数的占有によって強い相関の多重参照特性を捉えることができる。 さらに、遷移金属原子を含む強い相関を持つ系において、KSの基本的な限界を克服するHCKSの可能性を検証する。 DFTの実現の有望な代替として、HCKSは将来的にDFTの開発と応用の新たな可能性を開く。

This work presents a theory to unify the two independent theoretical frameworks of Kohn-Sham (KS) density functional theory (DFT) and reduced density matrix functional theory (RDMFT). The generalization of the KS orbitals to hypercomplex number systems leads to the hypercomplex KS (HCKS) theory, which extends the search space for the density in KS-DFT to a space that is equivalent to natural spin orbitals with fractional occupations in RDMFT. Thereby, HCKS is able to capture the multi-reference nature of strong correlation by dynamically varying fractional occupations. Moreover, the potential of HCKS to overcome the fundamental limitations of KS is verified on systems with strong correlation, including atoms of transition metals. As a promising alternative to the realization of DFT, HCKS opens up new possibilities for the development and application of DFT in the future.
翻訳日:2023-04-13 05:08:37 公開日:2021-01-31
# マルチモーダル多目的最適化のためのニッチ多様性推定

Niching Diversity Estimation for Multi-modal Multi-objective Optimization ( http://arxiv.org/abs/2102.00383v1 )

ライセンス: Link先を確認
Yiming Peng and Hisao Ishibuchi(参考訳) ニッチは進化的多目的最適化において重要かつ広く用いられている手法である。 その応用は主に多様性の維持と局所最適への早期収束の回避に重点を置いている。 近年,多目的最適化問題,すなわちマルチモーダル多目的最適化問題(mmops)が注目されるようになった。 MMOPでは、対象空間の解は決定空間に複数の逆像を持つことができ、これは等価解と呼ばれる。 等価解は目的空間において重複している(すなわち同じ位置を占める)ため、群集距離のような標準多様性推定器はそれらのどれかを選び、他の解を破棄し、決定空間における多様性の損失を引き起こす可能性がある。 本研究では,MMOPの処理において,標準多様性推定器をより効率的にするための一般的なニッチ機構を提案する。 本研究では,提案手法をSPEA2とNSGA-IIに統合し,いくつかのMMOP上での性能評価を行った。 実験の結果,提案機構は各種MMOPにおけるSPEA2とNSGA-IIの性能を著しく向上させることがわかった。

Niching is an important and widely used technique in evolutionary multi-objective optimization. Its applications mainly focus on maintaining diversity and avoiding early convergence to local optimum. Recently, a special class of multi-objective optimization problems, namely, multi-modal multi-objective optimization problems (MMOPs), started to receive increasing attention. In MMOPs, a solution in the objective space may have multiple inverse images in the decision space, which are termed as equivalent solutions. Since equivalent solutions are overlapping (i.e., occupying the same position) in the objective space, standard diversity estimators such as crowding distance are likely to select one of them and discard the others, which may cause diversity loss in the decision space. In this study, a general niching mechanism is proposed to make standard diversity estimators more efficient when handling MMOPs. In our experiments, we integrate our proposed niching diversity estimation method into SPEA2 and NSGA-II and evaluate their performance on several MMOPs. Experimental results show that the proposed niching mechanism notably enhances the performance of SPEA2 and NSGA-II on various MMOPs.
翻訳日:2023-04-13 05:07:58 公開日:2021-01-31
# クラウド型イオントラップと超伝導量子コンピュータアーキテクチャの比較

Comparison of Cloud-Based Ion Trap and Superconducting Quantum Computer Architectures ( http://arxiv.org/abs/2102.00371v1 )

ライセンス: Link先を確認
S. Blinov, B. Wu, and C. Monroe(参考訳) 量子コンピューティングは、従来の情報処理へのアプローチから大きく離れており、古典的にアプローチできない問題を解決する可能性を秘めている。 大規模量子コンピュータハードウェアはまだ開発中であるが、いくつかの量子コンピューティングシステムが最近商用クラウドサービスとして利用可能になった。 いくつかの単純な量子回路とアルゴリズムでこれらのシステムの性能を比較し,各システムアーキテクチャのコンテキストにおけるコンポーネント性能について検討する。

Quantum computing represents a radical departure from conventional approaches to information processing, offering the potential for solving problems that can never be approached classically. While large scale quantum computer hardware is still in development, several quantum computing systems have recently become available as commercial cloud services. We compare the performance of these systems on several simple quantum circuits and algorithms, and examine component performance in the context of each system's architecture.
翻訳日:2023-04-13 05:07:38 公開日:2021-01-31
# リアプノフに基づく閉量子系の安定化と制御

Lyapunov-Based Stabilization and Control of Closed Quantum Systems ( http://arxiv.org/abs/2102.00344v1 )

ライセンス: Link先を確認
Elham Jamalinia, Peyman Azodi, Alireza Khayatian, and Peyman Setoodeh(参考訳) 閉量子系の安定化と制御のためのリャプノフ法が提案されている。 提案手法は,システム状態軌跡追跡誤差の量子リアプノフ関数に基づいて構成される。 リャプノフ函数の正定値作用素は、設計者にさらなる自由度を与える。 安定化過程は、非駆動量子系のハミルトニアン作用素との消滅または非消滅の可換性の観点から、この作用素の2つの異なるケースについて解析される。 量子射影測定仮定の結果、量子状態のグローバルな位相不変性に対処するために、提案されたリャプノフに基づく解析と設計において、量子状態の同値類を定義し、使用する。 その結果、安定可能な量子系の集合と、設計した制御信号によって生成される状態軌道の不変集合の両方に著しい改善が見られた。 提案手法は量子コンピューティングフレームワークにおける高忠実度量子制御に応用できる可能性がある。

A Lyapunov-based method is presented for stabilizing and controlling of closed quantum systems. The proposed method is constructed upon a novel quantum Lyapunov function of the system state trajectory tracking error. A positive-definite operator in the Lyapunov function provides additional degrees of freedom for the designer. The stabilization process is analyzed regarding two distinct cases for this operator in terms of its vanishing or non-vanishing commutation with the Hamiltonian operator of the undriven quantum system. To cope with the global phase invariance of quantum states as a result of the quantum projective measurement postulate, equivalence classes of quantum states are defined and used in the proposed Lyapunov-based analysis and design. Results show significant improvement in both the set of stabilizable quantum systems and their invariant sets of state trajectories generated by designed control signals. The proposed method can potentially be applied for high-fidelity quantum control purposes in quantum computing frameworks.
翻訳日:2023-04-13 05:07:02 公開日:2021-01-31
# 中性原子と高速制御NOT量子ゲートのリドバーグ相互作用による遷移スローダウン

Transition Slow-Down by Rydberg Interaction of Neutral Atoms and a Fast Controlled-NOT Quantum Gate ( http://arxiv.org/abs/2102.00342v1 )

ライセンス: Link先を確認
Xiao-Feng Shi(参考訳) 制御可能な相互作用の探索は量子科学の中心にある。 中性リドバーグ原子は単一量子間の柔軟な相互作用への多様な経路を提供する。 それまでの取り組みは、リドベルク封鎖の励起消滅(EA)効果を中心に、相互作用変動に対する堅牢性に焦点が当てられていた。 我々は、リドベルク封鎖の別の効果、すなわち遷移速度低下~(TSD)について研究する。 tsdでは、一原子中の基底リドバーグサイクリングは、近くの原子のリドバーグ誘起状態遷移を遅くするが、これは推定状態遷移を消滅させるeaとは対照的である。 TSDは正確に制御可能なNOT {\displaystyle {\footnotesize NOT}~({\footnotesize CNOT})ゲートに、約$2\pi/\Omega+\epsilon$を2つのパルスで割ることができ、ここでは$\epsilon$はパルスの位相変化を実装するための無視可能な過渡時間であり、$\Omega$はRydberg Rabi周波数である。 高速で正確な TSD ベースの {\footnotesize CNOT は、超伝導〜(イオントラップ)システムに匹敵する中性原子を作る。

Exploring controllable interactions lies at the heart of quantum science. Neutral Rydberg atoms provide a versatile route toward flexible interactions between single quanta. Previous efforts mainly focused on the excitation annihilation~(EA) effect of the Rydberg blockade due to its robustness against interaction fluctuation. We study another effect of the Rydberg blockade, namely, the transition slow-down~(TSD). In TSD, a ground-Rydberg cycling in one atom slows down a Rydberg-involved state transition of a nearby atom, which is in contrast to EA that annihilates a presumed state transition. TSD can lead to an accurate controlled-{\footnotesize NOT}~({\footnotesize CNOT}) gate with a sub-$\mu$s duration about $2\pi/\Omega+\epsilon$ by two pulses, where $\epsilon$ is a negligible transient time to implement a phase change in the pulse and $\Omega$ is the Rydberg Rabi frequency. The speedy and accurate TSD-based {\footnotesize CNOT} makes neutral atoms comparable~(superior) to superconducting~(ion-trap) systems.
翻訳日:2023-04-13 05:06:50 公開日:2021-01-31
# 中性原子を用いた量子計算のための3次元原子配列の単一サイトrydbergアドレス

Single-site Rydberg addressing in 3D atomic arrays for quantum computing with neutral atoms ( http://arxiv.org/abs/2102.00341v1 )

ライセンス: Link先を確認
Xiao-Feng Shi(参考訳) 中性原子配列は、特に大規模な量子ビット配列を準備できるため、大規模量子コンピューティングに有望である。 未解決の問題は、3d原子配列内の1キュービットをrydberg状態へ選択的に励起する方法である。 本研究では,この目的のために2つの方法を示す。 最初の方法はよく知られた結果に依存している: 同じ強度の2つのオフ共振場によって駆動される2つの量子状態間の双極子遷移において、この遷移は、2つの逆回転するrabi周波数である$\omega e^{\pm i\delta t}$~[または$\pm\omega e^{\pm i\delta t}$ によって特徴づけられる。 この2つの磁場は時間依存のラビ周波数2.Omega \cos(\Delta t)$~[または2.i\Omega \sin(\Delta t)$]につながり、2つのレベル間の完全な遷移が回復される。 この2つの磁場が異なる方向に送られたとき、3次元光学格子内の1つの原子を選択的にRydberg励起に対処でき、その状態が復元されると、光路に照射された任意の非ターゲット原子の状態も復元されることを示す。 さらに、この方法により、Rydbergの励起は、パルスピッカーにより容易に得られる準矩形パルスを用いた高忠実エンタングルゲートへの道を開くことにより、Rydbergゲートの基本閉塞誤差を著しく抑制できることがわかった。 その過程で、スピンエコー列による任意の非ターゲット原子の状態を維持しながら、選択されたターゲット原子をrydberg状態へ励起できる3dの単一サイトrydbergアドレスの2番目の方法を見つける。 Rydbergの励起のために3次元原子配列のターゲット原子を選択的に処理する能力により、Rydbergブロックに基づく大規模中性原子情報プロセッサを設計することができる。

Neutral atom arrays are promising for large-scale quantum computing especially because it is possible to prepare large-scale qubit arrays. An unsolved issue is how to selectively excite one qubit deep in a 3D atomic array to Rydberg states. In this work, we show two methods for this purpose. The first method relies on a well-known result: in a dipole transition between two quantum states driven by two off-resonant fields of equal strength but opposite detunings $\pm\Delta$, the transition is characterized by two counter-rotating Rabi frequencies $\Omega e^{\pm i\Delta t}$~[or $\pm\Omega e^{\pm i\Delta t}$ if the two fields have a $\pi$-phase difference]. This pair of detuned fields lead to a time-dependent Rabi frequency $2\Omega \cos(\Delta t)$~[or $2i\Omega \sin(\Delta t)$], so that a full transition between the two levels is recovered. We show that when the two detuned fields are sent in different directions, one atom in a 3D optical lattice can be selectively addressed for Rydberg excitation, and when its state is restored, the state of any nontarget atoms irradiated in the light path is also restored. Moreover, we find that the Rydberg excitation by this method can significantly suppress the fundamental blockade error of a Rydberg gate, paving the way for a high-fidelity entangling gate with commonly used quasi-rectangular pulse that is easily obtained by pulse pickers. Along the way, we find a second method for single-site Rydberg addressing in 3D, where a selected target atom can be excited to Rydberg state while preserving the state of any nontarget atom due to a spin echo sequence. The capability to selectively address a target atom in 3D atomic arrays for Rydberg excitation makes it possible to design large-scale neutral-atom information processor based on Rydberg blockade.
翻訳日:2023-04-13 05:06:27 公開日:2021-01-31
# 配向基底状態を持つ組合せグラフにおけるバンドギャップ最適化:量子アニールへの応用

Bandgap optimization in combinatorial graphs with tailored ground states: Application in Quantum annealing ( http://arxiv.org/abs/2102.00551v1 )

ライセンス: Link先を確認
Siddhartha Srivastava and Veera Sundararaghavan(参考訳) Pottsモデルのパラメータ推定にはMILP(mixed-integer linear programming)の定式化を提案する。 2つのアルゴリズムが開発されており、第1の手法では、基底状態のセットがユーザが指定したデータセットを複製するようにパラメータを推定する。 どちらの場合も、最適化プロセスはバンドギャップの最大化を保証する。 これにより、モデルパラメータは、幅広い温度のユーザデータを効率的に記述する。 これは、正確なシミュレーション温度が不明な量子アニールハードウェア上でシミュレーションされるエネルギーベースのグラフモデルの開発に有用である。 この手法のメモリ要求はグラフサイズとともに指数関数的に増大する。 したがって、この方法は小さなグラフにしか適用できない。 そのような応用には、小さな生成的分類器の学習や、Ising hamiltonianによって記述されたエネルギーを持つスピン格子モデルが含まれる。 大規模データセットの学習は、この方法に余計なコストを要しないが、高次元データの学習を伴うアプリケーションはスコープ外である。

A mixed-integer linear programming (MILP) formulation is presented for parameter estimation of the Potts model. Two algorithms are developed; the first method estimates the parameters such that the set of ground states replicate the user-prescribed data set; the second method allows the user to prescribe the ground states multiplicity. In both instances, the optimization process ensures that the bandgap is maximized. Consequently, the model parameter efficiently describes the user data for a broad range of temperatures. This is useful in the development of energy-based graph models to be simulated on Quantum annealing hardware where the exact simulation temperature is unknown. Computationally, the memory requirement in this method grows exponentially with the graph size. Therefore, this method can only be practically applied to small graphs. Such applications include learning of small generative classifiers and spin-lattice model with energy described by Ising hamiltonian. Learning large data sets poses no extra cost to this method; however, applications involving the learning of high dimensional data are out of scope.
翻訳日:2023-04-13 04:59:59 公開日:2021-01-31
# コマンドを超えて:フェミニストSTS研究と社会機械設計の批判的課題

Beyond the Command: Feminist STS Research and Critical Issues for the Design of Social Machines ( http://arxiv.org/abs/2102.00464v1 )

ライセンス: Link先を確認
Kelly B. Wagman and Lisa Parks(参考訳) 人工知能のデジタルアシスタントからエンボディロボットに至るまで、機械は日常的に普及しつつある。 フェミニストの科学と技術研究(STS)の視点に基づいて、機械設計者は単に中立な物体を作るだけでなく、性別やパワーダイナミクスといった人間の社会問題に絡み合った機械と人間との関係を実証する。 したがって、より倫理的で公正な未来を生み出すためには、これらの人間と機械の関係の設計を現在支えている支配的な仮定に挑戦し、正義と排他性の関係に方向転換しなければならない。 本論文は, 社会の重要性, 多様性, 複雑さを認識し, 機械のエージェント・パワーと関わりを追求する技術設計者のためのモデルとして「ソーシャル・マシン」を提案する。 我々のモデルでは、この社会機械は、人間、物体、動物とは異なる「他の」エージェンシーを持つ潜在的に平等な関係パートナーとして考えられている。 ロボットをツール、人間の仲間、動物や生き物、奴隷とみなすロボット工学の傾向と、我々のモデルを批判的に比較し、対比する。 そこで我々は,人間と機械の関係を包括的に支配する仮定を示し,社会機械デザインにおける急進的思考の課題を明らかにする。 最後に,非共形的フィギュレーションと相互性に基づく2つの設計課題を提示し,実験,非学習的支配傾向,社会技術的未来の再想像を求める。

Machines, from artificially intelligent digital assistants to embodied robots, are becoming more pervasive in everyday life. Drawing on feminist science and technology studies (STS) perspectives, we demonstrate how machine designers are not just crafting neutral objects, but relationships between machines and humans that are entangled in human social issues such as gender and power dynamics. Thus, in order to create a more ethical and just future, the dominant assumptions currently underpinning the design of these human-machine relations must be challenged and reoriented toward relations of justice and inclusivity. This paper contributes the "social machine" as a model for technology designers who seek to recognize the importance, diversity and complexity of the social in their work, and to engage with the agential power of machines. In our model, the social machine is imagined as a potentially equitable relationship partner that has agency and as an "other" that is distinct from, yet related to, humans, objects, and animals. We critically examine and contrast our model with tendencies in robotics that consider robots as tools, human companions, animals or creatures, and/or slaves. In doing so, we demonstrate ingrained dominant assumptions about human-machine relations and reveal the challenges of radical thinking in the social machine design space. Finally, we present two design challenges based on non-anthropomorphic figuration and mutuality, and call for experimentation, unlearning dominant tendencies, and reimagining of sociotechnical futures.
翻訳日:2023-04-13 04:58:23 公開日:2021-01-31
# ブロックチェーンによるサプライチェーンのアンチカウンタファイティングとトレーサビリティ

Toward Blockchain-Enabled Supply Chain Anti-Counterfeiting and Traceability ( http://arxiv.org/abs/2102.00459v1 )

ライセンス: Link先を確認
Neo C.K. Yiu(参考訳) 製品の反偽造と記録的証明に対処するイノベーティブなソリューションは、今日の国際的なサプライチェーンネットワークに展開されている。 これらの製品の反カウンタファイトソリューションは、中央集権的な権威や仲介者に依存した集中型システムアーキテクチャで開発され、実装される。 集中型製品アンチカウンセリングソリューションの脆弱性は、製品レコード上で行われる悪意のある修正のシステム障害や、サプライチェーンに沿って横断する不正な参加者ノードによるシステムコンポーネントへの様々な攻撃を引き起こす可能性がある。 ブロックチェーン技術は、暗号通貨取引の不変台帳のユースケースから、世界中のさまざまなユースケースに対処する分散型で信頼性の高いアプリケーションを開発するプログラム可能な対話環境へと発展してきた。 In this research, so as to facilitate trustworthy data provenance retrieval, verification and management, as well as strengthening capability of product anti-counterfeiting, key areas of decentralization and feasible mechanisms of developing decentralized and distributed product anti-counterfeiting and traceability ecosystems utilizing blockchain technology, are identified via a series of security and threat analyses performed mainly against NFC-Enabled Anti-Counterfeiting System (NAS) which is one of the solutions currently implemented in the industry with centralized architecture. サプライチェーンの反カウンタフェイトとトレーサビリティのための、ブロックチェーン対応の自律的かつ分散ソリューションを開発するための、一連の基本的なシステム要件が設定され、サプライチェーン産業のために、プロヴァンス記録、豪華商品のデータ完全性に関する説得力のある特性を提供する、セキュアで不変な科学的データプロヴァンス追跡および管理プラットフォームが、自動的に記録および検証される。

Innovative solutions addressing product anti-counterfeiting and record provenance have been deployed across today's internationally spanning supply chain networks. These product anti-counterfeiting solutions are developed and implemented with centralized system architecture relying on centralized authorities or any form of intermediaries. Vulnerabilities of centralized product anti-counterfeiting solutions could possibly lead to system failure or susceptibility of malicious modifications performed on product records or various potential attacks to the system components by dishonest participant nodes traversing along the supply chain. Blockchain technology has progressed from merely with a use case of immutable ledger for cryptocurrency transactions to a programmable interactive environment of developing decentralized and reliable applications addressing different use cases globally. In this research, so as to facilitate trustworthy data provenance retrieval, verification and management, as well as strengthening capability of product anti-counterfeiting, key areas of decentralization and feasible mechanisms of developing decentralized and distributed product anti-counterfeiting and traceability ecosystems utilizing blockchain technology, are identified via a series of security and threat analyses performed mainly against NFC-Enabled Anti-Counterfeiting System (NAS) which is one of the solutions currently implemented in the industry with centralized architecture. A set of fundamental system requirements are set out for developing a blockchain-enabled autonomous and decentralized solution for supply chain anti-counterfeiting and traceability, as a secure and immutable scientific data provenance tracking and management platform in which provenance records, providing compelling properties on data integrity of luxurious goods, are recorded and verified automatically, for supply chain industry.
翻訳日:2023-04-13 04:57:57 公開日:2021-01-31
# 2つの大都市圏を結ぶ511km光ファイバ上のツインフィールド量子鍵分布

Twin-Field Quantum Key Distribution over 511 km Optical Fiber Linking two Distant Metropolitans ( http://arxiv.org/abs/2102.00433v1 )

ライセンス: Link先を確認
Jiu-Peng Chen, Chi Zhang, Yang Liu, Cong Jiang, Wei-Jun Zhang, Zhi-Yong Han, Shi-Zhao Ma, Xiao-Long Hu, Yu-Huai Li, Hui Liu, Fei Zhou, Hai-Feng Jiang, Teng-Yun Chen, Hao Li, Li-Xing You, Zhen Wang, Xiang-Bin Wang, Qiang Zhang, Jian-Wei Pan(参考訳) 量子力学の基本原理は、量子状態の増幅が不可能なコストで量子鍵分布(QKD)の無条件のセキュリティを保証する。 その結果、過去数十年で世界規模のQKDネットワークが著しく進歩したにもかかわらず、信頼できるリレーのない長時間のQKDネットワークはまだ達成されていない。 ここでは,送信・送信(SNS)プロトコルを用いて,2つの大都市圏を結ぶ511kmのハールファイバトランク上で,信頼できるリピータを使わずにセキュアなキーを配布する。 我々の安全な鍵レートは、前回のQKDフィールドテストシステムが同じ長さで適用された場合、予想よりも約3桁大きい。 長距離展開されたファイバ上の効率的な量子状態伝送と安定な単一光子干渉は、大規模ファイバ量子ネットワークへの道を舗装する。

The basic principle of quantum mechanics guarantee the unconditional security of quantum key distribution (QKD) at the cost of inability of amplification of quantum state. As a result, despite remarkable progress in worldwide metropolitan QKD networks over the past decades, long haul fiber QKD network without trustful relay has not been achieved yet. Here, through sending-or-not-sending (SNS) protocol, we complete a twin field QKD (TF-QKD) and distribute secure keys without any trusted repeater over a 511 km long haul fiber trunk linking two distant metropolitans. Our secure key rate is around 3 orders of magnitudes greater than what is expected if the previous QKD field test system over the same length were applied. The efficient quantum-state transmission and stable single-photon interference over such a long distance deployed fiber paves the way to large-scale fiber quantum networks.
翻訳日:2023-04-13 04:57:32 公開日:2021-01-31
# 古典電気力学の位相対称性

The phase symmetry of classical electrodynamics ( http://arxiv.org/abs/2102.00430v1 )

ライセンス: Link先を確認
Serhii Samokhvalov(参考訳) 電荷のない古典的電気力学の動的 u (1)$ 対称性は、量子力学の既知の位相対称性と同様に解析される。 この対称性を用いて、量子力学的に類似した古典的電気力学の代替ラグランジアンが発見され、それらの対称性特性が研究された。

The dynamic $U (1)$ symmetry of classical electrodynamics without charges, similar to the known phase symmetry of quantum mechanics, is analyzed. Using this symmetry, alternative Lagrangians of classical electrodynamics, similar to quantum-mechanical ones, were found, and their symmetry properties were investigated.
翻訳日:2023-04-13 04:57:16 公開日:2021-01-31
# 事前学習型トランスモデルを用いたデータ拡張

Data Augmentation using Pre-trained Transformer Models ( http://arxiv.org/abs/2003.02245v2 )

ライセンス: Link先を確認
Varun Kumar, Ashutosh Choudhary, Eunah Cho(参考訳) BERTのような言語モデルに基づく事前学習モデルは、異なるNLPタスク間で大きな利益をもたらしている。 本稿では, 自動回帰モデル (GPT-2) や自動エンコーダモデル (BERT) , セック2seqモデル (BART) など, 条件付きデータ拡張のためのトランスフォーマを用いた事前学習モデルについて検討する。 テキストシーケンスへのクラスラベルのプリプレプディングは、データ拡張のために事前学習されたモデルを条件付けるためのシンプルかつ効果的な方法を提供する。 さらに、3つの分類ベンチマークでは、事前訓練されたseq2seqモデルは、低リソース設定で他のデータ拡張メソッドよりも優れている。 さらに,事前学習されたモデルに基づくデータ拡張がデータ多様性の短期的にどのように異なるか,それらの手法がいかにクラスラベル情報を保存するかについて検討する。

Language model based pre-trained models such as BERT have provided significant gains across different NLP tasks. In this paper, we study different types of transformer based pre-trained models such as auto-regressive models (GPT-2), auto-encoder models (BERT), and seq2seq models (BART) for conditional data augmentation. We show that prepending the class labels to text sequences provides a simple yet effective way to condition the pre-trained models for data augmentation. Additionally, on three classification benchmarks, pre-trained Seq2Seq model outperforms other data augmentation methods in a low-resource setting. Further, we explore how different pre-trained model based data augmentation differs in-terms of data diversity, and how well such methods preserve the class-label information.
翻訳日:2022-12-26 12:14:58 公開日:2021-01-31
# 可逆的な埋め込みドメイン特化言語ですべてを区別する

Differentiate Everything with a Reversible Embeded Domain-Specific Language ( http://arxiv.org/abs/2003.04617v3 )

ライセンス: Link先を確認
Jin-Guo Liu and Taine Zhao(参考訳) 逆モード自動微分(Reverse-mode Automatic differentiation, AD)は、バックプロパゲーションのための中間計算状態をトレースするには空間オーバーヘッドが多すぎるという問題に悩まされる。 状態をトレースする従来の方法はチェックポイントと呼ばれ、中間状態をグローバルスタックに格納し、スタックポップまたは再計算を通じて状態を復元する。 スタック操作と再計算のオーバーヘッドにより、汎用(テンソルベースではない)の広告エンジンは多くの産業ニーズを満たせない。 チェックポイントの代わりに、プログラムを暗黙のスタック操作なしで双方向に実行できる可逆プログラミングedslの設計と実装により、逆計算を使って状態をトレースする。 暗黙のスタック操作がないため、既存の最適化パスを利用し、コードをGPUカーネルとしてコンパイルするなど、既存のコンパイラ機能と互換性がある。 スパース行列演算のためのADと機械学習アプリケーションを実装し、我々のフレームワークが最先端の性能を持っていることを示す。

Reverse-mode automatic differentiation (AD) suffers from the issue of having too much space overhead to trace back intermediate computational states for back-propagation. The traditional method to trace back states is called checkpointing that stores intermediate states into a global stack and restore state through either stack pop or re-computing. The overhead of stack manipulations and re-computing makes the general purposed (not tensor-based) AD engines unable to meet many industrial needs. Instead of checkpointing, we propose to use reverse computing to trace back states by designing and implementing a reversible programming eDSL, where a program can be executed bi-directionally without implicit stack operations. The absence of implicit stack operations makes the program compatible with existing compiler features, including utilizing existing optimization passes and compiling the code as GPU kernels. We implement AD for sparse matrix operations and some machine learning applications to show that our framework has the state-of-the-art performance.
翻訳日:2022-12-24 21:47:44 公開日:2021-01-31
# バックドア攻撃のトリガーを再考する

Rethinking the Trigger of Backdoor Attack ( http://arxiv.org/abs/2004.04692v3 )

ライセンス: Link先を確認
Yiming Li, Tongqing Zhai, Baoyuan Wu, Yong Jiang, Zhifeng Li, Shutao Xia(参考訳) バックドア攻撃は、ディープニューラルネットワーク(DNN)に隠れたバックドアを注入することを目的としており、攻撃者が定義したトリガーによって隠れたバックドアがアクティベートされた場合、感染したモデルの予測が悪意的に変更される。 現在、既存のバックドアアタックのほとんどは、トレーニングとテスト用のイメージが同じ外観で同じエリアに置かれているという、emph{static} トリガの設定を採用しています。 本稿では,静的トリガの特性を解析することにより,この攻撃パラダイムを再考する。 テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。 我々はさらに,この特性をバックドア防御に利用する方法について検討し,既存の攻撃の脆弱性を軽減する方法について論じる。

Backdoor attack intends to inject hidden backdoor into the deep neural networks (DNNs), such that the prediction of the infected model will be maliciously changed if the hidden backdoor is activated by the attacker-defined trigger, while it performs well on benign samples. Currently, most of existing backdoor attacks adopted the setting of \emph{static} trigger, $i.e.,$ triggers across the training and testing images follow the same appearance and are located in the same area. In this paper, we revisit this attack paradigm by analyzing the characteristics of the static trigger. We demonstrate that such an attack paradigm is vulnerable when the trigger in testing images is not consistent with the one used for training. We further explore how to utilize this property for backdoor defense, and discuss how to alleviate such vulnerability of existing attacks.
翻訳日:2022-12-15 02:35:49 公開日:2021-01-31
# GANの進化におけるスキルレーティングの適合性

Using Skill Rating as Fitness on the Evolution of GANs ( http://arxiv.org/abs/2004.04796v2 )

ライセンス: Link先を確認
Victor Costa, Nuno Louren\c{c}o, Jo\~ao Correia, Penousal Machado(参考訳) Generative Adversarial Networks (GANs) は、生成タスクにおいて印象的な結果をもたらす敵モデルである。 関連する結果にもかかわらず、gansは安定性に関するいくつかの課題を提示し、通常、トレーニングはヒット&ミスのプロセスとなる。 これらの課題を克服するために、ジェネレータと判別器が使用するニューラルネットワークの代替損失関数やアーキテクチャの変更など、モデルの内部特性をよりうまく扱うためのいくつかの改善が提案された。 近年の研究では、これらの課題を解決し、優れたモデルを見つけるための自動方法を提供することを目的として、GANトレーニングにおける進化的アルゴリズムの使用が提案されている。 この文脈において、COEGANはGANの訓練を編成するために共進化と神経進化の使用を提案する。 しかし、以前の実験では、進化を導くために使われる適合関数の一部が理想的でないことが検出された。 本研究では,COEGAN方式で使用するゲームベースのフィットネス機能の評価を提案する。 スキルレーティング(英: skill rating)は、ゲーム中のプレイヤーのスキルを定量化する指標であり、すでにganの評価に使われている。 我々は、このアイデアを進化アルゴリズムのスキル評価を用いて拡張し、GANを訓練する。 以上の結果から,COEGANの能力評価は,外部評価装置に頼らずに適応できることが示された。

Generative Adversarial Networks (GANs) are an adversarial model that achieved impressive results on generative tasks. In spite of the relevant results, GANs present some challenges regarding stability, making the training usually a hit-and-miss process. To overcome these challenges, several improvements were proposed to better handle the internal characteristics of the model, such as alternative loss functions or architectural changes on the neural networks used by the generator and the discriminator. Recent works proposed the use of evolutionary algorithms on GAN training, aiming to solve these challenges and to provide an automatic way to find good models. In this context, COEGAN proposes the use of coevolution and neuroevolution to orchestrate the training of GANs. However, previous experiments detected that some of the fitness functions used to guide the evolution are not ideal. In this work we propose the evaluation of a game-based fitness function to be used within the COEGAN method. Skill rating is a metric to quantify the skill of players in a game and has already been used to evaluate GANs. We extend this idea using the skill rating in an evolutionary algorithm to train GANs. The results show that skill rating can be used as fitness to guide the evolution in COEGAN without the dependence of an external evaluator.
翻訳日:2022-12-15 02:18:01 公開日:2021-01-31
# コード切り換えデータの語彙正規化とposタグへの影響

Lexical Normalization for Code-switched Data and its Effect on POS-tagging ( http://arxiv.org/abs/2006.01175v2 )

ライセンス: Link先を確認
Rob van der Goot, \"Ozlem \c{C}etino\u{g}lu(参考訳) 非標準データから標準言語への変換である語彙正規化は、ソーシャルメディア上での多言語処理タスクの性能向上を示す。 しかし、複数の言語を一つの発話で使用する場合(コードスイッチング(CS)とも呼ばれる)は、ソーシャルメディアでよく使われているにもかかわらず、これらの正規化システムによってしばしば見過ごされる。 本稿では,インドネシア語-英語 (Id-En) とトルコ語-ドイツ語 (Tr-De) の2つの言語対について,コード交換データを扱うための正規化モデルを提案する。 後者については、データセットに新しい正規化層と対応する言語idおよびposタグを導入し、正規化がposタグに与える影響を評価する。 その結果, CS-tailored normalization model は, Id-En モデル, Tr-Deモノリンガルモデルより優れており, POSタグの相対的性能は非正規化入力と比較して5.4%向上した。

Lexical normalization, the translation of non-canonical data to standard language, has shown to improve the performance of manynatural language processing tasks on social media. Yet, using multiple languages in one utterance, also called code-switching (CS), is frequently overlooked by these normalization systems, despite its common use in social media. In this paper, we propose three normalization models specifically designed to handle code-switched data which we evaluate for two language pairs: Indonesian-English (Id-En) and Turkish-German (Tr-De). For the latter, we introduce novel normalization layers and their corresponding language ID and POS tags for the dataset, and evaluate the downstream effect of normalization on POS tagging. Results show that our CS-tailored normalization models outperform Id-En state of the art and Tr-De monolingual models, and lead to 5.4% relative performance increase for POS tagging as compared to unnormalized input.
翻訳日:2022-11-26 07:06:40 公開日:2021-01-31
# 相互作用データに基づくsars-cov-2感染確率の連続学習と推測

Continuous Learning and Inference of Individual Probability of SARS-CoV-2 Infection Based on Interaction Data ( http://arxiv.org/abs/2006.04646v3 )

ライセンス: Link先を確認
Shangching Liu (1), Koyun Liu (1), Hwaihai Chiang (1), Jianwei Zhang (2), Tsungyao Chang (1) ((1) Synergies Intelligent Systems, Inc., (2) University of Hamburg)(参考訳) 本研究は,SARS-CoV-2ウイルスの非感染性キャリアーの確率を,対話型連続学習とCLIIP(inference of individual probability)を用いて判定する方法を提案する。 このアプローチは、多層双方向経路追跡と推論探索を用いて、個人指向グラフ(IDG)に基づいて開発されている。 IDGは、時間とともに適応できる出現タイムラインと空間データによって決定される。 さらに、このアプローチはインキュベーション期間と、無症状キャリアの数など現実世界の状況を表すいくつかの特徴を考慮に入れている。 確認された症例の更新後、モデルが相互作用の特徴を収集し、周囲の人々の状況を利用して個人が感染する確率を推測する。 CLIIPアプローチは、個別化された双方向SEIRモデルを用いて、感染過程をシミュレートする。 従来の接触追跡法と比較して,無症候性ウイルスキャリアの探索に必要なスクリーニングと隔離を最大94%削減した。

This study presents a new approach to determine the likelihood of asymptomatic carriers of the SARS-CoV-2 virus by using interaction-based continuous learning and inference of individual probability (CLIIP) for contagious ranking. This approach is developed based on an individual directed graph (IDG), using multi-layer bidirectional path tracking and inference searching. The IDG is determined by the appearance timeline and spatial data that can adapt over time. Additionally, the approach takes into consideration the incubation period and several features that can represent real-world circumstances, such as the number of asymptomatic carriers present. After each update of confirmed cases, the model collects the interaction features and infers the individual person's probability of getting infected using the status of the surrounding people. The CLIIP approach is validated using the individualized bidirectional SEIR model to simulate the contagion process. Compared to traditional contact tracing methods, our approach significantly reduces the screening and quarantine required to search for the potential asymptomatic virus carriers by as much as 94%.
翻訳日:2022-11-24 02:45:18 公開日:2021-01-31
# Nystrom近似を用いたスケーラブルスペクトルクラスタリング:実用的および理論的側面

Scalable Spectral Clustering with Nystrom Approximation: Practical and Theoretical Aspects ( http://arxiv.org/abs/2006.14470v2 )

ライセンス: Link先を確認
Farhad Pourkamali-Anaraki(参考訳) スペクトルクラスタリング技術は、複雑なデータセットを分割するための信号処理や機械学習で有用なツールである。 スペクトルクラスタリングの有効性は、類似性グラフの作成とラプラシアン行列のスペクトル分解の計算に基づく非線形埋め込みの構築に起因している。 しかし、スペクトルクラスタリング法は計算コストとメモリ使用量が高いため、大規模なデータセットにスケールできない。 これらの問題に対処するための一般的なアプローチは、大きな正の半定値行列に対する低ランク近似を計算するための効率的なサンプリングベースアルゴリズムであるNystrom法を用いる。 本稿では,これまで広く用いられてきたナイストロム型スペクトルクラスタリングのアプローチに厳しい制限があることを示す。 既存の時間効率の手法では、サンプリングされた点に関連付けられた類似度行列のランクを早期に下げることで臨界情報を無視する。 また、Nystrom近似の利用がスペクトル埋め込み近似の品質にどのように影響するかについては、現在の理解が限られている。 この制限に対処するため,本研究では,サンプル点に付随する類似度行列のスペクトル特性を利用して精度・効率のトレードオフを制御した原理的スペクトルクラスタリングアルゴリズムを提案する。 そこで本研究では, 実データと合成データを用いた数値実験を行う。 実験により,Nystrom法および他の効率的な手法に基づく既存のスペクトルクラスタリング手法と比較して,提案手法の有効性と有効性を示す。 この研究の全体的な目標は、将来の研究方向のベースラインを改善し、スペクトルクラスタリングを加速することである。

Spectral clustering techniques are valuable tools in signal processing and machine learning for partitioning complex data sets. The effectiveness of spectral clustering stems from constructing a non-linear embedding based on creating a similarity graph and computing the spectral decomposition of the Laplacian matrix. However, spectral clustering methods fail to scale to large data sets because of high computational cost and memory usage. A popular approach for addressing these problems utilizes the Nystrom method, an efficient sampling-based algorithm for computing low-rank approximations to large positive semi-definite matrices. This paper demonstrates how the previously popular approach of Nystrom-based spectral clustering has severe limitations. Existing time-efficient methods ignore critical information by prematurely reducing the rank of the similarity matrix associated with sampled points. Also, current understanding is limited regarding how utilizing the Nystrom approximation will affect the quality of spectral embedding approximations. To address the limitations, this work presents a principled spectral clustering algorithm that exploits spectral properties of the similarity matrix associated with sampled points to regulate accuracy-efficiency trade-offs. We provide theoretical results to reduce the current gap and present numerical experiments with real and synthetic data. Empirical results demonstrate the efficacy and efficiency of the proposed method compared to existing spectral clustering techniques based on the Nystrom method and other efficient methods. The overarching goal of this work is to provide an improved baseline for future research directions to accelerate spectral clustering.
翻訳日:2022-11-17 02:46:08 公開日:2021-01-31
# 方程式の集合による条件独立性と因果関係

Conditional independences and causal relations implied by sets of equations ( http://arxiv.org/abs/2007.07183v2 )

ライセンス: Link先を確認
Tineke Blom and Mirthe M. van Diepen and Joris M. Mooij(参考訳) 実世界の複素系はしばしば内在変数と外因変数を持つ方程式の集合によってモデル化される。 方程式を明示的に解くことなく、これらの方程式に現れる変数の因果的・確率的側面について何を言えるか。 サイモンの因果順序付けアルゴリズム(simon, 1953)を用いて因果順序付けグラフを構築し、ある一意的な可解性仮定の下での方程式に対するソフトかつ完璧な介入の効果を証明した。 さらに、マルコフ順序グラフを構築し、同様の一意な可解性仮定の下で、独立な確率外在変数を持つ方程式によって暗示される分布の条件独立性を符号化する。 本稿では,因果ベイズネットワークや構造因果モデルなど,既存の因果モデリングフレームワークの制約をいかに明らかにし,対処するかを論じる。

Real-world complex systems are often modelled by sets of equations with endogenous and exogenous variables. What can we say about the causal and probabilistic aspects of variables that appear in these equations without explicitly solving the equations? We make use of Simon's causal ordering algorithm (Simon, 1953) to construct a causal ordering graph and prove that it expresses the effects of soft and perfect interventions on the equations under certain unique solvability assumptions. We further construct a Markov ordering graph and prove that it encodes conditional independences in the distribution implied by the equations with independent random exogenous variables, under a similar unique solvability assumption. We discuss how this approach reveals and addresses some of the limitations of existing causal modelling frameworks, such as causal Bayesian networks and structural causal models.
翻訳日:2022-11-10 13:41:32 公開日:2021-01-31
# 概念因子化に関する調査 : 浅部から深部まで

A Survey on Concept Factorization: From Shallow to Deep Representation Learning ( http://arxiv.org/abs/2007.15840v3 )

ライセンス: Link先を確認
Zhao Zhang, Yan Zhang, Mingliang Xu, Li Zhang, Yi Yang, Shuicheng Yan(参考訳) 表現学習による学習特徴の品質は、学習アルゴリズムと関連するアプリケーションタスク(高次元データクラスタリングなど)のパフォーマンスを決定する。 表現型学習の比較的新しいパラダイムとして、概念因子化(CF)は10年以上にわたって機械学習とデータマイニングの分野で大きな関心を集めてきた。 多くの有効なCF法が様々な視点や特性に基づいて提案されているが、それでも本質的な関係を把握し、基礎となる説明的要因を出口研究から解明することは容易ではない。 そこで本稿では,CF手法の最近の進歩と,現在の手法を分類・要約することで,潜在的なベンチマークについて調査する。 具体的には、まずルートCF法を再検討し、浅いケースから深層/多層ケースまで、CFに基づく表現学習の進歩について検討する。 CFベースの手法の潜在的な適用領域についても紹介する。 最後に,CFに基づく表現学習の今後の方向性について述べる。 全体として、この調査はcfの分野における理論的基礎と現在の発展の両方について洞察に富んだ概要を提供するもので、興味のある研究者がcfの現在のトレンドを理解し、特定のアプリケーションを扱うのに最適なcf技術を見つけるのに役立つ。

The quality of learned features by representation learning determines the performance of learning algorithms and the related application tasks (such as high-dimensional data clustering). As a relatively new paradigm for representation learning, Concept Factorization (CF) has attracted a great deal of interests in the areas of machine learning and data mining for over a decade. Lots of effective CF based methods have been proposed based on different perspectives and properties, but note that it still remains not easy to grasp the essential connections and figure out the underlying explanatory factors from exiting studies. In this paper, we therefore survey the recent advances on CF methodologies and the potential benchmarks by categorizing and summarizing the current methods. Specifically, we first re-view the root CF method, and then explore the advancement of CF-based representation learning ranging from shallow to deep/multilayer cases. We also introduce the potential application areas of CF-based methods. Finally, we point out some future directions for studying the CF-based representation learning. Overall, this survey provides an insightful overview of both theoretical basis and current developments in the field of CF, which can also help the interested researchers to understand the current trends of CF and find the most appropriate CF techniques to deal with particular applications.
翻訳日:2022-11-04 05:46:25 公開日:2021-01-31
# ゲノムデータに基づく予測モデリングのための経路統合型汎用カーネルブースティングフレームワーク

A general kernel boosting framework integrating pathways for predictive modeling based on genomic data ( http://arxiv.org/abs/2008.11384v2 )

ライセンス: Link先を確認
Li Zeng, Zhaolong Yu, Yiliang Zhang, Hongyu Zhao(参考訳) ゲノムデータに基づく予測モデリングは、研究者や臨床医がバイオマーカーを同定し、治療決定をより効率的に行うことによって、バイオメディカル研究や臨床実践で人気を集めている。 経路情報を含む解析は発見力を高め、新しい発見と生物学的メカニズムをより良く結びつける。 本稿では,二進性,連続性,生存率の予測のための臨床情報と経路に関する事前知識を組み込んだ汎用フレームワークであるパスベースカーネルブースティング(pkb)を提案する。 異なる結果型に対して適切な損失関数と最適化手順を導入する。 予測アルゴリズムは, 経路からカーネル関数空間を構築し, ブースティング手順のベースラーナとして用いることにより, 経路知識を組み込む。 薬物応答およびがん生存データセットの広範なシミュレーションとケーススタディにより、PKBは他の競合する方法よりも大幅に優れ、薬物応答と患者生存に関する生物学的経路をよりよく同定し、がんの発生と治療反応に関する新たな知見を提供する。

Predictive modeling based on genomic data has gained popularity in biomedical research and clinical practice by allowing researchers and clinicians to identify biomarkers and tailor treatment decisions more efficiently. Analysis incorporating pathway information can boost discovery power and better connect new findings with biological mechanisms. In this article, we propose a general framework, Pathway-based Kernel Boosting (PKB), which incorporates clinical information and prior knowledge about pathways for prediction of binary, continuous and survival outcomes. We introduce appropriate loss functions and optimization procedures for different outcome types. Our prediction algorithm incorporates pathway knowledge by constructing kernel function spaces from the pathways and use them as base learners in the boosting procedure. Through extensive simulations and case studies in drug response and cancer survival datasets, we demonstrate that PKB can substantially outperform other competing methods, better identify biological pathways related to drug response and patient survival, and provide novel insights into cancer pathogenesis and treatment response.
翻訳日:2022-10-24 20:52:22 公開日:2021-01-31
# SHAP説明のトラクタビリティについて

On the Tractability of SHAP Explanations ( http://arxiv.org/abs/2009.08634v2 )

ライセンス: Link先を確認
Guy Van den Broeck, Anton Lykov, Maximilian Schleich, Dan Suciu(参考訳) SHAPの説明は、説明可能なAIの一般的な機能帰属メカニズムである。 彼らはゲーム理論の概念を用いて、個々の特徴が機械学習モデルの予測に与える影響を測定する。 近年、学術と産業の両方から多くの関心が寄せられているが、一般的な機械学習モデルのSHAP説明が効率的に計算できるかどうかは不明である。 本稿では,SHAP説明の計算の複雑さを3つの重要な設定で確立する。 まず,完全分解データ分布を考察し,shapの説明の計算の複雑さが,モデルの期待値の計算の複雑さと同じであることを示す。 この完全分解設定はshap計算を単純化するためにしばしば用いられるが、ロジスティック回帰のような一般的なモデルでは計算が難解であることを示している。 完全分解分布を超えて、shapの計算は、非常に単純な設定で既に難解であることを示す: 単純ベイズ分布上の自明な分類器のシェープ説明を計算する。 最後に、実験的な分布に対するSHAPの計算でさえ、#P-hardであることを示す。

SHAP explanations are a popular feature-attribution mechanism for explainable AI. They use game-theoretic notions to measure the influence of individual features on the prediction of a machine learning model. Despite a lot of recent interest from both academia and industry, it is not known whether SHAP explanations of common machine learning models can be computed efficiently. In this paper, we establish the complexity of computing the SHAP explanation in three important settings. First, we consider fully-factorized data distributions, and show that the complexity of computing the SHAP explanation is the same as the complexity of computing the expected value of the model. This fully-factorized setting is often used to simplify the SHAP computation, yet our results show that the computation can be intractable for commonly used models such as logistic regression. Going beyond fully-factorized distributions, we show that computing SHAP explanations is already intractable for a very simple setting: computing SHAP explanations of trivial classifiers over naive Bayes distributions. Finally, we show that even computing SHAP over the empirical distribution is #P-hard.
翻訳日:2022-10-17 02:30:50 公開日:2021-01-31
# 空間ロバストネスの有効証明

Efficient Certification of Spatial Robustness ( http://arxiv.org/abs/2009.09318v2 )

ライセンス: Link先を確認
Anian Ruoss, Maximilian Baader, Mislav Balunovi\'c, Martin Vechev(参考訳) 最近の研究は、コンピュータビジョンモデルの脆弱性をベクトルフィールド攻撃にさらしている。 このようなモデルが安全クリティカルな応用に広く利用されているため、そのような空間変換に対するロバスト性を定量化することが重要である。 しかし、既存の研究は、証明可能な保証を欠く敵攻撃によるベクトル場変形に対する経験的堅牢性しか示さない。 本研究では,ベクトル場変換に対するロバスト性の証明を初めて提供する,新しい凸緩和を提案する。 我々の緩和はモデルに依存しず、幅広いニューラルネットワーク検証によって活用することができる。 各種ネットワークアーキテクチャおよび各種データセットの実験により,本手法の有効性と拡張性を示す。

Recent work has exposed the vulnerability of computer vision models to vector field attacks. Due to the widespread usage of such models in safety-critical applications, it is crucial to quantify their robustness against such spatial transformations. However, existing work only provides empirical robustness quantification against vector field deformations via adversarial attacks, which lack provable guarantees. In this work, we propose novel convex relaxations, enabling us, for the first time, to provide a certificate of robustness against vector field transformations. Our relaxations are model-agnostic and can be leveraged by a wide range of neural network verifiers. Experiments on various network architectures and different datasets demonstrate the effectiveness and scalability of our method.
翻訳日:2022-10-16 20:45:42 公開日:2021-01-31
# 希釈ベイズ分類器の期待伝搬

Expectation propagation on the diluted Bayesian classifier ( http://arxiv.org/abs/2009.09545v2 )

ライセンス: Link先を確認
Alfredo Braunstein, Thomas Gueudr\'e, Andrea Pagnani and Mirko Pieropan(参考訳) 高次元データセットからの効率的な特徴選択は、科学と工学の多くのデータ駆動分野において非常に重要な課題である。 本稿では,予測伝搬(EP)と呼ばれる計算手法を利用して,二項分類におけるスパース特徴選択の問題に対処する統計力学に基づく戦略を提案する。 このアルゴリズムは、教師パーセプトロンが希薄な連続重みで提供した一連の(おそらく一部は誤ラベルされた)例から分類規則を学習する連続重みを訓練するために使用される。 様々な条件下でベイズ最適設定でこの手法をテストし、メッセージパッシングと期待最大化近似推論スキームに基づいて、他の最先端アルゴリズムと比較する。 全体として,epは,変数選択特性,推定精度,計算複雑性の観点から,特に他の反復的手法が収束するのを防ぐ相関パターンから学生パーセプトロンを訓練する場合において,頑健で競争力のあるアルゴリズムであることが示された。 さらに,本アルゴリズムは,教師パーセプトロンの重みの希釈レベルや,誤ラベルされたサンプルのごく一部など,事前パラメータの未知の値をオンラインで学習できることを示す。 これはepアルゴリズムに付随する自由エネルギーの最小化を主目的とする単純な最大度戦略によって達成される。

Efficient feature selection from high-dimensional datasets is a very important challenge in many data-driven fields of science and engineering. We introduce a statistical mechanics inspired strategy that addresses the problem of sparse feature selection in the context of binary classification by leveraging a computational scheme known as expectation propagation (EP). The algorithm is used in order to train a continuous-weights perceptron learning a classification rule from a set of (possibly partly mislabeled) examples provided by a teacher perceptron with diluted continuous weights. We test the method in the Bayes optimal setting under a variety of conditions and compare it to other state-of-the-art algorithms based on message passing and on expectation maximization approximate inference schemes. Overall, our simulations show that EP is a robust and competitive algorithm in terms of variable selection properties, estimation accuracy and computational complexity, especially when the student perceptron is trained from correlated patterns that prevent other iterative methods from converging. Furthermore, our numerical tests demonstrate that the algorithm is capable of learning online the unknown values of prior parameters, such as the dilution level of the weights of the teacher perceptron and the fraction of mislabeled examples, quite accurately. This is achieved by means of a simple maximum likelihood strategy that consists in minimizing the free energy associated with the EP algorithm.
翻訳日:2022-10-16 12:53:33 公開日:2021-01-31
# クラスルールマイニングとパターンマッチングを用いた新型コロナウイルス感染拡大に対するグローバル人口動態の影響分析

Analysing the impact of global demographic characteristics over the COVID-19 spread using class rule mining and pattern matching ( http://arxiv.org/abs/2009.12923v3 )

ライセンス: Link先を確認
Wasiq Khan, Abir Hussain, Sohail Ahmed Khan, Mohammed Al-Jumailey, Raheel Nawaz, Panos Liatsis(参考訳) 2019年12月の新型コロナウイルス感染症(COVID-19)の流行以来、潜在的な症状や予測ツールなど、COVID-19や202012/01(VOC 202012/01)に関するさまざまな側面に対処してきた。 しかし、人口統計学的属性と世界中の新型コロナウイルス感染症の様々な性質の複雑な関連をモデル化するための限定的な作業が実施されている。 本研究は、人口統計学的属性と世界的な変動の多次元的関連を調査するためのインテリジェントなアプローチを提案する。 信頼できる情報源から複数の属性と(2021年1月8日までに)covid-19感染データを収集し、インテリジェントなアルゴリズムによって処理し、データ内の重要な関連やパターンを特定します。 統計結果と専門家の報告は、世界中の新型コロナウイルスの重症度レベルと、女性喫煙者などの特定の属性と、他の属性と組み合わせた場合に強い相関があることを示している。 この結果は、病気の拡散とその進行のダイナミクスを理解する助けとなり、その結果、政策立案者、医療専門家、社会を支援し、病気の理解を深め、効果的な管理を行うことができる。

Since the coronavirus disease (COVID-19) outbreak in December 2019, studies have been addressing diverse aspects in relation to COVID-19 and Variant of Concern 202012/01 (VOC 202012/01) such as potential symptoms and predictive tools. However, limited work has been performed towards the modelling of complex associations between the combined demographic attributes and varying nature of the COVID-19 infections across the globe. This study presents an intelligent approach to investigate the multi-dimensional associations between demographic attributes and COVID-19 global variations. We gather multiple demographic attributes and COVID-19 infection data (by 8 January 2021) from reliable sources, which are then processed by intelligent algorithms to identify the significant associations and patterns within the data. Statistical results and experts' reports indicate strong associations between COVID-19 severity levels across the globe and certain demographic attributes, e.g. female smokers, when combined together with other attributes. The outcomes will aid the understanding of the dynamics of disease spread and its progression, which in turn may support policy makers, medical specialists and society, in better understanding and effective management of the disease.
翻訳日:2022-10-14 03:51:48 公開日:2021-01-31
# doubleensemble:金融データ分析のためのサンプルリウェイトングと特徴選択に基づく新しいアンサンブル法

DoubleEnsemble: A New Ensemble Method Based on Sample Reweighting and Feature Selection for Financial Data Analysis ( http://arxiv.org/abs/2010.01265v3 )

ライセンス: Link先を確認
Chuheng Zhang, Yuanqi Li, Xi Chen, Yifei Jin, Pingzhong Tang, Jian Li(参考訳) 現代の機械学習モデル(ディープニューラルネットワークや意思決定木モデルなど)は、複雑な非線形パターンを抽出する能力が優れているため、金融市場の予測で人気が高まっている。 しかし、金融データセットは信号対雑音比が非常に低く、非定常であるため、複雑なモデルはしばしば過度に適合し、不安定な問題に悩まされる。 さらに、さまざまな機械学習やデータマイニングツールが量的取引でより広く使われるようになるにつれて、多くのトレーディング会社がより多くの特徴(別名ファクター)を生み出している。 そのため、有効な特徴を自動的に選択する方法が差し迫った問題となる。 これらの問題に対処するために,学習軌道に基づくサンプル再重み付けとシャッフルに基づく特徴選択を利用したアンサンブルフレームワークであるDoubleEnsembleを提案する。 具体的には、各サンプルのトレーニングダイナミクスに基づいてキーサンプルを特定し、シャッフルによる各特徴のアブレーション影響に基づいてキー特徴を抽出する。 我々のモデルは、複雑なパターンを抽出できる幅広い基盤モデルに適用でき、金融市場の予測に過度に適合し、不安定な問題を緩和できる。 暗号通貨の価格予測や株式取引といった広範な実験を、DNNとグラデーション強化決定木をベースモデルとして実施する。 実験の結果,DoubleEnsembleはいくつかのベースライン手法と比較して優れた性能を示した。

Modern machine learning models (such as deep neural networks and boosting decision tree models) have become increasingly popular in financial market prediction, due to their superior capacity to extract complex non-linear patterns. However, since financial datasets have very low signal-to-noise ratio and are non-stationary, complex models are often very prone to overfitting and suffer from instability issues. Moreover, as various machine learning and data mining tools become more widely used in quantitative trading, many trading firms have been producing an increasing number of features (aka factors). Therefore, how to automatically select effective features becomes an imminent problem. To address these issues, we propose DoubleEnsemble, an ensemble framework leveraging learning trajectory based sample reweighting and shuffling based feature selection. Specifically, we identify the key samples based on the training dynamics on each sample and elicit key features based on the ablation impact of each feature via shuffling. Our model is applicable to a wide range of base models, capable of extracting complex patterns, while mitigating the overfitting and instability issues for financial market prediction. We conduct extensive experiments, including price prediction for cryptocurrencies and stock trading, using both DNN and gradient boosting decision tree as base models. Our experiment results demonstrate that DoubleEnsemble achieves a superior performance compared with several baseline methods.
翻訳日:2022-10-11 09:03:30 公開日:2021-01-31
# 学習、圧縮、漏洩:メタユニバーサル圧縮原理による分類エラーの最小化

Learning, compression, and leakage: Minimising classification error via meta-universal compression principles ( http://arxiv.org/abs/2010.07382v2 )

ライセンス: Link先を確認
Fernando E. Rosas, Pedro A.M. Mediano, Michael Gastpar(参考訳) 学習と圧縮は、データの統計的規則性を識別し、活用するという共通の目的によって推進される。 学習シナリオのための圧縮テクニックの有望なグループは正規化された最大可能性(NML)コーディングであり、これは小さなデータセットの圧縮に対する強力な保証を提供する。 本稿では,分類問題に対するnmlに基づく決定戦略を考察し,多種多様なモデルに適用することでヒューリスティック・パック学習を実現することを示す。 さらに,本手法の誤分類率は,プライバシに敏感なシナリオにおけるデータ漏洩の可能性を定量化するための指標である最大リークによる上限値であることが示唆された。

Learning and compression are driven by the common aim of identifying and exploiting statistical regularities in data, which opens the door for fertile collaboration between these areas. A promising group of compression techniques for learning scenarios is normalised maximum likelihood (NML) coding, which provides strong guarantees for compression of small datasets - in contrast with more popular estimators whose guarantees hold only in the asymptotic limit. Here we consider a NML-based decision strategy for supervised classification problems, and show that it attains heuristic PAC learning when applied to a wide variety of models. Furthermore, we show that the misclassification rate of our method is upper bounded by the maximal leakage, a recently proposed metric to quantify the potential of data leakage in privacy-sensitive scenarios.
翻訳日:2022-10-07 14:40:20 公開日:2021-01-31
# 潜在運動行列に基づく画像系列からの生成運動モデル学習

Learning a Generative Motion Model from Image Sequences based on a Latent Motion Matrix ( http://arxiv.org/abs/2011.01741v2 )

ライセンス: Link先を確認
Julian Krebs, Herv\'e Delingette, Nicholas Ayache and Tommaso Mansi(参考訳) 時空間登録のための画像列から確率的運動モデルを学ぶことを提案する。 我々のモデルは低次元確率空間(動き行列)における動きを符号化し、シミュレーションやリアルな動きパターンの補間といった様々な動作解析タスクを可能にし、より高速なデータ取得とデータ拡張を可能にする。 より正確には、ムーブメントマトリックスは、ある被験者から別の被験者へ、例えば健康な被験者の病理的な動きを、オブジェクト間の登録を必要とせずに、回収された動きを輸送することができる。 この手法は条件付き潜在変数モデルに基づいており、不定形変分推論を用いて訓練される。 この教師なし生成モデルは、新しい多変量ガウス過程に先行し、二相運動モデルにつながる時間的畳み込みネットワーク内で適用される。 テンポラリドロップアウトトレーニングスキームを適用することにより、テンポラリ一貫性と一般化性はさらに向上する。 心血管MRIでは, 3種類の登録アルゴリズムと比較して, 登録精度と時空間のスムーズな変形が改善した。 また, 線形補間や立方体補間と比較して, フレーム欠落列からの運動再構成の改善により, 運動解析, シミュレーション, および超解像に対するモデルの応用性を示す。

We propose to learn a probabilistic motion model from a sequence of images for spatio-temporal registration. Our model encodes motion in a low-dimensional probabilistic space - the motion matrix - which enables various motion analysis tasks such as simulation and interpolation of realistic motion patterns allowing for faster data acquisition and data augmentation. More precisely, the motion matrix allows to transport the recovered motion from one subject to another simulating for example a pathological motion in a healthy subject without the need for inter-subject registration. The method is based on a conditional latent variable model that is trained using amortized variational inference. This unsupervised generative model follows a novel multivariate Gaussian process prior and is applied within a temporal convolutional network which leads to a diffeomorphic motion model. Temporal consistency and generalizability is further improved by applying a temporal dropout training scheme. Applied to cardiac cine-MRI sequences, we show improved registration accuracy and spatio-temporally smoother deformations compared to three state-of-the-art registration algorithms. Besides, we demonstrate the model's applicability for motion analysis, simulation and super-resolution by an improved motion reconstruction from sequences with missing frames compared to linear and cubic interpolation.
翻訳日:2022-09-30 05:19:33 公開日:2021-01-31
# LABNet: 車両再同定のためのクラスバランス損失を有する局所グラフ集約ネットワーク

LABNet: Local Graph Aggregation Network with Class Balanced Loss for Vehicle Re-Identification ( http://arxiv.org/abs/2011.14417v2 )

ライセンス: Link先を確認
Abu Md Niamul Taufique and Andreas Savakis(参考訳) 車両再識別は、様々な視点で見られる車両群の中で特定の車両を特定することを目的としている重要なコンピュータビジョンタスクである。 深層学習に基づく最近の手法は,背骨特徴抽出器の後にグローバル平均プール層を利用するが,この機能は特徴写像上の空間的推論を無視する。 本稿では,バックボーンの特徴マップ上の局所グラフ集約を提案し,局所情報の関連性を学習し,特徴学習を改善するとともに,部分閉塞や背景乱れの影響を低減する。 我々の局所グラフ集約ネットワークは特徴マップの空間領域をノードとみなし、グローバル平均プール層の前に局所特徴集計を行う局所近傍グラフを構築した。 さらに,バッチ正規化層を利用してシステム効率を向上させる。 さらに、最も広く使われている車両再識別データセットに見られるサンプル分布の不均衡を補うために、クラスバランス損失を導入する。 最後に,本手法を3つのベンチマークで評価し,本手法が最先端手法よりも優れていることを示す。

Vehicle re-identification is an important computer vision task where the objective is to identify a specific vehicle among a set of vehicles seen at various viewpoints. Recent methods based on deep learning utilize a global average pooling layer after the backbone feature extractor, however, this ignores any spatial reasoning on the feature map. In this paper, we propose local graph aggregation on the backbone feature map, to learn associations of local information and hence improve feature learning as well as reduce the effects of partial occlusion and background clutter. Our local graph aggregation network considers spatial regions of the feature map as nodes and builds a local neighborhood graph that performs local feature aggregation before the global average pooling layer. We further utilize a batch normalization layer to improve the system effectiveness. Additionally, we introduce a class balanced loss to compensate for the imbalance in the sample distributions found in the most widely used vehicle re-identification datasets. Finally, we evaluate our method in three popular benchmarks and show that our approach outperforms many state-of-the-art methods.
翻訳日:2021-06-07 09:01:49 公開日:2021-01-31
# 非パラメトリック回帰曲線の群を決定する自動手順

An automatic procedure to determine groups of nonparametric regression curves ( http://arxiv.org/abs/2012.15278v2 )

ライセンス: Link先を確認
Nora M. Villanueva and Marta Sestelo and Celestino Ord\'o\~nez and Javier Roca-Pardi\~nas(参考訳) 多くの場合、非パラメトリック回帰曲線が、特にかなりの数の曲線と向き合う場合にグループ化できるかどうかを確認することは興味深い。 提案するテスト手順は、その数の自動選択によってグループを決定することができる。 提案手法の有限サンプル特性を, 既存手法と比較して検討するために, シミュレーション実験を行った。 最後に,断面の集合を解析してトンネルの形状を研究する手法の適用性を示す。 その結果、トンネル幾何学における異質性の存在が確認された。

In many situations it could be interesting to ascertain whether nonparametric regression curves can be grouped, especially when confronted with a considerable number of curves. The proposed testing procedure allows to determine groups with an automatic selection of their number. A simulation study is presented in order to investigate the finite sample properties of the proposed methods when compared to existing alternative procedures. Finally, the applicability of the procedure to study the geometry of a tunnel by analysing a set of cross-sections is demonstrated. The results obtained show the existence of some heterogeneity in the tunnel geometry.
翻訳日:2021-04-18 05:57:30 公開日:2021-01-31
# 音声認識のための事前学習型深層強化学習のための新しいポリシー

A novel policy for pre-trained Deep Reinforcement Learning for Speech Emotion Recognition ( http://arxiv.org/abs/2101.00738v2 )

ライセンス: Link先を確認
Thejan Rajapakshe, Rajib Rana, Sara Khalifa, Bj\"orn W. Schuller, Jiajun Liu(参考訳) 強化学習(Reinforcement Learning, RL)は、エージェントが環境と対話して学習する半教師付き学習パラダイムである。 RLと組み合わせたディープラーニングは、Deep Reinforcement Learning (Deep RL)と呼ばれる、環境とのインタラクション方法を学ぶための効率的な方法を提供する。 deep rlはalphagoのようなゲームで大きな成功を収めているが、音声感情認識(ser)のような困難なタスクでその可能性を探求することは滅多にない。 SERで使用されているディープRLは、顧客クエリに対する感情認識応答を動的に学習することで、自動コールセンタエージェントのパフォーマンスを向上させることができる。 RLエージェントが採用するポリシーは、アクション選択において重要な役割を果たすが、SERに適した現在のRLポリシーはない。 さらに、学習期間の延長は、SERの学習速度に影響を与えるディープRLの一般的な課題である。 そこで本稿では,SERに適した新しい政策であるゼタポリシーを導入し,より高速な学習率を実現するために深部RLでの事前学習を適用した。 クロスデータセットによる事前トレーニングも研究され、実際の環境データが利用できないシナリオにおいて、同様のデータセットでRLエージェントを事前トレーニングする可能性を発見した。 IEMOCAPとSAVEEデータセットは、提供された発話において4つの感情を幸せ、悲しみ、怒り、中立と認識するために使用される。 実験の結果,提案した「ゼタ政策」は既存政策よりも優れた性能を示した。 その結果、ウォームアップ期間を短縮してトレーニング時間を短縮し、クロスコーポックシナリオに堅牢なトレーニングが可能になる。

Reinforcement Learning (RL) is a semi-supervised learning paradigm which an agent learns by interacting with an environment. Deep learning in combination with RL provides an efficient method to learn how to interact with the environment is called Deep Reinforcement Learning (deep RL). Deep RL has gained tremendous success in gaming - such as AlphaGo, but its potential have rarely being explored for challenging tasks like Speech Emotion Recognition (SER). The deep RL being used for SER can potentially improve the performance of an automated call centre agent by dynamically learning emotional-aware response to customer queries. While the policy employed by the RL agent plays a major role in action selection, there is no current RL policy tailored for SER. In addition, extended learning period is a general challenge for deep RL which can impact the speed of learning for SER. Therefore, in this paper, we introduce a novel policy - "Zeta policy" which is tailored for SER and apply Pre-training in deep RL to achieve faster learning rate. Pre-training with cross dataset was also studied to discover the feasibility of pre-training the RL Agent with a similar dataset in a scenario of where no real environmental data is not available. IEMOCAP and SAVEE datasets were used for the evaluation with the problem being to recognize four emotions happy, sad, angry and neutral in the utterances provided. Experimental results show that the proposed "Zeta policy" performs better than existing policies. The results also support that pre-training can reduce the training time upon reducing the warm-up period and is robust to cross-corpus scenario.
翻訳日:2021-04-11 22:48:45 公開日:2021-01-31
# 複雑な重みを持つニューラルネットワークは、すっきりした局所最小値を持たない

Neural Networks with Complex-Valued Weights Have No Spurious Local Minima ( http://arxiv.org/abs/2103.07287v1 )

ライセンス: Link先を確認
Xingtu Liu(参考訳) ニューラルネットワークにおける複素値重みの利点について検討する。 二次活性化を持つ浅層複雑なニューラルネットワークは局所的ミニマムを持たないことが証明される。 対照的に、2次活性化を持つ浅い実ニューラルネットワークは、同じ条件下で無限に多くの刺激的な局所ミニマを持つ。 さらに,複素値重みが局所的な極小点を鞍点に変換することを示す具体例を示す。 また、複素数値ニューラルネットワークにおける解析活性化の優位性を示すために、アクティベーション関数CReLUについても論じる。

We study the benefits of complex-valued weights for neural networks. We prove that shallow complex neural networks with quadratic activations have no spurious local minima. In contrast, shallow real neural networks with quadratic activations have infinitely many spurious local minima under the same conditions. In addition, we provide specific examples to demonstrate that complex-valued weights turn poor local minima into saddle points. The activation function CReLU is also discussed to illustrate the superiority of analytic activations in complex-valued neural networks.
翻訳日:2021-04-05 00:29:19 公開日:2021-01-31
# TDQMF:二次元量子質量関数

TDQMF: Two-dimensional quantum mass function ( http://arxiv.org/abs/2102.07652v1 )

ライセンス: Link先を確認
Yuanpeng He(参考訳) 量子質量関数は、古典的なデンプスター・シェーファー(D-S)エビデンス理論の拡張と見なされる量子の形で不確実性を管理する効率と妥当性のため、多くの分野で応用されている。 しかし、量子の形での不確実性を扱う方法はまだ未解決の問題である。 本稿では,2次元量子質量関数(TDQMF)と呼ばれる不確実な量子情報を分解する新しい手法を提案する。 TDQMF は TQ = (Q Origin, Qindicative) という2つの要素から構成され、どちらも量子質量関数であり、Qindicative は Q Origin 上の信頼性の指標である。 主量子質量関数と比較して,提案手法により量子場の不確実性を扱う際の柔軟性と有効性を提供する。 また、いくつかの数値例が提示され、その正確性と妥当性を検証するための実用的な応用がなされている。

Quantum mass function has been applied in lots of fields because of its efficiency and validity of managing uncertainties in the form of quantum which can be regarded as an extension of classical Dempster-Shafer (D-S) evidence theory. However, how to handle uncertainties in the form of quantum is still an open issue. In this paper, a new method is proposed to dispose uncertain quantum information, which is called two-dimensional quantum mass function (TDQMF). A TDQMF is consist of two elements, TQ = (Qoriginal, Qindicative), both of the Qs are quantum mass functions, in which the Qindicative is an indicator of the reliability on Qoriginal. More flexibility and effectiveness are offered in handling uncertainty in the field of quantum by the proposed method compared with primary quantum mass function. Besides, some numerical examples are provided and some practical applications are given to verify its correctness and validity
翻訳日:2021-04-05 00:29:11 公開日:2021-01-31
# グラフ畳み込みネットワークを用いた乳幼児のクライ分類

Infant Cry Classification with Graph Convolutional Networks ( http://arxiv.org/abs/2102.02909v1 )

ライセンス: Link先を確認
Chunyan Ji, Ming Chen, Bin Li, Yi Pan(参考訳) 本稿では,頑健な幼児の泣き声分類のためのグラフ畳み込みネットワークを提案する。 畳み込みニューラルネットワークを用いた教師付きノードと半教師付きノードの2つのノード間の類似性に基づいて,非完全連結グラフを構築し,内クラスおよびクラス間メッセージに関連する乳幼児のcry信号の短期的および長期的効果を検討する。 このアプローチは乳幼児の泣き声、特に限られたトレーニングサンプルにおける変化の多様性を捉えている。 このアプローチの有効性は,Baby Chillanto DatabaseとBaby2020 Databaseで評価される。 ラベル付きトレーニングデータの20%に制限があるため、80%のラベル付きトレーニングデータでCNNモデルよりも優れ、ラベル付きトレーニングサンプルの増加とともに精度が安定的に向上する。 最良の結果は7.36%と3.59%の改善を示し、それぞれbaby chillantoデータベースのcnnモデルとbaby2020データベースの結果と比較した。

We propose an approach of graph convolutional networks for robust infant cry classification. We construct non-fully connected graphs based on the similarities among the relevant nodes in both supervised and semi-supervised node classification with convolutional neural networks to consider the short-term and long-term effects of infant cry signals related to inner-class and inter-class messages. The approach captures the diversity of variations within infant cries, especially for limited training samples. The effectiveness of this approach is evaluated on Baby Chillanto Database and Baby2020 database. With as limited as 20% of labeled training data, our model outperforms that of CNN model with 80% labeled training data and the accuracy stably improves as the number of labeled training samples increases. The best results give significant improvements of 7.36% and 3.59% compared with the results of the CNN models on Baby Chillanto database and Baby2020 database respectively.
翻訳日:2021-04-05 00:19:44 公開日:2021-01-31
# 衛星データの機械学習による地震予報の進展に向けて

Towards advancing the earthquake forecasting by machine learning of satellite data ( http://arxiv.org/abs/2102.04334v1 )

ライセンス: Link先を確認
Pan Xiong, Lei Tong, Kun Zhang, Xuhui Shen, Roberto Battiston, Dimitar Ouzounov, Roberto Iuppa, Danny Crookes, Cheng Long, Huiyu Zhou(参考訳) 地震研究に利用可能な技術のうち、リモートセンシングは高速イメージングや広い画像取得範囲などの特徴から一般的に使用されている。 それにもかかわらず、地震前およびリモートセンシング異常に関する初期の研究は、主に1つの物理パラメータの異常同定と解析に向けられている。 多くの分析は特異事象に基づいており、これはこの複雑な自然現象の理解の欠如をもたらす。 このような分析の普遍性はまだ世界規模で実証されていない。 本稿では,地震動データの物理的・動的変化を調査し,その環境への影響から1,371マグニチュード6以上の地震の衛星データに基づく短期予測を行うための新しい機械学習手法,inverse boosting pruning trees (ibpt) を開発した。 提案手法を,2006年から2013年の間に収集した10種類の赤外・ハイパースペクトル測定値を用いて解析し,比較した。 提案手法は, 選択した6つのベースラインすべてより優れており, 異なる地震データベース間での地震予知の可能性が向上することを示す。

Amongst the available technologies for earthquake research, remote sensing has been commonly used due to its unique features such as fast imaging and wide image-acquisition range. Nevertheless, early studies on pre-earthquake and remote-sensing anomalies are mostly oriented towards anomaly identification and analysis of a single physical parameter. Many analyses are based on singular events, which provide a lack of understanding of this complex natural phenomenon because usually, the earthquake signals are hidden in the environmental noise. The universality of such analysis still is not being demonstrated on a worldwide scale. In this paper, we investigate physical and dynamic changes of seismic data and thereby develop a novel machine learning method, namely Inverse Boosting Pruning Trees (IBPT), to issue short-term forecast based on the satellite data of 1,371 earthquakes of magnitude six or above due to their impact on the environment. We have analyzed and compared our proposed framework against several states of the art machine learning methods using ten different infrared and hyperspectral measurements collected between 2006 and 2013. Our proposed method outperforms all the six selected baselines and shows a strong capability in improving the likelihood of earthquake forecasting across different earthquake databases.
翻訳日:2021-04-05 00:19:17 公開日:2021-01-31
# 分散ニューラルバリア証明書を用いた安全マルチエージェント制御の学習

Learning Safe Multi-Agent Control with Decentralized Neural Barrier Certificates ( http://arxiv.org/abs/2101.05436v3 )

ライセンス: Link先を確認
Zengyi Qin, Kaiqing Zhang, Yuxiao Chen, Jingkai Chen, Chuchu Fan(参考訳) 本研究では,エージェントが静的障害への衝突を避け,目標を達成しながら衝突を回避すべきマルチエージェントセーフコントロール問題について検討する。 当社の中核となる考え方は,マルチエージェント制御ポリシと,コントロールバリア機能を安全証明書として学習することにあります。 本稿では,関数クラスを一般化した分散化方式で実装可能な,新しい共同学習フレームワークを提案する。 このような分散化フレームワークは任意の数のエージェントに適応することができる。 このフレームワークを基盤として,隣接エージェントの量と置換に不変なニューラルネットワークアーキテクチャを組み込むことにより,スケーラビリティをさらに向上させる。 また,テスト中の認証条件をさらに強化するために,新たな自然政策改善手法を提案する。 提案手法は,安全性の確保と作業の完了の観点から,他の主要なマルチエージェント制御手法よりも優れていることを示す。 提案手法では,複雑なマルチエージェント環境や動的環境において,最大1024エージェントの他のシナリオで使用しながら,制御ポリシを1つのシナリオで8エージェントでトレーニングすることが可能である。

We study the multi-agent safe control problem where agents should avoid collisions to static obstacles and collisions with each other while reaching their goals. Our core idea is to learn the multi-agent control policy jointly with learning the control barrier functions as safety certificates. We propose a novel joint-learning framework that can be implemented in a decentralized fashion, with generalization guarantees for certain function classes. Such a decentralized framework can adapt to an arbitrarily large number of agents. Building upon this framework, we further improve the scalability by incorporating neural network architectures that are invariant to the quantity and permutation of neighboring agents. In addition, we propose a new spontaneous policy refinement method to further enforce the certificate condition during testing. We provide extensive experiments to demonstrate that our method significantly outperforms other leading multi-agent control approaches in terms of maintaining safety and completing original tasks. Our approach also shows exceptional generalization capability in that the control policy can be trained with 8 agents in one scenario, while being used on other scenarios with up to 1024 agents in complex multi-agent environments and dynamics.
翻訳日:2021-03-29 00:47:28 公開日:2021-01-31
# ミスバウンドオンライン学習における盗聴フィードバックの価格に関する一考察

A note on the price of bandit feedback for mistake-bounded online learning ( http://arxiv.org/abs/2101.06891v2 )

ライセンス: Link先を確認
Jesse Geneson(参考訳) 標準モデルとバンディットモデルは、ミスバウンドモデルからオンラインマルチクラス分類への2つの一般化である。 どちらのモデルでも、学習者は各ラウンドの分類を推測するが、標準モデルでは、学習者は各推測の後に正しい分類を関連付けるが、バンディットモデルでは、学習者は各ラウンドの推測が正しいかどうかのみを指示される。 マルチクラス分類器の任意のセット$F$に対して、$opt_{std}(F)$と$opt_{bandit}(F)$をそれぞれ標準モデルとバンディットモデルにおける予測ミスの最適ケース数として定義する。 Long (Theoretical Computer Science, 2020) は、すべての$M > 2$と無限に多くの $k$ に対して、$opt_{std}(F) = M$ and $opt_{bandit}(F) \ge (1o(1))(|Y|\ln{|Y|})opt_{std}(F)$ であるような集合 $X$ から a set $Y$ までの関数の集合 $F$ が存在すると主張した。 この結果の証明は次の補題(例えば偽)に依存する。 すべての素数$p \ge 5$, $s = \mathbf{1}$ (すべての$$ベクトル)、$t = \mathbf{2}$ (すべての$2$ベクトル)、およびすべての$z$に対して。 Lemma: Fix $n \ge 2$ and prime $p$, and let $u$ be uniformly at random from $\left\{0, \dots, p-1\right\}^n$。 任意の$s, t \in \left\{1, \dots, p-1\right\}^n$ with $s \neq t$ and any $z \in \left\{0, \dots, p-1\right\}$ に対して、$\pr(t \cdot u = z \mod p \text{ } | \text{ } s \cdot u = z \mod p) = \frac{1}{p}$ となる。 この補題は、$s$ と $t$ が互いに mod $p$ であるときに正しく偽であることを示している。 そして、新しい補題を使って、Longの証明を修正する。

The standard model and the bandit model are two generalizations of the mistake-bound model to online multiclass classification. In both models the learner guesses a classification in each round, but in the standard model the learner recieves the correct classification after each guess, while in the bandit model the learner is only told whether or not their guess is correct in each round. For any set $F$ of multiclass classifiers, define $opt_{std}(F)$ and $opt_{bandit}(F)$ to be the optimal worst-case number of prediction mistakes in the standard and bandit models respectively. Long (Theoretical Computer Science, 2020) claimed that for all $M > 2$ and infinitely many $k$, there exists a set $F$ of functions from a set $X$ to a set $Y$ of size $k$ such that $opt_{std}(F) = M$ and $opt_{bandit}(F) \ge (1 - o(1))(|Y|\ln{|Y|})opt_{std}(F)$. The proof of this result depended on the following lemma, which is false e.g. for all prime $p \ge 5$, $s = \mathbf{1}$ (the all $1$ vector), $t = \mathbf{2}$ (the all $2$ vector), and all $z$. Lemma: Fix $n \ge 2$ and prime $p$, and let $u$ be chosen uniformly at random from $\left\{0, \dots, p-1\right\}^n$. For any $s, t \in \left\{1, \dots, p-1\right\}^n$ with $s \neq t$ and for any $z \in \left\{0, \dots, p-1\right\}$, we have $\Pr(t \cdot u = z \mod p \text{ } | \text{ } s \cdot u = z \mod p) = \frac{1}{p}$. We show that this lemma is false precisely when $s$ and $t$ are multiples of each other mod $p$. Then using a new lemma, we fix Long's proof.
翻訳日:2021-03-27 05:48:58 公開日:2021-01-31
# (参考訳) BERTベクトル表現に基づくテキストの基本感情の分析

Analysis of Basic Emotions in Texts Based on BERT Vector Representation ( http://arxiv.org/abs/2101.11433v2 )

ライセンス: CC BY 4.0
A. Artemov, A. Veselovskiy, I. Khasenevich, I. Bolokhov(参考訳) 下記の論文では、テキストにおける感情認識の課題のための、GAN型モデルとその開発の最も重要な段階について述べる。 特に,手作業でラベルづけされた不完全なデータに基づいて,すべての感情の組み合わせの合成データセットを生成する手法を提案する。

In the following paper the authors present a GAN-type model and the most important stages of its development for the task of emotion recognition in text. In particular, we propose an approach for generating a synthetic dataset of all possible emotions combinations based on manually labelled incomplete data.
翻訳日:2021-03-21 18:38:38 公開日:2021-01-31
# ハイブリッド回転平均化:高速かつロバストな回転平均化アプローチ

Hybrid Rotation Averaging: A Fast and Robust Rotation Averaging Approach ( http://arxiv.org/abs/2101.09116v2 )

ライセンス: Link先を確認
Yu Chen and Ji Zhao and Laurent Kneip(参考訳) 回転平均化(RA)と実世界の3D再構成への応用について述べる。 局所最適化に基づくアプローチはデファクトの選択であるが、局所最適化のみを保証する。 グローバルオプティマイザは低騒音条件下でのグローバルな最適性を保証するが、非効率であり、外れ値や高騒音の影響を受けやすい。 我々は,大域的RA法と局所的RA法の利点を利用して,回転平均化のエンベロープを推し進める。 高速なビューグラフフィルタリングを前処理として組み合わせることで、提案したハイブリッドアプローチは外れ値に対して堅牢である。 提案手法のハイブリッド回転平均化手法を, 正規化器として大域回転を付加することにより, 運動からのインクリメンタル構造(SfM)に適用する。 全体として,悪質なカメラポーズを効果的に補正し,ドリフトを低減し,提案手法の実用性が高いことを示す。

We address rotation averaging (RA) and its application to real-world 3D reconstruction. Local optimisation based approaches are the defacto choice, though they only guarantee a local optimum. Global optimizers ensure global optimality in low noise conditions, but they are inefficient and may easily deviate under the influence of outliers or elevated noise levels. We push the envelope of rotation averaging by leveraging the advantages of global RA method and local RA method. Combined with a fast view graph filtering as preprocessing, the proposed hybrid approach is robust to outliers. We apply the proposed hybrid rotation averaging approach to incremental Structure from Motion (SfM) by adding the resulting global rotations as regularizers to bundle adjustment. Overall, we demonstrate high practicality of the proposed method as bad camera poses are effectively corrected and drift is reduced.
翻訳日:2021-03-20 17:24:26 公開日:2021-01-31
# (参考訳) 大発生時の社会的ダイナミクスの自動モニタリング : バングラデシュにおけるCOVID-19の事例

Automatic Monitoring Social Dynamics During Big Incidences: A Case Study of COVID-19 in Bangladesh ( http://arxiv.org/abs/2101.09667v2 )

ライセンス: CC BY 4.0
Fahim Shahriar, Md Abul Bashar(参考訳) 新聞は信頼できるメディアであり、他の情報源と比べて信頼できる信頼できる情報が得られる。 一方、ソーシャルメディアは、トラフィックと注目を集めるために、噂や誤解を招くニュースを広めることが多い。 新聞データの綿密な特徴付け、評価、解釈は、興味深く情熱的な社会問題に対する洞察を与え、大きな社会の発生率を監視する。 本研究は、新型コロナウイルスのパンデミックに関連する時空間バングラデシュの新聞データを大量に分析した。 この手法には、ボリューム分析、トピック分析、自動分類、ニュース記事の感情分析が含まれており、バングラデシュのさまざまなセクターや地域における新型コロナウイルスのパンデミックに関する洞察を一定期間にわたって得ることができる。 この分析は、政府や他の組織が、このパンデミックによって社会に生じた課題、即時かつ後パンデミック期において、政府やその同盟国が将来の危機にどう対処し、これらの問題を念頭に置いていくかを理解するのに役立ちます。

Newspapers are trustworthy media where people get the most reliable and credible information compared with other sources. On the other hand, social media often spread rumors and misleading news to get more traffic and attention. Careful characterization, evaluation, and interpretation of newspaper data can provide insight into intrigue and passionate social issues to monitor any big social incidence. This study analyzed a large set of spatio-temporal Bangladeshi newspaper data related to the COVID-19 pandemic. The methodology included volume analysis, topic analysis, automated classification, and sentiment analysis of news articles to get insight into the COVID-19 pandemic in different sectors and regions in Bangladesh over a period of time. This analysis will help the government and other organizations to figure out the challenges that have arisen in society due to this pandemic, what steps should be taken immediately and in the post-pandemic period, how the government and its allies can come together to address the crisis in the future, keeping these problems in mind.
翻訳日:2021-03-19 07:54:42 公開日:2021-01-31
# MultiFace: 顔認識性能向上のためのジェネリックトレーニングメカニズム

MultiFace: A Generic Training Mechanism for Boosting Face Recognition Performance ( http://arxiv.org/abs/2101.09899v2 )

ライセンス: Link先を確認
Jing Xu, Tszhang Guo, Zenglin Xu, Kun Bai(参考訳) 深層畳み込みニューラルネットワーク(DCNN)とその変種は近年,大規模顔認識(FR)で広く利用されている。 既存のメソッドは多くのFRベンチマークで優れたパフォーマンスを達成している。 しかし、そのほとんどが2つの大きな問題を抱えている。 まず、これらの手法は高次元でスパースなガウス球面における損失関数を最適化するため、非常にゆっくりと収束する。 第二に、強力な記述能力にもかかわらず、特徴の高次元性は最適化に困難をもたらし、これは準最適局所最適化につながる可能性がある。 そこで本研究では, 低次元特徴のアンサンブルにより, 本来の高次元特徴を近似する, 簡便かつ効率的な訓練機構MultiFaceを提案する。 提案機構は汎用的であり、多くの高度なFRモデルにも容易に適用できる。 さらに、クラスタリング効果を介してFRモデルに優れた解釈性の利点をもたらします。 詳しくは、これらの低次元特徴のアンサンブルは相補的かつ判別的な情報を捉えることができ、クラス内コンパクト性とクラス間分離性を高めることができる。 実験結果から,本機構はソフトマックス損失で2~3倍,アークフェイスやコスフェイスで1.2~1.5倍の高速化が可能であり,ベンチマークデータセットでは最先端の性能が得られることがわかった。 特に、大規模データセット(IJBやMageFaceなど)の大幅な改善は、新しいトレーニングメカニズムの柔軟性を示しています。

Deep Convolutional Neural Networks (DCNNs) and their variants have been widely used in large scale face recognition(FR) recently. Existing methods have achieved good performance on many FR benchmarks. However, most of them suffer from two major problems. First, these methods converge quite slowly since they optimize the loss functions in a high-dimensional and sparse Gaussian Sphere. Second, the high dimensionality of features, despite the powerful descriptive ability, brings difficulty to the optimization, which may lead to a sub-optimal local optimum. To address these problems, we propose a simple yet efficient training mechanism called MultiFace, where we approximate the original high-dimensional features by the ensemble of low-dimensional features. The proposed mechanism is also generic and can be easily applied to many advanced FR models. Moreover, it brings the benefits of good interpretability to FR models via the clustering effect. In detail, the ensemble of these low-dimensional features can capture complementary yet discriminative information, which can increase the intra-class compactness and inter-class separability. Experimental results show that the proposed mechanism can accelerate 2-3 times with the softmax loss and 1.2-1.5 times with Arcface or Cosface, while achieving state-of-the-art performances in several benchmark datasets. Especially, the significant improvements on large-scale datasets(e.g., IJB and MageFace) demonstrate the flexibility of our new training mechanism.
翻訳日:2021-03-14 19:06:55 公開日:2021-01-31
# 制限決定型一般化ブチオートマタを用いたソフト制約による強化学習に基づく時間論理制御

Reinforcement Learning Based Temporal Logic Control with Soft Constraints Using Limit-deterministic Generalized Buchi Automata ( http://arxiv.org/abs/2101.10284v2 )

ライセンス: Link先を確認
Mingyu Cai, Shaoping Xiao, and Zhen Kan(参考訳) 本稿では,不確実性を考慮した運動計画の制御合成について検討する。 不確実性はロボットの動作および環境特性において考慮され、確率的マルコフ決定プロセス(MDP)を引き起こす。 線形時相論理(ltl)で表される高レベルタスクを満たす有限メモリ制御ポリシを生成するために,モデルフリー強化学習(rl)を開発した。 LTLを有限決定論的一般化B\"uchi Automaticon (LDGBA) に翻訳し、計算複雑性を増大させることなく学習性能を向上させるために、追跡最前線機能を組み込んだ組み込みLDGBA (E-LDGBA) を開発する。 潜在的に相反するタスクのため、エージェントが所望の ltl 制約に厳密に従わずに動作計画を変更することができるように緩和された製品 mdp が開発されている。 違反報酬と受諾報酬からなる予想リターンが開発されます。 デザインされた違反機能は、修正された動き計画と望ましい動き計画の違いを定量化し、受け入れ報酬はリラックスした製品MDPの受け入れ条件の満足を強制するように設計されています。 厳密な分析により、期待したリターンを最適化するRLアルゴリズムは、1)緩和された製品MDPの受け入れ条件を満たすことができ、2)長期的行動に対する違反コストを低減できるポリシーを見つけることが保証された。 また,シミュレーションと実験結果を用いて制御合成手法を検証する。

This paper studies the control synthesis of motion planning subject to uncertainties. The uncertainties are considered in robot motion and environment properties, giving rise to the probabilistic labeled Markov decision process (MDP). A model-free reinforcement learning (RL) is developed to generate a finite-memory control policy to satisfy high-level tasks expressed in linear temporal logic (LTL) formulas. One of the novelties is to translate LTL into a limit deterministic generalized B\"uchi automaton (LDGBA) and develop a corresponding embedded LDGBA (E-LDGBA) by incorporating a tracking-frontier function to overcome the issue of sparse accepting rewards, resulting in improved learning performance without increasing computational complexity. Due to potentially conflicting tasks, a relaxed product MDP is developed to allow the agent to revise its motion plan without strictly following the desired LTL constraints if the desired tasks can only be partially fulfilled. An expected return composed of violation rewards and accepting rewards is developed. The designed violation function quantifies the differences between the revised and the desired motion planning, while the accepting rewards are designed to enforce the satisfaction of the acceptance condition of the relaxed product MDP. Rigorous analysis shows that any RL algorithm that optimizes the expected return is guaranteed to find policies that, in decreasing order, can 1) satisfy acceptance condition of relaxed product MDP and 2) reduce the violation cost over long-term behaviors. Also, we validate the control synthesis approach via simulation and experimental results.
翻訳日:2021-03-14 18:58:53 公開日:2021-01-31
# (参考訳) カスケードカメラライダー3次元物体検出モデルの普遍的物理攻撃に向けて

Towards Universal Physical Attacks On Cascaded Camera-Lidar 3D Object Detection Models ( http://arxiv.org/abs/2101.10747v2 )

ライセンス: CC BY 4.0
Mazen Abdelfattah, Kaiwen Yuan, Z. Jane Wang, Rabab Ward(参考訳) 自動運転車の文脈において,マルチモーダル深層学習ネットワーク(dnn)の普遍的かつ物理的に実現可能な敵攻撃を提案する。 DNNは3Dオブジェクト検出で高性能を達成しましたが、敵対的な攻撃に対して脆弱であることが知られています。 これらの攻撃は、RGBイメージ領域および最近はポイントクラウド領域で重く調査されているが、同時に両方のドメインではまれに、この論文で埋められるギャップである。 単一の3Dメッシュと差別化可能なレンダリングを使用して、メッシュのジオメトリとテクスチャの摂動によって、DNNの堅牢性が逆の攻撃にどのように低下するかを調べます。 我々は、Frustum-Pointnetモデルである顕著なカスケードマルチモーダルDNNを攻撃する。 人気のあるkittiベンチマークを用いて,提案手法であるユニバーサルマルチモーダル攻撃が,車検出能力の73%近く削減に成功していることを示した。 この作業は、カスケードされたRGBポイントクラウドDNNが何を学び、その敵対攻撃に対する脆弱性を理解するのに役立ちます。

We propose a universal and physically realizable adversarial attack on a cascaded multi-modal deep learning network (DNN), in the context of self-driving cars. DNNs have achieved high performance in 3D object detection, but they are known to be vulnerable to adversarial attacks. These attacks have been heavily investigated in the RGB image domain and more recently in the point cloud domain, but rarely in both domains simultaneously - a gap to be filled in this paper. We use a single 3D mesh and differentiable rendering to explore how perturbing the mesh's geometry and texture can reduce the robustness of DNNs to adversarial attacks. We attack a prominent cascaded multi-modal DNN, the Frustum-Pointnet model. Using the popular KITTI benchmark, we showed that the proposed universal multi-modal attack was successful in reducing the model's ability to detect a car by nearly 73%. This work can aid in the understanding of what the cascaded RGB-point cloud DNN learns and its vulnerability to adversarial attacks.
翻訳日:2021-03-14 09:28:12 公開日:2021-01-31
# (参考訳) CODE-AE : 細胞株転写因子から患者特異的な薬物応答を予測するコヒーレントデコンファウンディングオートエンコーダ

CODE-AE: A Coherent De-confounding Autoencoder for Predicting Patient-Specific Drug Response From Cell Line Transcriptomics ( http://arxiv.org/abs/2102.00538v1 )

ライセンス: CC BY 4.0
Di He, Lei Xie(参考訳) 薬物治療に対する患者の反応の正確かつ堅牢な予測は、精密医療の発展に不可欠である。 しかし、一般化機械学習モデルを訓練するために、患者から直接十分な量のコヒーレント薬物応答データを得ることはしばしば困難である。 リッチな細胞ラインデータの利用は代替ソリューションを提供するが,様々な要因により,細胞ラインから得られた知識を患者に伝達することは困難である。 既存のトランスファーラーニング手法では、細胞系と患者データに結合する因子から共通の内在的な生物学的信号を確実に分離できるものはほとんどない。 本稿では,非コヒーレント標本で共有される共通生物学的信号と,各データセットに固有のプライベート表現,細胞線データから学習した知識を組織データに伝達し,それらの結合因子を分離するコヒーレント分離オートエンコーダ(code-ae)を開発した。 複数のデータセットに関する大規模な研究により、CODE-AEは患者の薬物反応の予測と生物学的シグナルの分解において最先端の手法よりも精度と堅牢性を大幅に向上することが示された。 したがって、CODE-AEは、一般化患者の予測モデルを開発するためのin vitroオミクスデータを利用するための有用なフレームワークを提供する。 ソースコードはhttps://github.com/XieResearchGroup/CODE-AEで入手できる。

Accurate and robust prediction of patient's response to drug treatments is critical for developing precision medicine. However, it is often difficult to obtain a sufficient amount of coherent drug response data from patients directly for training a generalized machine learning model. Although the utilization of rich cell line data provides an alternative solution, it is challenging to transfer the knowledge obtained from cell lines to patients due to various confounding factors. Few existing transfer learning methods can reliably disentangle common intrinsic biological signals from confounding factors in the cell line and patient data. In this paper, we develop a Coherent Deconfounding Autoencoder (CODE-AE) that can extract both common biological signals shared by incoherent samples and private representations unique to each data set, transfer knowledge learned from cell line data to tissue data, and separate confounding factors from them. Extensive studies on multiple data sets demonstrate that CODE-AE significantly improves the accuracy and robustness over state-of-the-art methods in both predicting patient drug response and de-confounding biological signals. Thus, CODE-AE provides a useful framework to take advantage of in vitro omics data for developing generalized patient predictive models. The source code is available at https://github.com/XieResearchGroup/CODE-AE.
翻訳日:2021-02-05 08:32:37 公開日:2021-01-31
# (参考訳) 進行拡散畳み込みニューラルネットワークを用いた構造認識型音声-スコアアライメント

Structure-Aware Audio-to-Score Alignment using Progressively Dilated Convolutional Neural Networks ( http://arxiv.org/abs/2102.00382v1 )

ライセンス: CC BY 4.0
Ruchit Agrawal, Daniel Wolff, Simon Dixon(参考訳) 音楽演奏とスコアの構造的差異の同定は、音楽情報検索の重要なサブタスクであるオーディオとスコアのアライメントの挑戦的かつ不可欠なステップです。 本研究では,畳み込みニューラルネットワークを用いて,ある曲のスコアと演奏の差を検出する新しい手法を提案する。 本手法は, 異なる層に異なる拡散速度を組み込んで, 短期的および長期的コンテキストを捉え, 限定的な注釈付きデータの存在下で有効に用いることができる。 スコアと構造的に異なる実演の録音実験を行い,本モデルが構造認識オーディオとスコアアライメントの標準手法を上回っていることを示す。

The identification of structural differences between a music performance and the score is a challenging yet integral step of audio-to-score alignment, an important subtask of music information retrieval. We present a novel method to detect such differences between the score and performance for a given piece of music using progressively dilated convolutional neural networks. Our method incorporates varying dilation rates at different layers to capture both short-term and long-term context, and can be employed successfully in the presence of limited annotated data. We conduct experiments on audio recordings of real performances that differ structurally from the score, and our results demonstrate that our models outperform standard methods for structure-aware audio-to-score alignment.
翻訳日:2021-02-05 05:36:53 公開日:2021-01-31
# (参考訳) 離散ウェーブレット変換を用いた特徴抽出のためのシンガー識別の予測精度向上

Boosting the Predictive Accurary of Singer Identification Using Discrete Wavelet Transform For Feature Extraction ( http://arxiv.org/abs/2102.00550v1 )

ライセンス: CC BY 4.0
Victoire Djimna Noyum, Younous Perieukeu Mofenjou, Cyrille Feudjio, Alkan G\"oktug and Ernest Fokou\'e(参考訳) 最近の音楽分野の多様性と成長に直面すると、正確な楽曲の検索はますます複雑になる。 歌手のアイデンティティは、この検索を促進します。 本稿では,特徴抽出のための異なる手法を用いて,歌手を識別する問題に焦点をあてる。 特に,この目的のために離散ウェーブレット変換(DWT)を導入する。 私達の知識のベストに、DWTは歌手の同一証明の文脈で前にこの方法で使用されませんでした。 この過程は3つの重要な部分からなる。 まず、ロバスト主成分分析(RPCA)を使用して、ボーカル信号をバックグラウンド音楽から分離します。 次に、得られた音声信号から特徴を抽出する。 ここでの目標は、オーディオ信号で最も一般的な技術であるMel frequency Cepstral Coefficient(MFCC)と比較して、離散ウェーブレット変換(DWT)のパフォーマンスを研究することです。 最後に、2つの方法が実験された歌手の識別を進めます:サポートベクトルマシン(SVM)とガウス混合モデル(GMM)。 本研究で紹介したDWT(db4)の特徴抽出と,平均精度83.96%の線形サポートベクターマシンを組み合わせることで,歌手4人,歌200人を対象に,最適な識別システムが構築されていると結論づけた。

Facing the diversity and growth of the musical field nowadays, the search for precise songs becomes more and more complex. The identity of the singer facilitates this search. In this project, we focus on the problem of identifying the singer by using different methods for feature extraction. Particularly, we introduce the Discrete Wavelet Transform (DWT) for this purpose. To the best of our knowledge, DWT has never been used this way before in the context of singer identification. This process consists of three crucial parts. First, the vocal signal is separated from the background music by using the Robust Principal Component Analysis (RPCA). Second, features from the obtained vocal signal are extracted. Here, the goal is to study the performance of the Discrete Wavelet Transform (DWT) in comparison to the Mel Frequency Cepstral Coefficient (MFCC) which is the most used technique in audio signals. Finally, we proceed with the identification of the singer where two methods have experimented: the Support Vector Machine (SVM), and the Gaussian Mixture Model (GMM). We conclude that, for a dataset of 4 singers and 200 songs, the best identification system consists of the DWT (db4) feature extraction introduced in this work combined with a linear support vector machine for identification resulting in a mean accuracy of 83.96%.
翻訳日:2021-02-04 16:12:15 公開日:2021-01-31
# (参考訳) 非国家武装グループ(NAG)のグローバルサポートネットワークの定量化

Quantifying the Global Support Network for Non-State Armed Groups (NAGs) ( http://arxiv.org/abs/2102.00564v1 )

ライセンス: CC BY 4.0
Weiran Cai, Belgin San-Akca, Jordan Snyder, Grayson Gordon, Zeev Maoz, Raissa M. D'Souza(参考訳) 人類の歴史は武力衝突によって形作られた。 大規模な州間戦争ではなく、戦後には低強度の攻撃が盛んになった。 これらの攻撃は、しばしばホスト国(hss)が支援する非国家武装集団(nags)によって行われる。 我々は,NAG-HS支援のグローバルな二部ネットワークとその進化を1945-2010年の間に分析した。 私たちは、相互主義的および寄生的な支援形態、およびネストされたモジュラーネットワークアーキテクチャなどの生態学的ネットワークに顕著な平行を見つけます。 ネストネスは優先的な行動から生じる: 高度に接続されたプレイヤーは、コネクションを獲得し、失う傾向が強い。 長期にわたる主要なモジュールが同定され、移行モジュールとは対照的に、地域的利益と地域的利益の両方を反映している。 このアーキテクチャの展開により、アクターの役割の特定が可能になり、効果的な介入戦略の洞察を提供する。

Human history has been shaped by armed conflicts. Rather than large-scale interstate wars, low-intensity attacks have been more prevalent in the post-World War era. These attacks are often carried out by non-state armed groups (NAGs), which are supported by host states (HSs). We analyze the global bipartite network of NAG-HS support and its evolution over the period of 1945-2010. We find striking parallels to ecological networks such as mutualistic and parasitic forms of support, and a nested and modular network architecture. The nestedness emerges from preferential behaviors: highly connected players are more likely to both gain and lose connections. Long-persisting major modules are identified, reflecting both regional and trans-regional interests, which show significant turnover in their membership, contrary to the transitory ones. Revealing this architecture further enables the identification of actor's roles and provide insights for effective intervention strategies.
翻訳日:2021-02-04 15:58:38 公開日:2021-01-31
# (参考訳) 脳波データによるてんかん発作の予測における離散ウェーブレット変換の新たな利用

A Novel Use of Discrete Wavelet Transform Features in the Prediction of Epileptic Seizures from EEG Data ( http://arxiv.org/abs/2102.01647v1 )

ライセンス: CC BY 4.0
Cyrille Feudjio, Victoire Djimna Noyum, Younous Perieukeu Mofendjou, Rockefeller, Ernest Fokou\'e(参考訳) 本稿では,脳波データからのてんかん発作の診断における特徴抽出法に比べて,離散ウェーブレット変換(DWT)の予測上の優位性を示す。 分類精度、特異性、感度は評価指標として用いられる。 具体的には,2つの組み合わせ (dwt-db4 と svm と dwt-db2 の組み合わせと rf の組み合わせ) が,バランスの取れたデータセットと不均衡なデータセットのいずれにおいてもてんかん発作の診断に関して,他と比較して大きな可能性を示す。 結果は、MFCCがこの研究で使用されるすべてのDWTよりも少なく、平均差はそれぞれ不均衡とバランスの取れたデータセットで統計的に重要であることも強調しています。 最後に、バランスのとれたデータセット、不均衡なデータセット、特徴抽出技術、モデル、それらの相互作用が分類精度に統計的に有意な影響を及ぼす。

This paper demonstrates the predictive superiority of discrete wavelet transform (DWT) over previously used methods of feature extraction in the diagnosis of epileptic seizures from EEG data. Classification accuracy, specificity, and sensitivity are used as evaluation metrics. We specifically show the immense potential of 2 combinations (DWT-db4 combined with SVM and DWT-db2 combined with RF) as compared to others when it comes to diagnosing epileptic seizures either in the balanced or the imbalanced dataset. The results also highlight that MFCC performs less than all the DWT used in this study and that, The mean-differences are statistically significant respectively in the imbalanced and balanced dataset. Finally, either in the balanced or the imbalanced dataset, the feature extraction techniques, the models, and the interaction between them have a statistically significant effect on the classification accuracy.
翻訳日:2021-02-04 11:16:11 公開日:2021-01-31
# (参考訳) Agnostic Active LearningにおけるAbstentionによる指数的節約

Exponential Savings in Agnostic Active Learning through Abstention ( http://arxiv.org/abs/2102.00451v1 )

ライセンス: CC BY 4.0
Nikita Puchkin and Nikita Zhivotovskiy(参考訳) プールをベースとしたアクティブな分類において,学習者が平均損失1/2$のランダムな推測よりも価格を極端に小さくすることで,いくつかの予測から退避する権限を与えられた場合,対応する実現可能な問題において,ラベル要求数に対する指数的貯蓄が可能となることを示す。 我々はこの結果を拡張し,プール型アクティブ分類において,モデル誤分類下での指数的節約に必要な十分条件を提供する。

We show that in pool-based active classification without assumptions on the underlying distribution, if the learner is given the power to abstain from some predictions by paying the price marginally smaller than the average loss $1/2$ of a random guess, exponential savings in the number of label requests are possible whenever they are possible in the corresponding realizable problem. We extend this result to provide a necessary and sufficient condition for exponential savings in pool-based active classification under the model misspecification.
翻訳日:2021-02-04 10:54:08 公開日:2021-01-31
# GraphEBM:エネルギーモデルを用いた分子グラフ生成

GraphEBM: Molecular Graph Generation with Energy-Based Models ( http://arxiv.org/abs/2102.00546v1 )

ライセンス: Link先を確認
Meng Liu, Keqiang Yan, Bora Oztekin, Shuiwang Ji(参考訳) 分子グラフ生成は、多くのアプリケーションを持つ研究の新興分野です。 分子グラフがノード順序に不変な離散的、不規則、および置換であるため、この問題は依然として困難である。 特に、既存のアプローチの多くは置換不変性の固有性を保証することができず、生成モデルに予期せぬバイアスをもたらす。 本研究では,エネルギーモデルを用いた分子グラフ生成のためのGraphEBMを提案する。 特に、置換不変な方法でエネルギー関数をパラメータ化することにより、GraphEBMの置換不変性を実現する。 エネルギー関数の学習にランジュバンダイナミクスを応用し,確率を最大化し,低エネルギーのサンプルを生成する。 さらに、特定の望ましい性質を持つ分子を生成するために、対応する分子の特性に応じて柔軟な程度でエネルギーを押し下げるシンプルで効果的な戦略を提案します。 最後に、複数の目的を持つ分子を組成的に生成するためのGraphEBMの使用を検討する。 ランダム, 目標指向, 構成生成タスクに関する包括的な実験結果から, 提案手法の有効性を実証した。

Molecular graph generation is an emerging area of research with numerous applications. This problem remains challenging as molecular graphs are discrete, irregular, and permutation invariant to node order. Notably, most existing approaches fail to guarantee the intrinsic property of permutation invariance, resulting in unexpected bias in generative models. In this work, we propose GraphEBM to generate molecular graphs using energy-based models. In particular, we parameterize the energy function in a permutation invariant manner, thus making GraphEBM permutation invariant. We apply Langevin dynamics to train the energy function by approximately maximizing likelihood and generate samples with low energies. Furthermore, to generate molecules with a specific desirable property, we propose a simple yet effective strategy, which pushes down energies with flexible degrees according to the properties of corresponding molecules. Finally, we explore the use of GraphEBM for generating molecules with multiple objectives in a compositional manner. Comprehensive experimental results on random, goal-directed, and compositional generation tasks demonstrate the effectiveness of our proposed method.
翻訳日:2021-02-04 10:19:02 公開日:2021-01-31
# 質問プールウェブサイトにおける学生エンゲージメント・ムードのドロップアウト予測

Characterizing Student Engagement Moods for Dropout Prediction in Question Pool Websites ( http://arxiv.org/abs/2102.00423v1 )

ライセンス: Link先を確認
Reza Hadi Mogavi, Xiaojuan Ma, Pan Hui(参考訳) 問題ベース学習(英語: problem-based learning, pbl)は、問題解決によるハンズオントレーニングを支援する、一般的な指導手法である。 LeetCode、Code Chef、Math Playgroundといった質問プールのウェブサイト(QP)は、学生に本物で多様な、文脈に応じた質問を提供することでPBLを支援する。 いずれにせよ、QPに登録されている学生の40%から80%は2ヶ月以内に退学している。 本研究は,学生の参加感情を活用し,qpsからの学生の退学を理解・予測する最初の試みである。 データ駆動型アプローチを採用することで、QP学生にとって5つの異なるエンゲージメント・ムード、すなわちチャレンジ・シーカー、主題シーカー、興味シーカー、喜びシーカー、非シーカーを識別する。 学生は、各エンゲージメントのムードで質問に答える集団的な選好を持ち、その選好からの逸脱は、退学する確率を著しく高めている。 最後に、この論文はQPの学生のドロップアウトを予測するための新しいハイブリッド機械学習モデル(我々はDropout-Plusと呼ぶ)を導入することで貢献します。 テストの結果、中国で人気のqpで1万人近い学生がおり、dropout-plusは、精度、f1-measure、aucの点でライバルアルゴリズムのドロップアウト予測性能を上回っている。 学生のドロップアウトを減らすために、QPマネージャーやオンライン学習の専門家にデザイン提案を行うことで、作業をまとめています。

Problem-Based Learning (PBL) is a popular approach to instruction that supports students to get hands-on training by solving problems. Question Pool websites (QPs) such as LeetCode, Code Chef, and Math Playground help PBL by supplying authentic, diverse, and contextualized questions to students. Nonetheless, empirical findings suggest that 40% to 80% of students registered in QPs drop out in less than two months. This research is the first attempt to understand and predict student dropouts from QPs via exploiting students' engagement moods. Adopting a data-driven approach, we identify five different engagement moods for QP students, which are namely challenge-seeker, subject-seeker, interest-seeker, joy-seeker, and non-seeker. We find that students have collective preferences for answering questions in each engagement mood, and deviation from those preferences increases their probability of dropping out significantly. Last but not least, this paper contributes by introducing a new hybrid machine learning model (we call Dropout-Plus) for predicting student dropouts in QPs. The test results on a popular QP in China, with nearly 10K students, show that Dropout-Plus can exceed the rival algorithms' dropout prediction performance in terms of accuracy, F1-measure, and AUC. We wrap up our work by giving some design suggestions to QP managers and online learning professionals to reduce their student dropouts.
翻訳日:2021-02-04 10:12:29 公開日:2021-01-31
# ディープニューラルネットワークトレーニングのための計算性能予測:実行時アプローチ

Computational Performance Predictions for Deep Neural Network Training: A Runtime-Based Approach ( http://arxiv.org/abs/2102.00527v1 )

ライセンス: Link先を確認
Geoffrey X. Yu, Yubo Gao, Pavel Golikov, Gennady Pekhimenko(参考訳) ディープラーニングの研究者や実践者は、通常、GPUを利用してディープニューラルネットワーク(DNN)を高速にトレーニングします。 しかし、(i)選択肢が多く、(ii)ユーザは、計算性能の最大化とコストの最小化という競合する懸念に悩まされているため、どのGPUを使うかを選択することは難しい。 本研究では,ユーザがすでに持っているGPUを用いて,情報に基づいた費用対効果の高いGPU選択を行うための,新たな実用的手法を提案する。 dnnのトレーニングは反復的な計算ステップで構成されているため、単一のイテレーションの実行時間の予測はトレーニングプロセス全体のパフォーマンスを特徴付けるのに十分である。 i)波のスケーリング、GPUの実行モデルに基づく技術、または(ii)事前に訓練された多層パーセプトロンを使用して、トレーニングイテレーション内の各操作の実行時間を1つのGPUから別のGPUにスケーリングすることによって予測を行います。 私たちはこの手法をSurferというPythonライブラリに実装し、ResNet-50、Inception v3、Transformer、GNMT、DCGANの6つの異なるGPUアーキテクチャ上で正確なイテレーション実行時間予測を行う。 Surferは現在PyTorchをサポートしており、使いやすく、数行のコードしか必要としない。

Deep learning researchers and practitioners usually leverage GPUs to help train their deep neural networks (DNNs) faster. However, choosing which GPU to use is challenging both because (i) there are many options, and (ii) users grapple with competing concerns: maximizing compute performance while minimizing costs. In this work, we present a new practical technique to help users make informed and cost-efficient GPU selections: make performance predictions using the help of a GPU that the user already has. Our technique exploits the observation that, because DNN training consists of repetitive compute steps, predicting the execution time of a single iteration is usually enough to characterize the performance of an entire training process. We make predictions by scaling the execution time of each operation in a training iteration from one GPU to another using either (i) wave scaling, a technique based on a GPU's execution model, or (ii) pre-trained multilayer perceptrons. We implement our technique into a Python library called Surfer and find that it makes accurate iteration execution time predictions on ResNet-50, Inception v3, the Transformer, GNMT, and DCGAN across six different GPU architectures. Surfer currently supports PyTorch, is easy to use, and requires only a few lines of code.
翻訳日:2021-02-04 10:11:40 公開日:2021-01-31
# テキスト分類のためのシンプルかつ簡潔かつ効率的なアクティブ学習プラットフォーム

A Simple yet Brisk and Efficient Active Learning Platform for Text Classification ( http://arxiv.org/abs/2102.00426v1 )

ライセンス: Link先を確認
Teja Kanchinadam, Qian You, Keith Westpfahl, James Kim, Siva Gunda, Sebastian Seith, Glenn Fung(参考訳) 本研究では,非構造化データからモデルを直接構築するためにアクティブラーニングを利用する,フルマネージドな機械学習サービスの利用を提案する。 このツールを使えば、ビジネスユーザーは素早く簡単に機械学習モデルを構築でき、データサイエンティストの関与なしに本番環境にそれらを直接デプロイすることができる。 弊社のアプローチでは,OpenAIのGPT2のような最先端のテキスト表現と,線形モデルを用いたインクリメンタルラーニングの簡単な構築に依存したアクティブラーニングワークフローの高速実装を活用して,ユーザに対して活発で効率的なラベリング体験を提供する。 公開および実生活の保険データセットに関する実験は、我々の単純かつ高速な分類アルゴリズムの選択が、現在進行中のタスクに理想的な理由を実証的に示している。

In this work, we propose the use of a fully managed machine learning service, which utilizes active learning to directly build models from unstructured data. With this tool, business users can quickly and easily build machine learning models and then directly deploy them into a production ready hosted environment without much involvement from data scientists. Our approach leverages state-of-the-art text representation like OpenAI's GPT2 and a fast implementation of the active learning workflow that relies on a simple construction of incremental learning using linear models, thus providing a brisk and efficient labeling experience for the users. Experiments on both publicly available and real-life insurance datasets empirically show why our choices of simple and fast classification algorithms are ideal for the task at hand.
翻訳日:2021-02-04 09:58:25 公開日:2021-01-31
# 高忠実度音声再生と音声強調への応用

High Fidelity Speech Regeneration with Application to Speech Enhancement ( http://arxiv.org/abs/2102.00429v1 )

ライセンス: Link先を確認
Adam Polyak, Lior Wolf, Yossi Adi, Ori Kabeli, Yaniv Taigman(参考訳) 近年の音声強調は, 主に聴覚障害, 話者分離, および発声音声に対する環境影響に対処する除音法への貢献を通じて, 顕著に改善されている。 元の信号の限界を超えてスピーチを高めるために、我々は、半認識音声、韻律の特徴、アイデンティティを含む、その本質からスピーチを再現する再生アプローチを取ります。 本研究では,24khzの音声をリアルタイムに生成し,asrとアイデンティティ特徴からなるコンパクトな音声表現を活用し,高いレベルの理解性を実現する音声生成モデルを提案する。 音声変換法に触発されて,補助idネットワークを用いて音源の識別性を維持しながら音声特性を増強する訓練を行った。 知覚音響測定と主観的テストにより,近年のベースラインよりも重要な改善が得られた。

Speech enhancement has seen great improvement in recent years mainly through contributions in denoising, speaker separation, and dereverberation methods that mostly deal with environmental effects on vocal audio. To enhance speech beyond the limitations of the original signal, we take a regeneration approach, in which we recreate the speech from its essence, including the semi-recognized speech, prosody features, and identity. We propose a wav-to-wav generative model for speech that can generate 24khz speech in a real-time manner and which utilizes a compact speech representation, composed of ASR and identity features, to achieve a higher level of intelligibility. Inspired by voice conversion methods, we train to augment the speech characteristics while preserving the identity of the source using an auxiliary identity network. Perceptual acoustic metrics and subjective tests show that the method obtains valuable improvements over recent baselines.
翻訳日:2021-02-04 09:57:49 公開日:2021-01-31
# ランダム化線形代数による楕円偏微分方程式の学習

Learning elliptic partial differential equations with randomized linear algebra ( http://arxiv.org/abs/2102.00491v1 )

ライセンス: Link先を確認
Nicolas Boull\'e, Alex Townsend(参考訳) 3次元の楕円偏微分方程式(PDE)の入出力対が与えられたとき、関連するグリーン関数を学習するための理論的に厳密なスキームを導出する。 G$ の階層的低ランク構造を利用することで、$G$ の近似をほぼ確実に収束させ、最大 $\mathcal{O}(\epsilon^{-6}\log^4(1/\epsilon)/\Gamma_\epsilon)$ 入出力トレーニングペアで $0<\epsilon<1$ で $\epsilon$ の相対誤差を達成できることを示す。 0<\gamma_\epsilon\leq 1$ はトレーニングデータセットの品質を特徴付ける。 その過程で、行列を学習するためのランダム化特異値分解アルゴリズムをヒルベルト-シュミット作用素に拡張し、PDE学習のための共分散カーネルの品質を特徴付ける。

Given input-output pairs of an elliptic partial differential equation (PDE) in three dimensions, we derive the first theoretically-rigorous scheme for learning the associated Green's function $G$. By exploiting the hierarchical low-rank structure of $G$, we show that one can construct an approximant to $G$ that converges almost surely and achieves an expected relative error of $\epsilon$ using at most $\mathcal{O}(\epsilon^{-6}\log^4(1/\epsilon)/\Gamma_\epsilon)$ input-output training pairs, for any $0<\epsilon<1$. The quantity $0<\Gamma_\epsilon\leq 1$ characterizes the quality of the training dataset. Along the way, we extend the randomized singular value decomposition algorithm for learning matrices to Hilbert--Schmidt operators and characterize the quality of covariance kernels for PDE learning.
翻訳日:2021-02-04 09:57:15 公開日:2021-01-31
# 行列型エントロピー関数を用いた深部決定論的情報ボトルネック

Deep Deterministic Information Bottleneck with Matrix-based Entropy Functional ( http://arxiv.org/abs/2102.00533v1 )

ライセンス: Link先を確認
Xi Yu, Shujian Yu, Jose C. Principe(参考訳) 行列ベースのRenyiの$\alpha$-order entropy関数を導入し、Tishbyらをパラメータ化する。 ニューラルネットワークによる情報ボトルネック(IB)の原則。 本稿では,変分推論や分布推定を避けるため,本手法をDIB(Deep Deterministic Information Bottleneck)と呼ぶ。 我々は、DIBで訓練されたディープニューラルネットワークが、一般化のパフォーマンスと敵対攻撃に対する堅牢性の観点から、変分客観的なものと他の形式の正規化で訓練されたものよりも優れていることを示しています。

We introduce the matrix-based Renyi's $\alpha$-order entropy functional to parameterize Tishby et al. information bottleneck (IB) principle with a neural network. We term our methodology Deep Deterministic Information Bottleneck (DIB), as it avoids variational inference and distribution assumption. We show that deep neural networks trained with DIB outperform the variational objective counterpart and those that are trained with other forms of regularization, in terms of generalization performance and robustness to adversarial attack.Code available at https://github.com/yuxi120407/DIB
翻訳日:2021-02-04 09:56:31 公開日:2021-01-31
# MalNet: 悪意あるソフトウェアの大規模サイバーセキュリティイメージデータベース

MalNet: A Large-Scale Cybersecurity Image Database of Malicious Software ( http://arxiv.org/abs/2102.01072v1 )

ライセンス: Link先を確認
Scott Freitas, Rahul Duggal, Duen Horng Chau(参考訳) コンピュータビジョンは、画像ベースのバイナリ表現の台頭に伴う自動マルウェア検出においてますます重要な役割を果たしています。 これらのバイナリイメージは、生成が速く、機能エンジニアリングが不要で、一般的な難読化メソッドに耐性がある。 この分野で重要な研究が行われてきたが、少数の産業研究所や研究チームがアクセスできる小規模またはプライベートなデータセットに限られている。 この可用性の欠如は、既存の仕事の検証、新しい研究の発展、アイデアの拡散を妨げる。 公開可能な最大のサイバーセキュリティイメージデータベースであるMalNetを導入し、他の公開バイナリイメージデータベースよりも133倍のイメージと27倍のクラスを提供します。 MalNet は 47 タイプと 696 ファミリーの階層にまたがる 1,200 万枚以上の画像を含んでいます。 MalNetの幅広い分析を提供し、その特性と証明について議論します。 malnetの規模と多様性は、コンピュータビジョンコミュニティにとって新しくてエキサイティングなサイバーセキュリティの機会を解き放ちます。 データベースはwww.mal-net.orgで公開されている。

Computer vision is playing an increasingly important role in automated malware detection with to the rise of the image-based binary representation. These binary images are fast to generate, require no feature engineering, and are resilient to popular obfuscation methods. Significant research has been conducted in this area, however, it has been restricted to small-scale or private datasets that only a few industry labs and research teams have access to. This lack of availability hinders examination of existing work, development of new research, and dissemination of ideas. We introduce MalNet, the largest publicly available cybersecurity image database, offering 133x more images and 27x more classes than the only other public binary-image database. MalNet contains over 1.2 million images across a hierarchy of 47 types and 696 families. We provide extensive analysis of MalNet, discussing its properties and provenance. The scale and diversity of MalNet unlocks new and exciting cybersecurity opportunities to the computer vision community--enabling discoveries and research directions that were previously not possible. The database is publicly available at www.mal-net.org.
翻訳日:2021-02-03 16:57:51 公開日:2021-01-31
# 行列に基づくピタゴラスファジィ集合の新たな距離測定とその医療診断への応用

A new distance measure of Pythagorean fuzzy sets based on matrix and and its application in medical diagnosis ( http://arxiv.org/abs/2102.01538v1 )

ライセンス: Link先を確認
Yuanpeng He(参考訳) 直観主義的ファジィセットに基づいて開発されたピタゴラスファジィセット(PFS)は、不確定な状況における不確実性を解明し、処分するのにより効率的である。 2つのピタゴラスファジィセット間の距離を測定する方法は、まだオープンな問題です。 mnay 種類の手法が提案されているが、これは以前の再帰的問題である。 しかし、既存の全ての方法がピタゴラスファジィ集合間の差異を正確に表し、類似性の性質を満たすことはできない。 また、ピタゴラスファジィ集合の3つの変数間の関係を無視する他の方法もある。 プロプレムを付加するために、距離測定の公理の要件を満たし、PPSの区別の程度をうまく示すことができる距離を測定する新しい方法が提案される。 次に、距離を測定する方法がカウンターの状況を避けることができるかどうかを検証するために、いくつかの数値例が提供されている。 直感的で不合理な結果は作り出され、他の同じような方法より有効、適度および高度です。 さらに,PFS間の距離を計測する手法を医学的診断である実環境に適用し,その優位性と効率性を示す他の方法と比較した。 また,実際に不確実性を扱うための提案手法の実現可能性も同時に証明した。

The pythagorean fuzzy set (PFS) which is developed based on intuitionistic fuzzy set, is more efficient in elaborating and disposing uncertainties in indeterminate situations, which is a very reason of that PFS is applied in various kinds of fields. How to measure the distance between two pythagorean fuzzy sets is still an open issue. Mnay kinds of methods have been proposed to present the of the question in former reaserches. However, not all of existing methods can accurately manifest differences among pythagorean fuzzy sets and satisfy the property of similarity. And some other kinds of methods neglect the relationship among three variables of pythagorean fuzzy set. To addrees the proplem, a new method of measuring distance is proposed which meets the requirements of axiom of distance measurement and is able to indicate the degree of distinction of PFSs well. Then some numerical examples are offered to to verify that the method of measuring distances can avoid the situation that some counter? intuitive and irrational results are produced and is more effective, reasonable and advanced than other similar methods. Besides, the proposed method of measuring distances between PFSs is applied in a real environment of application which is the medical diagnosis and is compared with other previous methods to demonstrate its superiority and efficiency. And the feasibility of the proposed method in handling uncertainties in practice is also proved at the same time.
翻訳日:2021-02-03 16:52:19 公開日:2021-01-31
# 小型訓練データセットを用いたACGANを用いた超音波画像分類

Ultrasound Image Classification using ACGAN with Small Training Dataset ( http://arxiv.org/abs/2102.01539v1 )

ライセンス: Link先を確認
Sudipan Saha and Nasrullah Sheikh(参考訳) Bモード超音波画像は一般的な医用画像技術である。 他の画像処理タスクと同様に、深層学習は、過去数年間にBモード超音波画像の分析に使用されています。 しかし、ディープラーニングモデルのトレーニングには大きなラベル付きデータセットが必要であり、超音波画像では利用できないことが多い。 大きなラベル付きデータの欠如は、超音波画像分析におけるディープラーニングの使用のためのボトルネックです。 この課題を克服するために,本研究では,同じ枠組みでデータ拡張と転送学習の利点を組み合わせた補助的分類器生成逆ネットワーク (acgan) を利用する。 乳房超音波画像のデータセットを用いて,提案手法の有効性を示す実験を行った。

B-mode ultrasound imaging is a popular medical imaging technique. Like other image processing tasks, deep learning has been used for analysis of B-mode ultrasound images in the last few years. However, training deep learning models requires large labeled datasets, which is often unavailable for ultrasound images. The lack of large labeled data is a bottleneck for the use of deep learning in ultrasound image analysis. To overcome this challenge, in this work we exploit Auxiliary Classifier Generative Adversarial Network (ACGAN) that combines the benefits of data augmentation and transfer learning in the same framework. We conduct experiment on a dataset of breast ultrasound images that shows the effectiveness of the proposed approach.
翻訳日:2021-02-03 16:20:18 公開日:2021-01-31
# (参考訳) 多言語メールゾーニング

Multilingual Email Zoning ( http://arxiv.org/abs/2102.00461v1 )

ライセンス: CC0 1.0
Bruno Jardim and Ricardo Rei and Mariana S. C. Almeida(参考訳) メールを機能ゾーンに分割する(Eメール分割とも呼ばれる)ことは、メールを扱うほとんどのNLPタスクにおいて、関連する前処理ステップである。 しかし、電子メールの多言語的特徴とその応用にもかかわらず、メールゾーニングコーパスとシステムに関する以前の文献は基本的に英語のために開発された。 本稿では,既存のメール分割コーパスを分析し,ポルトガル語,スペイン語,フランス語の635個のメールからなる多言語ベンチマークを提案する。 さらに,言語に依存しない文エンコーダに基づく最初の多言語メールセグメンテーションモデルであるOKAPIを導入する。 未知の言語を一般化するのに加えて、我々のモデルは現在の英語のベンチマークと競合し、英語のドメイン適応タスクのための新しい最先端のパフォーマンスに到達した。

The segmentation of emails into functional zones (also dubbed email zoning) is a relevant preprocessing step for most NLP tasks that deal with emails. However, and despite the multilingual character of emails and their applications, previous literature regarding email zoning corpora and systems was developed essentially for English. In this paper, we analyse the existing email zoning corpora and propose a new multilingual benchmark composed of 635 emails in Portuguese, Spanish and French. Moreover, we introduce OKAPI, the first multilingual email segmentation model based on a language-agnostic sentence encoder. Besides generalizing well for unseen languages, our model is competitive with current English benchmarks, and reached new state-of-the-art performances for domain adaptation tasks in English.
翻訳日:2021-02-03 07:29:08 公開日:2021-01-31
# (参考訳) マルチホリゾン確率予測のための異種時系列の相乗的学習

Synergetic Learning of Heterogeneous Temporal Sequences for Multi-Horizon Probabilistic Forecasting ( http://arxiv.org/abs/2102.00431v1 )

ライセンス: CC BY 4.0
Longyuan Li, Jihai Zhang, Junchi Yan, Yaohui Jin, Yunhao Zhang, Yanjie Duan, and Guangjian Tian(参考訳) タイムシリーズは、交通、金融、医療などのアプリケーションにまたがっている。 時系列はしばしば外部要因、特に非同期イベントの形で影響を受け、予測が困難になる。 しかし、既存のモデルは、主に同期時系列または非同期イベントシーケンスに指定されており、それらの関係を捉えるための合成方法を提供できない。 本稿では,新しい条件生成モデルである変分相乗型マルチホライゾンネットワーク(VSMHN)を提案する。 不均質なシーケンス間の複雑な相関を学習するために、調整されたエンコーダは、深点プロセスモデルと変動リカレントニューラルネットワークの進歩を結合するように考案される。 さらに、非整合シーケンスにおけるバッチトレーニングのために、整列時間符号化と補助遷移スキームを慎重に設計する。 本モデルは確率的変分推論を用いて効果的に訓練でき,モンテカルロシミュレーションにより確率的予測を生成できる。 さらに、我々のモデルは正確で鋭く、より現実的な確率予測を生成する。 また,マルチホリゾン時系列予測には非同期イベントシーケンスのモデル化が不可欠であることを示す。

Time-series is ubiquitous across applications, such as transportation, finance and healthcare. Time-series is often influenced by external factors, especially in the form of asynchronous events, making forecasting difficult. However, existing models are mainly designated for either synchronous time-series or asynchronous event sequence, and can hardly provide a synthetic way to capture the relation between them. We propose Variational Synergetic Multi-Horizon Network (VSMHN), a novel deep conditional generative model. To learn complex correlations across heterogeneous sequences, a tailored encoder is devised to combine the advances in deep point processes models and variational recurrent neural networks. In addition, an aligned time coding and an auxiliary transition scheme are carefully devised for batched training on unaligned sequences. Our model can be trained effectively using stochastic variational inference and generates probabilistic predictions with Monte-Carlo simulation. Furthermore, our model produces accurate, sharp and more realistic probabilistic forecasts. We also show that modeling asynchronous event sequences is crucial for multi-horizon time-series forecasting.
翻訳日:2021-02-03 07:19:25 公開日:2021-01-31
# (参考訳) 拡散学習のためのマルチスケール環境

A Multiscale Environment for Learning by Diffusion ( http://arxiv.org/abs/2102.00500v1 )

ライセンス: CC BY 4.0
James M. Murphy and Sam L. Polk(参考訳) クラスタリングアルゴリズムはデータセットを類似点のグループに分割する。 クラスタリングの問題は極めて一般的な問題であり、同じデータセットの異なるパーティションを正しく、有用とみなすことができる。 このようなデータを完全に理解するには、粗いものから細かいものまで、さまざまなスケールで考慮する必要がある。 本稿では,データセット上の非線形拡散によってパラメータ化されるクラスタリングのファミリであるMultiscale Environment for Learning by Diffusion (MELD)データモデルを紹介する。 MELDデータモデルがデータの潜在マルチスケール構造を正確にキャプチャし、分析を容易にすることを示した。 多くの実データセットで観測されるマルチスケール構造を効率的に学習するために,時間スケールの拡散過程から導出される非教師なし非線形拡散(M-LUND)クラスタリングアルゴリズムを導入する。 我々は,アルゴリズムの性能を理論的に保証し,その計算効率を確立する。 最後に、M-LUNDクラスタリングアルゴリズムが、合成および実データの範囲内の潜伏構造を検出することを示す。

Clustering algorithms partition a dataset into groups of similar points. The clustering problem is very general, and different partitions of the same dataset could be considered correct and useful. To fully understand such data, it must be considered at a variety of scales, ranging from coarse to fine. We introduce the Multiscale Environment for Learning by Diffusion (MELD) data model, which is a family of clusterings parameterized by nonlinear diffusion on the dataset. We show that the MELD data model precisely captures latent multiscale structure in data and facilitates its analysis. To efficiently learn the multiscale structure observed in many real datasets, we introduce the Multiscale Learning by Unsupervised Nonlinear Diffusion (M-LUND) clustering algorithm, which is derived from a diffusion process at a range of temporal scales. We provide theoretical guarantees for the algorithm's performance and establish its computational efficiency. Finally, we show that the M-LUND clustering algorithm detects the latent structure in a range of synthetic and real datasets.
翻訳日:2021-02-03 07:03:24 公開日:2021-01-31
# (参考訳) BNLP:ベンガル語のための自然言語処理ツールキット

BNLP: Natural language processing toolkit for Bengali language ( http://arxiv.org/abs/2102.00405v1 )

ライセンス: CC BY 4.0
Sagor Sarker(参考訳) BNLPは、トークン化、単語埋め込み、POSタグ付け、NERタグ付け機能を備えたBengali言語のためのオープンソースの言語処理ツールキットです。 BNLPは、モデルベースのトークン化、埋め込み、POSタグ付け、Bengali言語のNERタグ付けタスクを行うための高精度な事前トレーニングモデルを提供します。 BNLPプリトレーニングモデルは、Bengaliテキストトークン化、単語埋め込み、POSタグ付け、NERタグ付けタスクで重要な結果をもたらします。 BNLPは16Kダウンロード、119スター、31フォークのベンガル研究コミュニティで広く使用されています。 BNLPはhttps://github.com/sagorbrur/bnlp.comで入手できる。

BNLP is an open source language processing toolkit for Bengali language consisting with tokenization, word embedding, POS tagging, NER tagging facilities. BNLP provides pre-trained model with high accuracy to do model based tokenization, embedding, POS tagging, NER tagging task for Bengali language. BNLP pre-trained model achieves significant results in Bengali text tokenization, word embedding, POS tagging and NER tagging task. BNLP is using widely in the Bengali research communities with 16K downloads, 119 stars and 31 forks. BNLP is available at https://github.com/sagorbrur/bnlp.
翻訳日:2021-02-03 05:49:37 公開日:2021-01-31
# (参考訳) TF-IDFタグセットマッチングによる拡張ニューラルキーワード抽出

Extending Neural Keyword Extraction with TF-IDF tagset matching ( http://arxiv.org/abs/2102.00472v1 )

ライセンス: CC BY 4.0
Boshko Koloski and Senja Pollak and Bla\v{z} \v{S}krlj and Matej Martinc(参考訳) キーワード抽出は、与えられた文書を最もよく記述し、同様のトピックの記事をリンクするためにニュースポータルで役立つ単語(または複数の単語表現)を識別するタスクです。 本研究では,欧州のニュースメディア産業(クロアチア語,エストニア語,ラトビア語,ロシア語)において,表現力の低い形態素豊かな4つの新しいデータセットを開発・評価した。 まず,2つの教師付きニューラルトランスベースの手法(TNT-KIDとBERT+BiLSTM CRF)の評価を行い,これらをベースラインTF-IDFベースの非監視アプローチと比較する。 次に、ニューラルトランスフォーマーベースの手法によって検索されたキーワードと、教師なしTF-IDFベースの手法を併用することにより、システムリコールを大幅に改善し、メディアハウス環境におけるレコメンデーションシステムとしての使用が適切であることを示す。

Keyword extraction is the task of identifying words (or multi-word expressions) that best describe a given document and serve in news portals to link articles of similar topics. In this work we develop and evaluate our methods on four novel data sets covering less represented, morphologically-rich languages in European news media industry (Croatian, Estonian, Latvian and Russian). First, we perform evaluation of two supervised neural transformer-based methods (TNT-KID and BERT+BiLSTM CRF) and compare them to a baseline TF-IDF based unsupervised approach. Next, we show that by combining the keywords retrieved by both neural transformer based methods and extending the final set of keywords with an unsupervised TF-IDF based technique, we can drastically improve the recall of the system, making it appropriate to be used as a recommendation system in the media house environment.
翻訳日:2021-02-03 05:45:49 公開日:2021-01-31
# (参考訳) 変換器による短文クラスタリング

Short Text Clustering with Transformers ( http://arxiv.org/abs/2102.00541v1 )

ライセンス: CC BY 4.0
Leonid Pugachev, Mikhail Burtsev(参考訳) 最近の短いテキストクラスタリングのタスクのテクニックは、転置学習コンポーネントとして単語埋め込みに依存することが多い。 本稿では,トランスフォーマーからの文ベクトル表現と異なるクラスタリング手法を併用して,タスクに対処できることを示す。 さらに、反復分類によるクラスタリングの強化アルゴリズムは、事前訓練されたトランスフォーマー言語モデルを含む異なる分類器による初期クラスタリング性能をさらに向上させることができることを示した。

Recent techniques for the task of short text clustering often rely on word embeddings as a transfer learning component. This paper shows that sentence vector representations from Transformers in conjunction with different clustering methods can be successfully applied to address the task. Furthermore, we demonstrate that the algorithm of enhancement of clustering via iterative classification can further improve initial clustering performance with different classifiers, including those based on pre-trained Transformer language models.
翻訳日:2021-02-03 05:35:53 公開日:2021-01-31
# (参考訳) ニューラルネットワークの重みの間の距離は意味があります

The distance between the weights of the neural network is meaningful ( http://arxiv.org/abs/2102.00396v1 )

ライセンス: CC BY 4.0
Liqun Yang, Yijun Yang, Yao Wang, Zhenyu Yang, Wei Zeng(参考訳) ニューラルネットワークの適用においては、問題複雑性とデータセットスケールに基づいて適切なモデルを選択する必要がある。 ネットワークの容量を分析するには,ネットワークで学習した情報を定量化する必要がある。 本稿では,異なるトレーニング段階におけるニューラルネットワーク重み間の距離を用いて,トレーニング過程において,ネットワークが蓄積した情報を直接推定できることを示す。 実験結果は、この方法の有用性を検証します。 ラベルの破損に関連するこの方法の適用は、最後に示されています。

In the application of neural networks, we need to select a suitable model based on the problem complexity and the dataset scale. To analyze the network's capacity, quantifying the information learned by the network is necessary. This paper proves that the distance between the neural network weights in different training stages can be used to estimate the information accumulated by the network in the training process directly. The experiment results verify the utility of this method. An application of this method related to the label corruption is shown at the end.
翻訳日:2021-02-03 04:22:55 公開日:2021-01-31
# (参考訳) プライオリティに基づく個人とグループフェアネスのためのポストプロシースバイアス軽減

Priority-based Post-Processing Bias Mitigation for Individual and Group Fairness ( http://arxiv.org/abs/2102.00417v1 )

ライセンス: CC BY 4.0
Pranay Lohia(参考訳) グループと個人の公平性に関する処理後バイアス軽減アルゴリズムは、マルチクラスの数値ラベルを持つ回帰モデルやデータセットでは機能しません。 本稿では,社会経済的要因や不公平性に拘わらず,類似する個人が同様の結果を得るべきだという考えから,グループと個人の公平性に対する優先順位に基づく後処理バイアス緩和を提案する。 この提案は,スマートグリッドにおける関税配分に関するケーススタディによって確立される。 提案手法は,ユーザのセグメンテーションアルゴリズムを用いて,消費戦略をよりよく把握する。 このプロセスは、最大不正に直面しているグループと個人に対する優先順位に基づく公正価格を保証する。 関税計算の実施プロセスを変更することなく、住民全体に対する公正な関税配分という概念を支持している。 また,本手法の有効性を検証し,実世界データセットに対する従来よりも優れた性能を示す。

Previous post-processing bias mitigation algorithms on both group and individual fairness don't work on regression models and datasets with multi-class numerical labels. We propose a priority-based post-processing bias mitigation on both group and individual fairness with the notion that similar individuals should get similar outcomes irrespective of socio-economic factors and more the unfairness, more the injustice. We establish this proposition by a case study on tariff allotment in a smart grid. Our novel framework establishes it by using a user segmentation algorithm to capture the consumption strategy better. This process ensures priority-based fair pricing for group and individual facing the maximum injustice. It upholds the notion of fair tariff allotment to the entire population taken into consideration without modifying the in-built process for tariff calculation. We also validate our method and show superior performance to previous work on a real-world dataset in criminal sentencing.
翻訳日:2021-02-03 04:09:34 公開日:2021-01-31
# (参考訳) 階層計画のための効率的な戦略発見による人的意思決定の改善

Improving Human Decision-Making by Discovering Efficient Strategies for Hierarchical Planning ( http://arxiv.org/abs/2102.00521v1 )

ライセンス: CC BY 4.0
Saksham Consul, Lovis Heindrich, Jugoslav Stojcheski, Falk Lieder(参考訳) 現実世界で良い意思決定を行うには、計算資源が限られているため、効率的な計画戦略が必要です。 さまざまな状況の人々に最も適した計画戦略を知ることは、人間の意思決定を理解し、改善するのに非常に役立ちます。 しかし、これらの戦略を計算する能力は、以前は非常に小さく、非常に単純な計画タスクに限られていました。 この計算ボトルネックを克服するために,人間の行動の階層構造を活用することにより,この制限を克服できる認知型強化学習手法を導入する。 基本的な考え方は、逐次的な決定問題を2つのサブ問題に分割することだ。 この階層的な分解によって、以前よりも大きく複雑なタスクで、人間の計画に最適な戦略を見つけることができます。 発見された戦略は、既存の計画アルゴリズムを上回り、超人的な計算効率を達成する。 これらの戦略を使用するように教えることで、最大8ステップの計画を必要とする意思決定タスクにおけるパフォーマンスが大幅に向上することを示す。 対照的に、以前のアプローチでは、これらの問題に対する人間のパフォーマンスを改善することはできなかった。 これらの結果から, 複雑な逐次的意思決定において, 強化学習を活用し, 人間の意思決定を改善することができることが示唆された。 今後,この手法を活用し,実世界での意思決定を改善する意思決定支援システムの開発が期待できる。

To make good decisions in the real world people need efficient planning strategies because their computational resources are limited. Knowing which planning strategies would work best for people in different situations would be very useful for understanding and improving human decision-making. But our ability to compute those strategies used to be limited to very small and very simple planning tasks. To overcome this computational bottleneck, we introduce a cognitively-inspired reinforcement learning method that can overcome this limitation by exploiting the hierarchical structure of human behavior. The basic idea is to decompose sequential decision problems into two sub-problems: setting a goal and planning how to achieve it. This hierarchical decomposition enables us to discover optimal strategies for human planning in larger and more complex tasks than was previously possible. The discovered strategies outperform existing planning algorithms and achieve a super-human level of computational efficiency. We demonstrate that teaching people to use those strategies significantly improves their performance in sequential decision-making tasks that require planning up to eight steps ahead. By contrast, none of the previous approaches was able to improve human performance on these problems. These findings suggest that our cognitively-informed approach makes it possible to leverage reinforcement learning to improve human decision-making in complex sequential decision-problems. Future work can leverage our method to develop decision support systems that improve human decision making in the real world.
翻訳日:2021-02-03 04:00:49 公開日:2021-01-31
# (参考訳) 多地域多粒特徴の同時学習による細粒度視覚分類

Fine-Grained Visual Classification via Simultaneously Learning of Multi-regional Multi-grained Features ( http://arxiv.org/abs/2102.00367v1 )

ライセンス: CC BY 4.0
Dongliang Chang, Yixiao Zheng, Zhanyu Ma, Ruoyi Du, Kongming Liang(参考訳) きめ細かい視覚分類は、同じメタクラスに属するサブクラスを認識する難しいタスクである。 クラス間の大きな類似性とクラス内分散がこのタスクの主な課題である。 ほとんどの出口法は、より微細で差別的な領域を探索するために複雑なモデル構造を設計することでこの問題を解決しようとする。 本稿では,マルチリージョンの多粒度特徴のマイニングが,まさにこの課題の鍵であると主張する。 具体的には,マルチステージチャネル制約モジュールとトップダウンスペースアテンションモジュールを含む,top-down spatial attention loss(tdsa-loss)と呼ばれる新しいロス関数を導入する。 マルチステージチャネル制約モジュールは、異なるステージのフィーチャーチャネルをカテゴリ整列させることを目指しています。 一方、トップダウンスペースアテンションモジュールは、ハイレベルアライメント機能チャネルによって生成されたアテンションマップを使用して、中間レベルアライメント機能チャネルを特定の領域に集中させる。 最後に、高レベル特徴チャネル上の複数の識別領域を取得し、中レベル特徴チャネル上のこれらの識別領域内の複数の分領域を得ることができる。 まとめると、我々は多領域多粒性特徴を得る。 4つの画像分類データセットを用いた実験結果から,提案手法の有効性が示された。 Ablative study further showed the superiority of two module in the proposed method。 コードはhttps://github.com/dongliangchang/Top-Down-Spatial-Attention-Lossで入手できます。

Fine-grained visual classification is a challenging task that recognizes the sub-classes belonging to the same meta-class. Large inter-class similarity and intra-class variance is the main challenge of this task. Most exiting methods try to solve this problem by designing complex model structures to explore more minute and discriminative regions. In this paper, we argue that mining multi-regional multi-grained features is precisely the key to this task. Specifically, we introduce a new loss function, termed top-down spatial attention loss (TDSA-Loss), which contains a multi-stage channel constrained module and a top-down spatial attention module. The multi-stage channel constrained module aims to make the feature channels in different stages category-aligned. Meanwhile, the top-down spatial attention module uses the attention map generated by high-level aligned feature channels to make middle-level aligned feature channels to focus on particular regions. Finally, we can obtain multiple discriminative regions on high-level feature channels and obtain multiple more minute regions within these discriminative regions on middle-level feature channels. In summary, we obtain multi-regional multi-grained features. Experimental results over four widely used fine-grained image classification datasets demonstrate the effectiveness of the proposed method. Ablative studies further show the superiority of two modules in the proposed method. Codes are available at: https://github.com/dongliangchang/Top-Down-Spatial-Attention-Loss.
翻訳日:2021-02-03 02:41:14 公開日:2021-01-31
# (参考訳) 肺結節分類の改善のためのメタオーディナル重み付け網

Meta ordinal weighting net for improving lung nodule classification ( http://arxiv.org/abs/2102.00456v1 )

ライセンス: CC BY 4.0
Yiming Lei, Hongming Shan, Junping Zhang(参考訳) 肺癌の進行は、良性から不確実性までの異なる段階における肺結節の内在性順序関係を意味する。 この問題は、その順序ラベルによる分類と回帰の間の順序回帰法によって解決することができる。 しかし、既存の畳み込みニューラルネットワーク(CNN)ベースの順序回帰法は、ランダムにサンプリングされたデータのミニバッチに基づいて分類ヘッドを変更することのみに焦点を当て、データ自体に存在する順序関係を無視している。 本稿では、各トレーニングサンプルを、すべてのクラスからいくつかのサンプルを含むメタ順序集合(mos)に明示的に整合させるメタ順序重み付けネットワーク(mow-net)を提案する。 トレーニングプロセス中、MOW-NetはMOSのサンプルから対応するクラス固有のウェイトへのマッピングを学びます。 さらに,メタ学習方式でネットワークを最適化するために,メタクロスエントロピー(MCE)損失を提案する。 実験の結果,MOW-Netは,特に不確実クラスにおいて,最先端の順序回帰法よりも精度が高いことがわかった。

The progression of lung cancer implies the intrinsic ordinal relationship of lung nodules at different stages-from benign to unsure then to malignant. This problem can be solved by ordinal regression methods, which is between classification and regression due to its ordinal label. However, existing convolutional neural network (CNN)-based ordinal regression methods only focus on modifying classification head based on a randomly sampled mini-batch of data, ignoring the ordinal relationship resided in the data itself. In this paper, we propose a Meta Ordinal Weighting Network (MOW-Net) to explicitly align each training sample with a meta ordinal set (MOS) containing a few samples from all classes. During the training process, the MOW-Net learns a mapping from samples in MOS to the corresponding class-specific weight. In addition, we further propose a meta cross-entropy (MCE) loss to optimize the network in a meta-learning scheme. The experimental results demonstrate that the MOW-Net achieves better accuracy than the state-of-the-art ordinal regression methods, especially for the unsure class.
翻訳日:2021-02-03 02:23:59 公開日:2021-01-31
# (参考訳) TruthBot: インテントラーニング、キュレートされた情報提示、フェイクニュースアラーティングのための自動会話ツール

TruthBot: An Automated Conversational Tool for Intent Learning, Curated Information Presenting, and Fake News Alerting ( http://arxiv.org/abs/2102.00509v1 )

ライセンス: CC BY-SA 4.0
Ankur Gupta, Yash Varun, Prarthana Das, Nithya Muttineni, Parth Srivastava, Hamim Zafar, Tanmoy Chakraborty, Swaprava Nath(参考訳) TruthBotは、特定のトピックに関する真実(信頼できる、検証された情報)を求めるために設計されたオールインワンの多言語会話チャットボットです。 ユーザーは特定のトピックに関する情報、ファクトチェック情報、最新のニュースを入手することができる。 チャットボットは、前のインテントのデータからディープニューラルネットワークをトレーニングしてクエリのインテントを学習し、上記のクラスの1つにインテントを分類した場合に適切に応答する。 各クラスは独立したモジュールとして実装され、独自の知識ベースを使用するか、Webを検索して正しい情報を取得する。 チャットボットのトピックは現在、COVID-19に設定されています。 しかし、ボットはどんなトピック固有の応答にも簡単にカスタマイズできる。 実験の結果,各モジュールは,複数の言語でのユーザベースサーベイと定量的に検証された,最も近い競合モジュールよりもはるかに優れた性能を示した。 TruthBotは2020年6月にデプロイされ、現在実行中です。

We present TruthBot, an all-in-one multilingual conversational chatbot designed for seeking truth (trustworthy and verified information) on specific topics. It helps users to obtain information specific to certain topics, fact-check information, and get recent news. The chatbot learns the intent of a query by training a deep neural network from the data of the previous intents and responds appropriately when it classifies the intent in one of the classes above. Each class is implemented as a separate module that uses either its own curated knowledge-base or searches the web to obtain the correct information. The topic of the chatbot is currently set to COVID-19. However, the bot can be easily customized to any topic-specific responses. Our experimental results show that each module performs significantly better than its closest competitor, which is verified both quantitatively and through several user-based surveys in multiple languages. TruthBot has been deployed in June 2020 and is currently running.
翻訳日:2021-02-03 01:12:40 公開日:2021-01-31
# (参考訳) Lambdaによる重ね合わせ

Superposition with Lambdas ( http://arxiv.org/abs/2102.00453v1 )

ライセンス: CC BY 4.0
Alexander Bentkamp, Jasmin Blanchette, Sophie Tourret, Petar Vukmirovi\'c, Uwe Waldmann(参考訳) 我々は,無名関数を含むがブール関数を含まない拡張型多形高階論理の包括的断片に対する重ね合わせ計算を考案した。 推論規則は$\lambda$項の$\beta\eta$-同値クラスに作用し、反論完全性を達成するために高階統一に依存する。 我々は Zipperposition 証明器に計算を実装し,TPTP と Isabelle のベンチマークで評価した。 その結果,重ね合わせは高階推論に適した基礎であることが示唆された。

We designed a superposition calculus for a clausal fragment of extensional polymorphic higher-order logic that includes anonymous functions but excludes Booleans. The inference rules work on $\beta\eta$-equivalence classes of $\lambda$-terms and rely on higher-order unification to achieve refutational completeness. We implemented the calculus in the Zipperposition prover and evaluated it on TPTP and Isabelle benchmarks. The results suggest that superposition is a suitable basis for higher-order reasoning.
翻訳日:2021-02-03 00:04:44 公開日:2021-01-31
# (参考訳) 確率時系列予測のための学習解釈可能な深部状態空間モデル

Learning Interpretable Deep State Space Model for Probabilistic Time Series Forecasting ( http://arxiv.org/abs/2102.00397v1 )

ライセンス: CC BY 4.0
Longyuan Li, Junchi Yan, Xiaokang Yang, and Yaohui Jin(参考訳) 確率的時系列予測は、下流意思決定におけるリスク管理に不可欠な、その歴史に基づく未来分布の推定を伴う。 非線形放出モデルと遷移モデルがネットワークによってパラメータ化され、依存性が繰り返しニューラルネットによってモデル化される確率時系列予測のための深部状態空間モデルを提案する。 我々は,自動関係決定(ARD)の視点を取り入れ,時系列に加えて外因性変数を利用するネットワークを考案する。 特に,我々のARDネットワークは,外因性変数の不確実性を組み込んで,有用な外因性変数の同定と予測に無関係な変数の抑制に役立てることができる。 マルチステップ予測の分布はモンテカルロシミュレーションによって近似される。 実験では,モデルが正確かつ鋭い確率予測を生成することを示す。 予測の不確実性の推定は、時間とともに、自然に、現実的に増加する。

Probabilistic time series forecasting involves estimating the distribution of future based on its history, which is essential for risk management in downstream decision-making. We propose a deep state space model for probabilistic time series forecasting whereby the non-linear emission model and transition model are parameterized by networks and the dependency is modeled by recurrent neural nets. We take the automatic relevance determination (ARD) view and devise a network to exploit the exogenous variables in addition to time series. In particular, our ARD network can incorporate the uncertainty of the exogenous variables and eventually helps identify useful exogenous variables and suppress those irrelevant for forecasting. The distribution of multi-step ahead forecasts are approximated by Monte Carlo simulation. We show in experiments that our model produces accurate and sharp probabilistic forecasts. The estimated uncertainty of our forecasting also realistically increases over time, in a spontaneous manner.
翻訳日:2021-02-02 23:09:14 公開日:2021-01-31
# (参考訳) MultiRocket: 時系列分類における畳み込み出力の効率的な要約統計

MultiRocket: Effective summary statistics for convolutional outputs in time series classification ( http://arxiv.org/abs/2102.00457v1 )

ライセンス: CC BY 4.0
Chang Wei Tan and Angus Dempster and Christoph Bergmeir and Geoffrey I. Webb(参考訳) RocketとMiniRocketは、時系列分類において最速の2つの手法であるが、どちらも現在の最も正確な方法(HIVE-COTEとその変種)よりも若干精度が低い。 本研究では,MiniRocket(およびRocket)の精度を大幅に向上させ,さらに計算コストを掛けて,変換によって生成された機能のセットを拡大することで,マルチロケット(MiniRocket with Multiple Features)をUCRアーカイブのデータセット上で最も正確なメソッドとして,全体として実現することが可能であることを示した。

Rocket and MiniRocket, while two of the fastest methods for time series classification, are both somewhat less accurate than the current most accurate methods (namely, HIVE-COTE and its variants). We show that it is possible to significantly improve the accuracy of MiniRocket (and Rocket), with some additional computational expense, by expanding the set of features produced by the transform, making MultiRocket (for MiniRocket with Multiple Features) overall the single most accurate method on the datasets in the UCR archive, while still being orders of magnitude faster than any algorithm of comparable accuracy other than its precursors
翻訳日:2021-02-02 22:56:19 公開日:2021-01-31
# (参考訳) 責任あるaiを例外ではなく規範にする

Making Responsible AI the Norm rather than the Exception ( http://arxiv.org/abs/2101.11832v2 )

ライセンス: CC BY 4.0
Abhishek Gupta (Montreal AI Ethics Institute and Microsoft)(参考訳) モントリオールAI倫理研究所が作成したこのレポートは、人工知能に関する国家安全保障委員会(National Security Commission on Artificial Intelligence (NSCAI) Key considerations for Responsible Development and Fielding of Artificial Intelligence documentに応答して推奨している。 報告書は、責任あるAIは例外ではなくノルムを作るべきだという考えを中心にしている。 それは、(1)既存のワークフローの摩擦を軽減する、(2)利害関係者に購入を許可する、(3)抽象的な標準を実行可能なエンジニアリングプラクティスに効果的な変換を行う、というガイド原則を活用することによって実現される。 NSCAIからドキュメントに関する包括的なコメントを提供した後、レポートは、NSCAIから文書に提示されたアイデアを運用するのに役立つ、実行可能なフレームワークの主な貢献について掘り下げる。 フレームワークは,(1)学習,知識,情報交換(LKIE),(2)責任AIの3つの方法,(3)経験的に駆動されるリスク優先化行列,(4)適切な複雑性レベルを達成することから構成される。 すべてのコンポーネントは相互に強化され、Responsible AIを例外ではなく規範とする上での原則から実践へと移行する。

This report prepared by the Montreal AI Ethics Institute provides recommendations in response to the National Security Commission on Artificial Intelligence (NSCAI) Key Considerations for Responsible Development and Fielding of Artificial Intelligence document. The report centres on the idea that Responsible AI should be made the Norm rather than an Exception. It does so by utilizing the guiding principles of: (1) alleviating friction in existing workflows, (2) empowering stakeholders to get buy-in, and (3) conducting an effective translation of abstract standards into actionable engineering practices. After providing some overarching comments on the document from the NSCAI, the report dives into the primary contribution of an actionable framework to help operationalize the ideas presented in the document from the NSCAI. The framework consists of: (1) a learning, knowledge, and information exchange (LKIE), (2) the Three Ways of Responsible AI, (3) an empirically-driven risk-prioritization matrix, and (4) achieving the right level of complexity. All components reinforce each other to move from principles to practice in service of making Responsible AI the norm rather than the exception.
翻訳日:2021-02-02 22:29:10 公開日:2021-01-31
# (参考訳) 非線形進化PDEによる光学流の微細化

Nonlinear Evolutionary PDE-Based Refinement of Optical Flow ( http://arxiv.org/abs/2102.00487v1 )

ライセンス: CC BY 4.0
Hirak Doshi, N. Uday Kiran(参考訳) 本稿では, 変分法による非二次正則化を伴う光流れの精密化のための数学的枠組みを提案する。 このモデルが剛体と流体の運動推定にどのように適合するかを実証する。 進化的PDE手法を用いて,その問題を抽象IVPとして研究する。 制約の特定の選択については、拡張ラグランジアン手法を用いた非量子正規化による連続性モデルに近似することを示す。 その後、異なるデータセット上でアルゴリズムの結果を示す。

The goal of this paper is propose a mathematical framework for optical flow refinement with non-quadratic regularization using variational techniques. We demonstrate how the model can be suitably adapted for both rigid and fluid motion estimation. We study the problem as an abstract IVP using an evolutionary PDE approach. We show that for a particular choice of constraint our model approximates the continuity model with non-quadratic regularization using augmented Lagrangian techniques. We subsequently show the results of our algorithm on different datasets.
翻訳日:2021-02-02 20:38:34 公開日:2021-01-31
# (参考訳) 知覚的特徴的忠実性喪失を伴う非知覚的クエリ限定逆攻撃に向けて

Towards Imperceptible Query-limited Adversarial Attacks with Perceptual Feature Fidelity Loss ( http://arxiv.org/abs/2102.00449v1 )

ライセンス: CC BY 4.0
Pengrui Quan, Ruiming Guo, Mani Srivastava(参考訳) 近年,特に画像の深層学習に基づく分類器を,視覚的に視覚的に類似した逆入力によって騙す取り組みが盛んに行われている。 しかしながら、研究者は通常Lp-ノルムの最小化を非受容性のプロキシとして使用し、現実世界の画像の多様性と豊かさと人間の視覚知覚を過度に単純化する。 本研究では,低レベルの画像特徴の忠実度と人間の視覚感度との密接な関係を利用して,知覚的特徴の忠実度を損なう新しい知覚指標を提案する。 本手法は,様々な条件下で検証された画像の可視性をロバストに反映し,記述できることを示す。 さらに,この測定基準は高い柔軟性を有しており,ノイズ分布を導くため,既存の様々な最適化フレームワークに便利に統合できることを示す。 この指標は、非自明な摂動力のために知覚不能が達成し難い、限られたクエリを伴う難解なブラックボックス攻撃において特に有用である。

Recently, there has been a large amount of work towards fooling deep-learning-based classifiers, particularly for images, via adversarial inputs that are visually similar to the benign examples. However, researchers usually use Lp-norm minimization as a proxy for imperceptibility, which oversimplifies the diversity and richness of real-world images and human visual perception. In this work, we propose a novel perceptual metric utilizing the well-established connection between the low-level image feature fidelity and human visual sensitivity, where we call it Perceptual Feature Fidelity Loss. We show that our metric can robustly reflect and describe the imperceptibility of the generated adversarial images validated in various conditions. Moreover, we demonstrate that this metric is highly flexible, which can be conveniently integrated into different existing optimization frameworks to guide the noise distribution for better imperceptibility. The metric is particularly useful in the challenging black-box attack with limited queries, where the imperceptibility is hard to achieve due to the non-trivial perturbation power.
翻訳日:2021-02-02 18:27:25 公開日:2021-01-31
# (参考訳) 畳み込みニューラルネットワークに基づく深層学習モデルを用いたアンサンブル・トランスファー学習による骨折・正常肩骨X線画像の分類

Classification of Fracture and Normal Shoulder Bone X-Ray Images Using Ensemble and Transfer Learning With Deep Learning Models Based on Convolutional Neural Networks ( http://arxiv.org/abs/2102.00515v1 )

ライセンス: CC BY 4.0
Fatih Uysal, F{\i}rat Hardala\c{c}, Ozan Peker, Tolga Tolunay and Nil Tokg\"oz(参考訳) 様々な理由で肩骨折が起こり、身体の他の関節よりも広く、より多様な動きの領域が生じる。 まず、X線(Xradiation)、磁気共鳴イメージング(MRI)、CT(Computerd Tomography)デバイスを介して肩にデジタルイメージングと医療(DICOM)形式のコミュニケーションの画像を生成し、そのような骨折を診断および治療します。 肩関節X線画像は, 畳み込みニューラルネットワーク(CNN)に基づく深層学習モデルを用いて, 転帰学習とアンサンブル学習を用いて, 医師が肩関節骨折の診断と治療を行えるように分類し, 比較した。 列車用データセットには、8379, 4211 正常(負、非骨折)、4168 異常(正、骨折) 3 チャンネル肩骨x線画像と、563, 285 正常、および 278 異常 3 チャンネル肩骨x線画像と png 形式の異常 3 チャンネル肩骨x線画像があり、最大の公共放射線画像データセットである musculoskeletal radiographs (mura) の全ての肩画像を用いて、分類と試験を行う。 CNNベースのディープラーニングモデルには、ResNet、ResNeXt、DenseNet、VGG、Inception、MobileNetがある。 また,全モデルの脊髄完全連結(spinal fc)適応による分類も行った。 これらすべての分類手順に転送学習が適用された。 ここで得られた分類結果に基づいて,2つの異なるアンサンブル学習(EL)モデルが確立された。 EL2モデルではコーエンス・カッパ最高点0.6942、分類精度84.72%、EL1ではAUC最高点0.8862を達成した。

Various reasons cause shoulder fractures to occur, an area with wider and more varied range of movement than other joints in body. Firstly, images in digital imaging and communications in medicine (DICOM) format are generated for shoulder via Xradiation (Xray), magnetic resonance imaging (MRI) or computed tomography (CT) devices to diagnose and treat such fractures. Shoulder bone Xray images were classified and compared via deep learning models based on convolutional neural network (CNN) using transfer learning and ensemble learning in this study to help physicians diagnose and apply required treatment for shoulder fractures. There are a total of 8379, 4211 normal (negative, nonfracture) and 4168 abnormal (positive, fracture) 3 channel shoulder bone Xray images with png format for train data set, and a total of 563, 285 normal and 278 abnormal 3 channel shoulder bone Xray images with png format for validation and test data in classification conducted using all shoulder images in musculoskeletal radiographs (MURA) dataset, one of the largest public radiographic image datasets. CNN based built deep learning models herein are; ResNet, ResNeXt, DenseNet, VGG, Inception and MobileNet. Moreover, a classification was also performed by Spinal fully connected (Spinal FC) adaptations of all models. Transfer learning was applied for all these classification procedures. Two different ensemble learning (EL) models were established based on performance of classification results obtained herein. The highest Cohens Kappa score of 0.6942 and highest classification test accuracy of 84.72% were achieved in EL2 model, and the highest AUC score of 0.8862 in EL1.
翻訳日:2021-02-02 18:14:02 公開日:2021-01-31
# 教師なし言語非依存エンティティ曖昧化法とその英語・ペルシア語に対する評価

An Unsupervised Language-Independent Entity Disambiguation Method and its Evaluation on the English and Persian Languages ( http://arxiv.org/abs/2102.00395v1 )

ライセンス: Link先を確認
Majid Asgari-Bidhendi, Behrooz Janfada, Amir Havangi, Sayyed Ali Hossayni, Behrouz Minaei-Bidgoli(参考訳) エンティティリンクは、情報抽出と自然言語理解の重要なタスクの1つです。 エンティティリンクは主に、名前付きエンティティの認識と曖昧さの2つのタスクから構成される。 ほとんどの研究は、これらの2つのタスクを別々に扱うか、どちらか一方に集中する。 さらに、最先端エンティティリンクアルゴリズムのほとんどは教師付きであり、アノテーション付きコーパスや言語に依存しない性能は低いが、多言語アプリケーションには適さない。 本稿では、名前付きエンティティの曖昧化とリンクのための新しいアプローチである、Unsupervised Language-Independent Entity Disambiguation (ULIED)を紹介する。 データセットをリンクする異なる英語のエンティティ上でのULIEDの評価と利用可能な唯一のペルシャデータセットは、ほとんどの場合、ULIEDが最先端の教師なし多言語アプローチを上回っていることを示しています。

Entity Linking is one of the essential tasks of information extraction and natural language understanding. Entity linking mainly consists of two tasks: recognition and disambiguation of named entities. Most studies address these two tasks separately or focus only on one of them. Moreover, most of the state-of-the -art entity linking algorithms are either supervised, which have poor performance in the absence of annotated corpora or language-dependent, which are not appropriate for multi-lingual applications. In this paper, we introduce an Unsupervised Language-Independent Entity Disambiguation (ULIED), which utilizes a novel approach to disambiguate and link named entities. Evaluation of ULIED on different English entity linking datasets as well as the only available Persian dataset illustrates that ULIED in most of the cases outperforms the state-of-the-art unsupervised multi-lingual approaches.
翻訳日:2021-02-02 17:03:20 公開日:2021-01-31
# プロテイン配列に対する逆対比前訓練

Adversarial Contrastive Pre-training for Protein Sequences ( http://arxiv.org/abs/2102.00466v1 )

ライセンス: Link先を確認
Matthew B. A. McDermott, Brendan Yap, Harry Hsu, Di Jin, Peter Szolovits(参考訳) 自然言語処理(NLP)の最近の進歩は、大規模で自己管理型事前学習が下流タスクに極めて有益であることを示している。 これらのアイデアはタンパク質のアミノ酸配列の解析を含む他の領域に適応している。 しかし、現在までタンパク質配列に関するほとんどの試みは、直接マスクされた言語モデルスタイルの事前トレーニングに依存している。 本研究は,NLPの類似した進歩を拡張・特化して,新しいタンパク質の対向的事前学習法を設計する。 従来のMLMプリトレーニングと比較して魅力的な結果を示していますが、大幅な計算コストの価値を確保するためにさらなる開発が必要です。

Recent developments in Natural Language Processing (NLP) demonstrate that large-scale, self-supervised pre-training can be extremely beneficial for downstream tasks. These ideas have been adapted to other domains, including the analysis of the amino acid sequences of proteins. However, to date most attempts on protein sequences rely on direct masked language model style pre-training. In this work, we design a new, adversarial pre-training method for proteins, extending and specializing similar advances in NLP. We show compelling results in comparison to traditional MLM pre-training, though further development is needed to ensure the gains are worth the significant computational cost.
翻訳日:2021-02-02 17:02:47 公開日:2021-01-31
# マルチモーダル変圧器におけるデータ・注意・損失の役割の分離

Decoupling the Role of Data, Attention, and Losses in Multimodal Transformers ( http://arxiv.org/abs/2102.00529v1 )

ライセンス: Link先を確認
Lisa Anne Hendricks, John Mellor, Rosalia Schneider, Jean-Baptiste Alayrac, Aida Nematzadeh(参考訳) 最近のマルチモーダルトランスフォーマーモデルは、言語と視覚タスクのパフォーマンスが、リッチな視覚言語表現を学ぶことを示唆しているため、人気を集めている。 ゼロショット画像検索タスクに着目し,事前学習データ,注意機構,損失関数といった学習表現の質に影響を与える3つの重要な要因について検討した。 6つのデータセットでモデルを事前トレーニングすることで、データ集合のノイズとダウンストリームタスクとの言語類似性が、モデルパフォーマンスの重要な指標であることを観察する。 アーキテクチャ解析により,マルチモーダル・アテンション機構を持つモデルが,モダリティ特有のアテンション機構を持つ深いモデルよりも優れていることを知る。 最後に, 自己指導型学習文献におけるコントラスト損失は, マルチモーダルトランスにおいて同様の性能向上をもたらさないことを示した。

Recently multimodal transformer models have gained popularity because their performance on language and vision tasks suggest they learn rich visual-linguistic representations. Focusing on zero-shot image retrieval tasks, we study three important factors which can impact the quality of learned representations: pretraining data, the attention mechanism, and loss functions. By pretraining models on six datasets, we observe that dataset noise and language similarity to our downstream task are important indicators of model performance. Through architectural analysis, we learn that models with a multimodal attention mechanism can outperform deeper models with modality specific attention mechanisms. Finally, we show that successful contrastive losses used in the self-supervised learning literature do not yield similar performance gains when used in multimodal transformers
翻訳日:2021-02-02 16:59:37 公開日:2021-01-31
# M2FN:マルチステップモダリティ融合による画像評価

M2FN: Multi-step Modality Fusion for Advertisement Image Assessment ( http://arxiv.org/abs/2102.00441v1 )

ライセンス: Link先を確認
Kyung-Wha Park (1), Jung-Woo Ha (2), JungHoon Lee (3), Sunyoung Kwon (4), Kyung-Min Kim (2), Byoung-Tak Zhang (1 and 5 and 6) ((1) Interdisciplinary Program in Neuroscience, Seoul National University., (2) NAVER AI LAB, NAVER CLOVA., (3) Statistics and Actuarial Science, Soongsil University., (4) School of Biomedical Convergence Engineering, Pusan National University., (5) Department of Computer Science and Engineering, Seoul National University., (6) Surromind Robotics.)(参考訳) 特にユーザーの嗜好と広告品質に基づいて広告を評価することは、マーケティング業界にとって重要です。 近年の研究では、ディープニューラルネットワークの利用を試みているが、これらの研究では画像関連補助属性(ad画像に頻繁に見られる埋め込みテキストを含む)は使用されていない。 そこで,これらの属性が広告イメージの嗜好に与える影響を検討した。 まず, 大規模実世界の広告ログデータを分析し, 本研究に基づいて, ユーザの好みにアピールしそうな広告画像を決定する新しいマルチステップモダリティ融合ネットワーク (m2fn) を提案する。 本手法は,条件付きバッチ正規化に基づく低レベル融合と注意に基づく高レベル融合を含む,ネットワーク内の複数のステップを通じて補助属性を利用する。 M2FNは、美的画像評価に広く使用されているAVAデータセット上で検証し、豊富な補助属性を持つ実世界の広告データセットを用いて、嗜好予測における最先端のパフォーマンスを達成できることを実証しました。

Assessing advertisements, specifically on the basis of user preferences and ad quality, is crucial to the marketing industry. Although recent studies have attempted to use deep neural networks for this purpose, these studies have not utilized image-related auxiliary attributes, which include embedded text frequently found in ad images. We, therefore, investigated the influence of these attributes on ad image preferences. First, we analyzed large-scale real-world ad log data and, based on our findings, proposed a novel multi-step modality fusion network (M2FN) that determines advertising images likely to appeal to user preferences. Our method utilizes auxiliary attributes through multiple steps in the network, which include conditional batch normalization-based low-level fusion and attention-based high-level fusion. We verified M2FN on the AVA dataset, which is widely used for aesthetic image assessment, and then demonstrated that M2FN can achieve state-of-the-art performance in preference prediction using a real-world ad dataset with rich auxiliary attributes.
翻訳日:2021-02-02 16:59:03 公開日:2021-01-31
# サイクリングネット:深層学習による複雑な都市シーンにおける映像ストリームからの近距離サイクリング検出

CyclingNet: Detecting cycling near misses from video streams in complex urban scenes with deep learning ( http://arxiv.org/abs/2102.00565v1 )

ライセンス: Link先を確認
Mohamed R. Ibrahim, James Haworth, Nicola Christie and Tao Cheng(参考訳) サイクリングは、都市での通勤やレジャーにとって有望な持続可能なモードであるが、衝突や転倒の恐れは、通勤モードとして幅広い拡大を減少させる。 本論文では,自転車に搭載されたフロントカメラが生成する映像ストリームから,カメラの位置,構築状況,視覚的条件,走行動作の制限などに関係なく,走行距離付近のサイクリングを検出する新しい手法であるCyclingNetについて紹介する。 CyclingNet(サイクリングネット)は、シーンの連続的な画像とその光学的流れの両方から近接ミスを理解することを目的とした自己注目の双方向長期メモリ(LSTM)ブロックが埋め込まれた畳み込み構造に基づく深層コンピュータビジョンモデルです。 モデルは安全な乗り物と近いミスの両方のシーンで訓練されています。 単一のGPU上で42時間のトレーニングを行った後、モデルはトレーニング、テスト、検証セットで高い精度を示します。 このモデルは、都市計画者や政策立案者がインフラの設計や政策策定の際の安全対策の必要性をよりよく理解できるように、都市などのサイクリング行動に関する重要な結論を導き出す情報を生成するために使用される。 将来の作業では、モデルは、道路利用者、構築された環境および自然環境の相互作用に関連する要因に基づいて、近接ミスの因果関係を理解するために、他の最先端の分類器およびオブジェクト検出器と同時にパイプライン化することができる。

Cycling is a promising sustainable mode for commuting and leisure in cities, however, the fear of getting hit or fall reduces its wide expansion as a commuting mode. In this paper, we introduce a novel method called CyclingNet for detecting cycling near misses from video streams generated by a mounted frontal camera on a bike regardless of the camera position, the conditions of the built, the visual conditions and without any restrictions on the riding behaviour. CyclingNet is a deep computer vision model based on convolutional structure embedded with self-attention bidirectional long-short term memory (LSTM) blocks that aim to understand near misses from both sequential images of scenes and their optical flows. The model is trained on scenes of both safe rides and near misses. After 42 hours of training on a single GPU, the model shows high accuracy on the training, testing and validation sets. The model is intended to be used for generating information that can draw significant conclusions regarding cycling behaviour in cities and elsewhere, which could help planners and policy-makers to better understand the requirement of safety measures when designing infrastructure or drawing policies. As for future work, the model can be pipelined with other state-of-the-art classifiers and object detectors simultaneously to understand the causality of near misses based on factors related to interactions of road-users, the built and the natural environments.
翻訳日:2021-02-02 16:58:24 公開日:2021-01-31
# 視覚投射ゲームで学習した神経表現の一般化力に関する実証的研究

An Empirical Study on the Generalization Power of Neural Representations Learned via Visual Guessing Games ( http://arxiv.org/abs/2102.00424v1 )

ライセンス: Link先を確認
Alessandro Suglia, Yonatan Bisk, Ioannis Konstas, Antonio Vergari, Emanuele Bastianelli, Andrea Vanzo, Oliver Lemon(参考訳) 推論ゲームは「相互作用による学習」パラダイムの原型的例である。 本研究では,視覚的質問応答 (VQA) のような新しい NLP 下流タスクの実行を後から求めた場合,人工エージェントが推測ゲームを行うことのメリットについて検討する。 1) エージェントが成功した推測ゲームを模倣することを学ぶ教師付き学習シナリオと2) エージェントが単独でプレイする新しい方法、すなわち反復体験学習(SPIEL)という2つの方法を提案する。 ドメイン内の評価は、評価スイートCompGuessWhatの競合他社と比較して、精度の向上(+7.79)を示しています。 転送評価は、SPIELで学習したよりきめ細かいオブジェクト表現のおかげで、TDIUCデータセット上のVQAの性能を高調波平均精度(+5.31)で向上させる。

Guessing games are a prototypical instance of the "learning by interacting" paradigm. This work investigates how well an artificial agent can benefit from playing guessing games when later asked to perform on novel NLP downstream tasks such as Visual Question Answering (VQA). We propose two ways to exploit playing guessing games: 1) a supervised learning scenario in which the agent learns to mimic successful guessing games and 2) a novel way for an agent to play by itself, called Self-play via Iterated Experience Learning (SPIEL). We evaluate the ability of both procedures to generalize: an in-domain evaluation shows an increased accuracy (+7.79) compared with competitors on the evaluation suite CompGuessWhat?!; a transfer evaluation shows improved performance for VQA on the TDIUC dataset in terms of harmonic average accuracy (+5.31) thanks to more fine-grained object representations learned via SPIEL.
翻訳日:2021-02-02 16:56:58 公開日:2021-01-31
# オフライン強化学習における後悔の速さ

Fast Rates for the Regret of Offline Reinforcement Learning ( http://arxiv.org/abs/2102.00479v1 )

ライセンス: Link先を確認
Yichun Hu, Nathan Kallus, Masatoshi Uehara(参考訳) 無限水平割引マルコフ決定プロセス(MDP)における固定行動政策によって生成されたオフラインデータからの強化学習の後悔について研究する。 適合した$Q$-イテレーション(FQI)のような一般的なアプローチの既存の分析は、後悔のために$O(1/\sqrt{n})$収束を示唆するが、経験的行動ははるかに速い収束を示す。 本稿では,後悔の収束速度を速くすることで,この現象を正確に特徴づける,より細かい後悔の分析を行う。 まず、最適品質関数 $Q^*$ の任意の推定値を考えると、それが定義するポリシーの後悔は、$Q^*$-推定値の点収束率の指数付けによって与えられた速度で収束し、それによってそれを高速化する。 指数のレベルは、推定問題ではなく、意思決定問題における雑音のレベルに依存する。 線形および表式MDPのノイズレベルを例に挙げます。 第二に、FQIとベルマン残差最小化の新しい分析を行い、正しい点収束保証を確立する。 具体例では, 線形症例では$O(1/n)=後悔率, 表例では$\exp(-\Omega(n))$後悔率は$O(1/n)。

We study the regret of reinforcement learning from offline data generated by a fixed behavior policy in an infinite-horizon discounted Markov decision process (MDP). While existing analyses of common approaches, such as fitted $Q$-iteration (FQI), suggest a $O(1/\sqrt{n})$ convergence for regret, empirical behavior exhibits much faster convergence. In this paper, we present a finer regret analysis that exactly characterizes this phenomenon by providing fast rates for the regret convergence. First, we show that given any estimate for the optimal quality function $Q^*$, the regret of the policy it defines converges at a rate given by the exponentiation of the $Q^*$-estimate's pointwise convergence rate, thus speeding it up. The level of exponentiation depends on the level of noise in the decision-making problem, rather than the estimation problem. We establish such noise levels for linear and tabular MDPs as examples. Second, we provide new analyses of FQI and Bellman residual minimization to establish the correct pointwise convergence guarantees. As specific cases, our results imply $O(1/n)$ regret rates in linear cases and $\exp(-\Omega(n))$ regret rates in tabular cases.
翻訳日:2021-02-02 16:55:43 公開日:2021-01-31
# 時間的ドロップアウトによる微調整手書き認識システム

Fine-tuning Handwriting Recognition systems with Temporal Dropout ( http://arxiv.org/abs/2102.00511v1 )

ライセンス: Link先を確認
Edgard Chammas, Chafic Mokbel(参考訳) 本論文では,Recurrent Neural Networks(RNN)に基づく手書き認識システムの微調整手法を提案する。 LSTM(Long Short-Term Memory)ネットワークは長いシーケンスのモデリングに長けているが、時間とともに過度に適合する傾向がある。 シーケンスをモデル化するシステムの能力を向上させるために,シーケンス内のランダムな位置の情報をドロップする手法を提案する。 われわれのアプローチをTD(Temporal Dropout)と呼ぶ。 内部ネットワーク表現にも画像レベルでTDを適用します。 TDは2つの異なるデータセットで結果を改善する。 提案手法は,従来のロドリゴデータセットよりも優れていた。

This paper introduces a novel method to fine-tune handwriting recognition systems based on Recurrent Neural Networks (RNN). Long Short-Term Memory (LSTM) networks are good at modeling long sequences but they tend to overfit over time. To improve the system's ability to model sequences, we propose to drop information at random positions in the sequence. We call our approach Temporal Dropout (TD). We apply TD at the image level as well to internal network representation. We show that TD improves the results on two different datasets. Our method outperforms previous state-of-the-art on Rodrigo dataset.
翻訳日:2021-02-02 16:54:16 公開日:2021-01-31
# 生成型および識別型Deep Belief Network Classifiers: Approximate Computing Framework による比較

Generative and Discriminative Deep Belief Network Classifiers: Comparisons Under an Approximate Computing Framework ( http://arxiv.org/abs/2102.00534v1 )

ライセンス: Link先を確認
Siqiao Ruan, Ian Colbert, Ken Kreutz-Delgado, and Srinjoy Das(参考訳) 組み込みアプリケーションにおけるDeep Learningハードウェアアルゴリズムの使用は、デバイス電力消費の制約、ラベル付きデータの可用性、クラウドサーバー上で頻繁なトレーニングを行うためのインターネット帯域幅の制限といった課題によって特徴づけられる。 低消費電力実装を実現するため,組込みデバイス分類タスクの識別的ディープ信念ネットワーク(DDBN)と呼ばれるディープラーニングアルゴリズムのクラスに対して,効率的なビット幅削減とプルーニングを検討する。 DDBNを近似計算フレームワークで生成的および識別的目的の両方で訓練し、教師付きおよび半教師付きアプリケーションのパワー・アット・パフォーマンスを解析する。 また,推論データが同一のクラス構造を持つが,動的リアルタイム動作環境によるトレーニングデータと統計的に異なる場合,DDBNの分布外性能についても検討する。 筆者らは,本分析に基づいて,組込みハードウェアプラットフォーム上での最小消費電力でDDBN推論を行うためのラベル付きデータの量に対して,トレーニング対象,ビット幅値,精度感受性の選択に関する新たな知見と勧告を提供する。

The use of Deep Learning hardware algorithms for embedded applications is characterized by challenges such as constraints on device power consumption, availability of labeled data, and limited internet bandwidth for frequent training on cloud servers. To enable low power implementations, we consider efficient bitwidth reduction and pruning for the class of Deep Learning algorithms known as Discriminative Deep Belief Networks (DDBNs) for embedded-device classification tasks. We train DDBNs with both generative and discriminative objectives under an approximate computing framework and analyze their power-at-performance for supervised and semi-supervised applications. We also investigate the out-of-distribution performance of DDBNs when the inference data has the same class structure yet is statistically different from the training data owing to dynamic real-time operating environments. Based on our analysis, we provide novel insights and recommendations for choice of training objectives, bitwidth values, and accuracy sensitivity with respect to the amount of labeled data for implementing DDBN inference with minimum power consumption on embedded hardware platforms subject to accuracy tolerances.
翻訳日:2021-02-02 16:53:48 公開日:2021-01-31
# ディープラーニングにおけるスパーシティ:ニューラルネットワークの効率的な推論とトレーニングのための刈り込みと成長

Sparsity in Deep Learning: Pruning and growth for efficient inference and training in neural networks ( http://arxiv.org/abs/2102.00554v1 )

ライセンス: Link先を確認
Torsten Hoefler, Dan Alistarh, Tal Ben-Nun, Nikoli Dryden, Alexandra Peste(参考訳) ディープラーニングのエネルギとパフォーマンスのコストの増大は、選択的にコンポーネントを刈り取ることによって、ニューラルネットワークのサイズを削減した。 生物学的なネットワークと同様に、スパースネットワークはオリジナルの高密度ネットワークと同等に一般化する。 sparsityは、モバイルデバイスに適合する通常のネットワークのメモリフットプリントを削減し、成長を続けるネットワークのトレーニング時間を短縮できる。 本稿では,ディープラーニングにおけるスパーシリティに関する先行研究を調査し,推論とトレーニングの両方においてスパーシフィケーションの広範なチュートリアルを提供する。 ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。 われわれの研究は300以上の研究論文からアイデアを抽出し、現在空き地を利用したい実践者や、フロンティアを前進させることを目標とする研究者にガイダンスを提供する。 本稿では,スパーシフィケーションにおける数学的手法の背景,早期構造適応,疎度とトレーニングプロセスの複雑な関係などの現象を記述し,実際のハードウェア上で加速を達成するための技術を示す。 また、異なるスパースネットワークの比較のベースラインとして機能するprunedパラメータ効率のメトリックを定義します。 sparsityが将来のワークロードをどのように改善できるかを推測し、この分野の主要なオープン問題を概説することで締めくくった。

The growing energy and performance costs of deep learning have driven the community to reduce the size of neural networks by selectively pruning components. Similarly to their biological counterparts, sparse networks generalize just as well, if not better than, the original dense networks. Sparsity can reduce the memory footprint of regular networks to fit mobile devices, as well as shorten training time for ever growing networks. In this paper, we survey prior work on sparsity in deep learning and provide an extensive tutorial of sparsification for both inference and training. We describe approaches to remove and add elements of neural networks, different training strategies to achieve model sparsity, and mechanisms to exploit sparsity in practice. Our work distills ideas from more than 300 research papers and provides guidance to practitioners who wish to utilize sparsity today, as well as to researchers whose goal is to push the frontier forward. We include the necessary background on mathematical methods in sparsification, describe phenomena such as early structure adaptation, the intricate relations between sparsity and the training process, and show techniques for achieving acceleration on real hardware. We also define a metric of pruned parameter efficiency that could serve as a baseline for comparison of different sparse networks. We close by speculating on how sparsity can improve future workloads and outline major open problems in the field.
翻訳日:2021-02-02 16:51:05 公開日:2021-01-31
# テキスト要約のためのコンテキスト付き書き換え

Contextualized Rewriting for Text Summarization ( http://arxiv.org/abs/2102.00385v1 )

ライセンス: Link先を確認
Guangsheng Bao and Yue Zhang(参考訳) 抽出的要約は、非関連性、冗長性、および非整合性に苦しむ。 既存の研究によると、抽出要約のための抽象的な書き換えは簡潔さと可読性を向上させることができる。 これらの書き直しシステムは、抽出された要約を、比較的焦点を絞ったが重要な背景知識を失う唯一の入力とみなしている。 本稿では,原文書全体を包含する文脈的書き換えについて検討する。 グループアライメントによる seq2seq 問題として文脈的書き換えを形式化し、グループタグをアライメントをモデル化するソリューションとして導入し、コンテンツベースのアドレッシングによって抽出された要約を特定します。 その結果,本手法は強化学習を必要とせず,非文脈的書き直しシステムを大きく上回り,複数抽出要約によるルージュスコアの大幅な改善を実現した。

Extractive summarization suffers from irrelevance, redundancy and incoherence. Existing work shows that abstractive rewriting for extractive summaries can improve the conciseness and readability. These rewriting systems consider extracted summaries as the only input, which is relatively focused but can lose important background knowledge. In this paper, we investigate contextualized rewriting, which ingests the entire original document. We formalize contextualized rewriting as a seq2seq problem with group alignments, introducing group tag as a solution to model the alignments, identifying extracted summaries through content-based addressing. Results show that our approach significantly outperforms non-contextualized rewriting systems without requiring reinforcement learning, achieving strong improvements on ROUGE scores upon multiple extractive summarizers.
翻訳日:2021-02-02 16:50:21 公開日:2021-01-31
# 特許データから抽出した技術ラベルに基づく新しい単語埋め込み手法の導入

Introduction of a novel word embedding approach based on technology labels extracted from patent data ( http://arxiv.org/abs/2102.00425v1 )

ライセンス: Link先を確認
Mark Standke, Abdullah Kiwan, Annalena Lange, Dr. Silvan Berg(参考訳) 特許言語の多様性が高まり、特許検索を行うための同義語を見つけることはますます困難になっている。 それに加えて、多様な特許言語を扱うためのほとんどのアプローチは、手動検索と人間の直感に基づいている。 本稿では,人間のラベル付きデータの統計的解析を用いて,技術用語に対して正確かつ言語に依存しない単語ベクトルを生成する単語埋め込み手法を提案する。 本稿では,統計解析の背後にある概念の説明に注目し,最初の定性的結果を示す。 このアルゴリズムは以前のEQMania UG(eqmania.com)の開発であり、2021年4月までeqalice.comでテストできる。

Diversity in patent language is growing and makes finding synonyms for conducting patent searches more and more challenging. In addition to that, most approaches for dealing with diverse patent language are based on manual search and human intuition. In this paper, a word embedding approach using statistical analysis of human labeled data to produce accurate and language independent word vectors for technical terms is introduced. This paper focuses on the explanation of the idea behind the statistical analysis and shows first qualitative results. The resulting algorithm is a development of the former EQMania UG (eqmania.com) and can be tested under eqalice.com until April 2021.
翻訳日:2021-02-02 16:49:47 公開日:2021-01-31
# OAS-Net: Occlusion Aware Sampling Network for Accurate Optical Flow

OAS-Net: Occlusion Aware Sampling Network for Accurate Optical Flow ( http://arxiv.org/abs/2102.00364v1 )

ライセンス: Link先を確認
Lingtong Kong, Xiaohang Yang, Jie Yang(参考訳) 光フロー推定は多くの現実世界のコンピュータビジョンタスクにとって必須のステップである。 既存の深層ネットワークは、主にピラミッドの粗い粒度パラダイムを用いて、従来の流れ予測に基づいて歪んだターゲット特徴を採用することが重要なプロセスであり、3Dマッチングコストボリュームを構築するためのソース特徴と相関する。 しかし、ワーピング操作は、曖昧さをもたらす厄介なゴースト問題を引き起こす可能性がある。 さらに, 閉塞領域は既存のほとんどの作品において非閉塞領域と等しく扱われ, 性能劣化を引き起こす可能性がある。 これらの課題に対処するため,我々はOAS-Net (occlusion aware sample network) という軽量で効率的な光フローネットワークを提案する。 まず,新しいサンプリングベース相関層を用い,ノイズを発生させることなく処理を行う。 第2に、新規な閉塞認識モジュールにより、閉塞領域に対する原価ボリュームを意識させる。 第3に、構造コンパクト性には共有フローとオクルージョン認識デコーダを採用する。 SintelおよびKITTIデータセットに関する実験は、提案されたアプローチの有効性を示す。

Optical flow estimation is an essential step for many real-world computer vision tasks. Existing deep networks have achieved satisfactory results by mostly employing a pyramidal coarse-to-fine paradigm, where a key process is to adopt warped target feature based on previous flow prediction to correlate with source feature for building 3D matching cost volume. However, the warping operation can lead to troublesome ghosting problem that results in ambiguity. Moreover, occluded areas are treated equally with non occluded regions in most existing works, which may cause performance degradation. To deal with these challenges, we propose a lightweight yet efficient optical flow network, named OAS-Net (occlusion aware sampling network) for accurate optical flow. First, a new sampling based correlation layer is employed without noisy warping operation. Second, a novel occlusion aware module is presented to make raw cost volume conscious of occluded regions. Third, a shared flow and occlusion awareness decoder is adopted for structure compactness. Experiments on Sintel and KITTI datasets demonstrate the effectiveness of proposed approaches.
翻訳日:2021-02-02 16:34:59 公開日:2021-01-31
# MLMA-Net:繊維欠陥画像におけるマルチラベル物体検出のためのマルチレベルマルチアテンショナル学習

MLMA-Net: multi-level multi-attentional learning for multi-label object detection in textile defect images ( http://arxiv.org/abs/2102.00376v1 )

ライセンス: Link先を確認
Bing Wei (Student Member, IEEE), Kuangrong Hao (Member, IEEE), Lei Gao (Member, IEEE)(参考訳) 繊維欠陥の認識・分類のために, 深層学習法が提案され, シングルラベル織物画像において顕著な成功を収めている。 しかし、複数の欠陥と小さな欠陥が共存しているため、織物画像における多重ラベル欠陥の検出は依然として困難である。 これらの課題を解決するために、マルチレベルのマルチアテンテーショナルディープラーニングネットワーク(MLMA-Net)が提案され、1)小型欠陥を検出する機能表現能力の向上、2)複数の欠陥に対する高分解能機能マップを活用する欠陥状態への出席能力を最大化する識別表現を生成する。 さらに,繊維欠陥画像における多ラベル物体検出データセット(DHU-ML1000)を構築し,提案モデルの性能を検証する。 その結果、ネットワークはより特徴的な特徴を抽出し、実世界の産業データセットに対する最先端のアプローチよりも優れたパフォーマンスを示す。

For the sake of recognizing and classifying textile defects, deep learning-based methods have been proposed and achieved remarkable success in single-label textile images. However, detecting multi-label defects in a textile image remains challenging due to the coexistence of multiple defects and small-size defects. To address these challenges, a multi-level, multi-attentional deep learning network (MLMA-Net) is proposed and built to 1) increase the feature representation ability to detect small-size defects; 2) generate a discriminative representation that maximizes the capability of attending the defect status, which leverages higher-resolution feature maps for multiple defects. Moreover, a multi-label object detection dataset (DHU-ML1000) in textile defect images is built to verify the performance of the proposed model. The results demonstrate that the network extracts more distinctive features and has better performance than the state-of-the-art approaches on the real-world industrial dataset.
翻訳日:2021-02-02 16:34:20 公開日:2021-01-31
# AACP:高精度・自動チャンネルプルーニングによるモデル圧縮

AACP: Model Compression by Accurate and Automatic Channel Pruning ( http://arxiv.org/abs/2102.00390v1 )

ライセンス: Link先を確認
Lanbo Lin, Yujiu Yang, Zhenhua Guo(参考訳) チャネル切断は最近、神経アーキテクチャ探索(NAS)問題として定式化されている。 しかし、既存のNASベースの手法は、膨大な計算コストとアプリケーションの柔軟性に悩まされている。 複数のスパーシティの制約を同時に処理し、NASベースのチャネル切断をスピードアップする方法はまだオープンな課題です。 本稿では,これらの問題に対処するために,AACP(Accurate and Automatic Channel Pruning)方式を提案する。 第一に、AACPはモデルの構造を構造ベクトルとして表現し、各層の圧縮粒度を制御するpruning step vectorを導入する。 第二に、AACPはPruned Structure Accuracy Estimator (PSAE) を用いて性能推定プロセスを高速化する。 第3に、AACPは最適な構造ベクトルを効率的に探索するための改良微分進化(IDE)アルゴリズムを提案する。 IDEにより、AACPはFLOPの制約とモデルサイズ制約を同時に効率的に扱うことができる。 本手法は,様々なタスクに容易に適用でき,技術性能の達成も可能である。 CIFAR10 では,ResNet110 の 65 %$ FLOP を削減し,0.26 %$ top-1 精度を向上した。 ImageNet では、ResNet50 の $2\%$ FLOP を $0.18\%$ top-1 の小さな損失で削減し、MobileNetV2 の $30\%$ FLOP を $0.7\%$ top-1 の小さな損失で削減します。 ソースコードは公開後に公開されます。

Channel pruning is formulated as a neural architecture search (NAS) problem recently. However, existing NAS-based methods are challenged by huge computational cost and inflexibility of applications. How to deal with multiple sparsity constraints simultaneously and speed up NAS-based channel pruning are still open challenges. In this paper, we propose a novel Accurate and Automatic Channel Pruning (AACP) method to address these problems. Firstly, AACP represents the structure of a model as a structure vector and introduces a pruning step vector to control the compressing granularity of each layer. Secondly, AACP utilizes Pruned Structure Accuracy Estimator (PSAE) to speed up the performance estimation process. Thirdly, AACP proposes Improved Differential Evolution (IDE) algorithm to search the optimal structure vector effectively. Because of IDE, AACP can deal with FLOPs constraint and model size constraint simultaneously and efficiently. Our method can be easily applied to various tasks and achieve state of the art performance. On CIFAR10, our method reduces $65\%$ FLOPs of ResNet110 with an improvement of $0.26\%$ top-1 accuracy. On ImageNet, we reduce $42\%$ FLOPs of ResNet50 with a small loss of $0.18\%$ top-1 accuracy and reduce $30\%$ FLOPs of MobileNetV2 with a small loss of $0.7\%$ top-1 accuracy. The source code will be released after publication.
翻訳日:2021-02-02 16:33:44 公開日:2021-01-31
# 良質な対応を見つけるための誘導損失とハイブリッド注意を用いたカスケードネットワーク

Cascade Network with Guided Loss and Hybrid Attention for Finding Good Correspondences ( http://arxiv.org/abs/2102.00411v1 )

ライセンス: Link先を確認
Zhi Chen, Fan Yang, Wenbing Tao(参考訳) 優れた対応を見つけることは、多くの機能ベースのタスクにおいて重要な前提条件です。 画像対の対応集合が与えられたとき、二分クラス分類器による正しい対応を見つけ、分類された対応によって相対的なポーズを推定するニューラルネットワークを提案する。 まず、正しい対応の数と間違った対応の数の不均衡のために、損失関数は分類結果に大きな影響を及ぼすことを分析します。 そこで本研究では,評価基準 (fn-measure) を直接使用し,訓練中の目標関数を動的に調整できる新しい誘導損失を提案する。 我々は、ガイド損失とFn測定の間の完璧な負の相関を理論的に証明し、ネットワークはそれを最大化するためにFn測定を増やす方向に向かって常に訓練されている。 次に,ベイズ注意コンテキスト正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリットアテンションブロックを提案する。 bacnは事前情報をマイニングして、グローバルコンテキストをより活用し、caは複雑なチャネルコンテキストをキャプチャして、ネットワークのチャネル意識を高めることができる。 最後に、ガイドされた損失とハイブリッドの注意ブロックに基づいて、カスケードネットワークは、より優れたパフォーマンスのために結果を徐々に最適化するように設計されています。 実験により,我々のネットワークは,ベンチマークデータセットの最先端性能を達成することが示された。 私たちのコードはhttps://github.com/wenbingtao/glhaで利用可能です。

Finding good correspondences is a critical prerequisite in many feature based tasks. Given a putative correspondence set of an image pair, we propose a neural network which finds correct correspondences by a binary-class classifier and estimates relative pose through classified correspondences. First, we analyze that due to the imbalance in the number of correct and wrong correspondences, the loss function has a great impact on the classification results. Thus, we propose a new Guided Loss that can directly use evaluation criterion (Fn-measure) as guidance to dynamically adjust the objective function during training. We theoretically prove that the perfect negative correlation between the Guided Loss and Fn-measure, so that the network is always trained towards the direction of increasing Fn-measure to maximize it. We then propose a hybrid attention block to extract feature, which integrates the Bayesian attentive context normalization (BACN) and channel-wise attention (CA). BACN can mine the prior information to better exploit global context and CA can capture complex channel context to enhance the channel awareness of the network. Finally, based on our Guided Loss and hybrid attention block, a cascade network is designed to gradually optimize the result for more superior performance. Experiments have shown that our network achieves the state-of-the-art performance on benchmark datasets. Our code will be available in https://github.com/wenbingtao/GLHA.
翻訳日:2021-02-02 16:33:00 公開日:2021-01-31
# PV-RCNN++: 3次元物体検出のための局所ベクトル表現による点-Voxel特徴集合の抽象化

PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector Representation for 3D Object Detection ( http://arxiv.org/abs/2102.00463v1 )

ライセンス: Link先を確認
Shaoshuai Shi, Li Jiang, Jiajun Deng, Zhe Wang, Chaoxu Guo, Jianping Shi, Xiaogang Wang, Hongsheng Li(参考訳) 3dオブジェクト検出は、さまざまな分野の幅広い応用により、業界とアカデミアの両方から注目を集めている。 本稿では,点雲から正確な3次元検出を行うために,ポイント・ボクセル領域に基づく畳み込みニューラルネットワーク(PV-RCNN)を提案する。 まず,Voxel-to-keypoint シーンエンコーディングとkeypoint-to-grid RoI 機能抽象化を用いた新しい3Dオブジェクト検出器 PV-RCNN-v1 を提案する。 この2つのステップは、3D voxel CNNとPointNetベースのセット抽象化を深く取り入れ、識別ポイントクラウド機能を学びます。 第2に,より効率的かつ正確な3D検出のための,より高度なフレームワークであるPV-RCNN-v2を提案する。 ひとつは,より代表的かつ一様に分散したキーポイントを効率的に生成するための,セクタライズドプロポーザル中心の戦略,もうひとつは,リソース消費量をはるかに少なくしたローカルポイントクラウド機能の集約性を向上するために,セット抽象化を置き換えるためのvectorpoolアグリゲーションである。 この2つの大きな変更により、当社のPV-RCNN-v2はv1バージョンの2倍以上の速度で動作し、150m×150mの大規模なWaymo Open Datasetでも性能が向上しています。 提案したPV-RCNNは、Waymo Open Datasetと高競争性KITTIベンチマークの両方において、従来の最先端3D検出方法よりも大幅に優れていた。

3D object detection is receiving increasing attention from both industry and academia thanks to its wide applications in various fields. In this paper, we propose the Point-Voxel Region based Convolution Neural Networks (PV-RCNNs) for accurate 3D detection from point clouds. First, we propose a novel 3D object detector, PV-RCNN-v1, which employs the voxel-to-keypoint scene encoding and keypoint-to-grid RoI feature abstraction two novel steps. These two steps deeply incorporate both 3D voxel CNN and PointNet-based set abstraction for learning discriminative point-cloud features. Second, we propose a more advanced framework, PV-RCNN-v2, for more efficient and accurate 3D detection. It consists of two major improvements, where the first one is the sectorized proposal-centric strategy for efficiently producing more representative and uniformly distributed keypoints, and the second one is the VectorPool aggregation to replace set abstraction for better aggregating local point-cloud features with much less resource consumption. With these two major modifications, our PV-RCNN-v2 runs more than twice as fast as the v1 version while still achieving better performance on the large-scale Waymo Open Dataset with 150m * 150m detection range. Extensive experiments demonstrate that our proposed PV-RCNNs significantly outperform previous state-of-the-art 3D detection methods on both the Waymo Open Dataset and the highly-competitive KITTI benchmark.
翻訳日:2021-02-02 16:32:18 公開日:2021-01-31
# 企業コールセンターとのインタラクションによる顧客満足度予測のためのグラフニューラルネットワーク

Graph Neural Networks to Predict Customer Satisfaction Following Interactions with a Corporate Call Center ( http://arxiv.org/abs/2102.00420v1 )

ライセンス: Link先を確認
Teja Kanchinadam, Zihang Meng, Joseph Bockhorst, Vikas Singh Kim, Glenn Fung(参考訳) 顧客満足は顧客との長期関係を作成し、維持する重要な要因です。 電話の後、不満足な顧客をほぼリアルタイムで特定することで、組織は有意義な介入を行い、継続的な顧客満足と忠誠心を育むことができる。 本研究は,米国大企業で開発した,着信後の顧客満足度を予測するシステムについて述べる。 このシステムは、電話の音声からテキストへの書き起こしを入力とし、電話後調査(スケール1から10)で顧客に報告された着信満足度を予測する。 その順序的、主観的、そしてしばしば非常に歪んだ性質のために、調査スコアの予測は自明なタスクではなく、いくつかのモデリングの課題を提示します。 本稿では,学習中のコールのペアのみではなく,バッチ間の相対スコアを考慮し,問題の相対的性質を考慮したグラフニューラルネットワーク(gnn)手法を提案する。 このアプローチは、調査スコアとコールデータを直接適合する標準回帰や分類モデルなど、以前のアプローチよりも正確な予測を生成する。 提案手法は他の顧客満足度予測問題に容易に一般化できる。

Customer satisfaction is an important factor in creating and maintaining long-term relationships with customers. Near real-time identification of potentially dissatisfied customers following phone calls can provide organizations the opportunity to take meaningful interventions and to foster ongoing customer satisfaction and loyalty. This work describes a fully operational system we have developed at a large US company for predicting customer satisfaction following incoming phone calls. The system takes as an input speech-to-text transcriptions of calls and predicts call satisfaction reported by customers on post-call surveys (scale from 1 to 10). Because of its ordinal, subjective, and often highly-skewed nature, predicting survey scores is not a trivial task and presents several modeling challenges. We introduce a graph neural network (GNN) approach that takes into account the comparative nature of the problem by considering the relative scores among batches, instead of only pairs of calls when training. This approach produces more accurate predictions than previous approaches including standard regression and classification models that directly fit the survey scores with call data. Our proposed approach can be easily generalized to other customer satisfaction prediction problems.
翻訳日:2021-02-02 16:22:53 公開日:2021-01-31
# 複数ドメインテキスト分類のための混合正規化逆数ネットワーク

Mixup Regularized Adversarial Networks for Multi-Domain Text Classification ( http://arxiv.org/abs/2102.00467v1 )

ライセンス: Link先を確認
Yuan Wu, Diana Inkpen, Ahmed El-Roby(参考訳) マルチドメインテキスト分類(MDTC)モデルの性能は,共有プライベートパラダイムと敵対的トレーニングによって大幅に向上した。 しかし、既存の方法には2つの問題がある。 まず、複数のドメインからのインスタンスはドメイン不変の特徴抽出には不十分である。 第二に、限界分布の整合は致命的なミスマッチにつながる可能性がある。 本稿では,これら2つの問題に対処するために,MRAN(Mixup regularized adversarial network)を提案する。 より具体的には、ドメインとカテゴリのミックスアップの正規化を導入し、共有潜在空間の本質的な特徴を豊かにし、学習された特徴をよりドメイン不変で識別可能なようにトレーニングインスタンス間の一貫性のある予測を強制する。 Amazon ReviewデータセットとFDU-MTLデータセットの2つのベンチマークで実験を行った。 この2つのデータセットのアプローチは、それぞれ87.64\%と89.0\%の平均精度をもたらし、関連するすべてのベースラインを上回っている。

Using the shared-private paradigm and adversarial training has significantly improved the performances of multi-domain text classification (MDTC) models. However, there are two issues for the existing methods. First, instances from the multiple domains are not sufficient for domain-invariant feature extraction. Second, aligning on the marginal distributions may lead to fatal mismatching. In this paper, we propose a mixup regularized adversarial network (MRAN) to address these two issues. More specifically, the domain and category mixup regularizations are introduced to enrich the intrinsic features in the shared latent space and enforce consistent predictions in-between training instances such that the learned features can be more domain-invariant and discriminative. We conduct experiments on two benchmarks: The Amazon review dataset and the FDU-MTL dataset. Our approach on these two datasets yields average accuracies of 87.64\% and 89.0\% respectively, outperforming all relevant baselines.
翻訳日:2021-02-02 16:22:15 公開日:2021-01-31
# ベイズネットワーク構造学習における知識とデータ間の情報融合

Information fusion between knowledge and data in Bayesian network structure learning ( http://arxiv.org/abs/2102.00473v1 )

ライセンス: Link先を確認
Anthony C. Constantinou, Zhigao Guo, Neville K. Kitson(参考訳) ベイズネットワーク(BN)は、特に介入の効果をシミュレートできる因果的仮定を必要とする分野において、不確実性の下で推論するための強力な技術となっている。 これらのモデルのグラフィカルな構造は、因果的知識、データから学ぶこと、あるいは両方の組み合わせによって決定できる。 因果グラフ構築における最良のアプローチは、知識と機械学習を組み合わせることであると思えるが、実際にはこのアプローチは過小評価されている。 本稿では,オープンソースの bayesys 構造学習システムで実装された情報融合手法について述べるとともに評価する。 この手法により、異種情報源から得られる既存の知識やルールに基づく情報を指定することができ、構造学習の制約や指導を行うことができる。 各メソッドは、グラフィカルな正確性、モデル適合性、複雑さ、ランタイムなど、構造学習の影響の観点から評価される。 ベイジーズで利用可能な3つのbn構造学習アルゴリズムに適用し、グラフィカル測度から得られる結果がモデルフィッティング測度から得られる結果と矛盾することが多い場合、その有効性に関する興味深い不一致を明らかにする。 総合的な結果から,学習精度の向上による情報融合手法のビッグデータ利用効率の低下が示唆されるが,情報融合手法によってはビッグデータの利用性が向上する。 最後に、主な結論として、知識制約から得られる検索空間の減少は、制約がデータが示すものと制約が強制しようとしているものとの間に緊張を設定した場合に起こり得る、計算の複雑さを減らすことを意味するものではないという観測がある。

Bayesian Networks (BNs) have become a powerful technology for reasoning under uncertainty, particularly in areas that require causal assumptions that enable us to simulate the effect of intervention. The graphical structure of these models can be determined by causal knowledge, learnt from data, or a combination of both. While it seems plausible that the best approach in constructing a causal graph involves combining knowledge with machine learning, this approach remains underused in practice. This paper describes and evaluates a set of information fusion methods that have been implemented in the open-source Bayesys structure learning system. The methods enable users to specify pre-existing knowledge and rule-based information that can be obtained from heterogeneous sources, to constrain or guide structure learning. Each method is assessed in terms of structure learning impact, including graphical accuracy, model fitting, complexity and runtime. The results are illustrated both with limited and big data, with application to three BN structure learning algorithms available in Bayesys, and reveal interesting inconsistencies about their effectiveness where the results obtained from graphical measures often contradict those obtained from model fitting measures. While the overall results show that information fusion methods become less effective with big data due to higher learning accuracy rendering knowledge less important, some information fusion methods do perform better with big data. Lastly, amongst the main conclusions is the observation that reduced search space obtained from knowledge constraints does not imply reduced computational complexity, which can happen when the constraints set up a tension between what the data indicate and what the constraints are trying to enforce.
翻訳日:2021-02-02 16:18:26 公開日:2021-01-31
# 部分順序付きシーケンスの分類モデル

Classification Models for Partially Ordered Sequences ( http://arxiv.org/abs/2102.00380v1 )

ライセンス: Link先を確認
Stephanie Ger, Diego Klabjan and Jean Utke(参考訳) シーケンス内のイベントが順序づけられると仮定して時系列データを分類するために、Long Short Term Memory (LSTM)、Gated Recurrent Units (GRU)、Transformerなどの多くのモデルが開発されている。 一方、順序が重要でないセットベースの入力のために、より少ないモデルが開発されている。 タイムスタンプの粒度や不確実性のため、データが部分的に順序付けされたシーケンスとして与えられるユースケースはいくつかある。 このような予測タスクのための新しいトランスフォーマーモデルと既存の順序不変モデルの拡張に対するベンチマークを紹介する。 また、シーケンス内のイベント間の遷移確率を用いてモデルの性能を向上させる方法について論じる。 トランスベースの等時間モデルが3つのデータセット上の既存の集合モデルの拡張を上回っていることを示した。

Many models such as Long Short Term Memory (LSTMs), Gated Recurrent Units (GRUs) and transformers have been developed to classify time series data with the assumption that events in a sequence are ordered. On the other hand, fewer models have been developed for set based inputs, where order does not matter. There are several use cases where data is given as partially-ordered sequences because of the granularity or uncertainty of time stamps. We introduce a novel transformer based model for such prediction tasks, and benchmark against extensions of existing order invariant models. We also discuss how transition probabilities between events in a sequence can be used to improve model performance. We show that the transformer-based equal-time model outperforms extensions of existing set models on three data sets.
翻訳日:2021-02-02 16:09:46 公開日:2021-01-31
# ANNのロスランドスケープにおける高次元軌道の可視化

Visualizing High-Dimensional Trajectories on the Loss-Landscape of ANNs ( http://arxiv.org/abs/2102.00485v1 )

ライセンス: Link先を確認
Stefan Horoi, Jessie Huang, Guy Wolf, Smita Krishnaswamy(参考訳) 人工ニューラルネットワークの訓練は、非凸損失関数の最適化を必要とする。 長年にわたって、科学コミュニティは、この最適化タスクを抽出可能なツールとアーキテクチャの広範なセットを開発し、モデルが目に見えないデータにうまく一般化するミニマに到達するのに役立つハイパーパラメータを選択するための一般的な直観が開発されてきた。 しかし、ほとんどの場合、アーキテクチャやタスク間のトレーニング容易性の違い、さらにはネットワークの一般化能力のギャップさえも、まだ説明がつかないままである。 可視化ツールは、ANNの損失ランドスケープの重要な幾何学的特徴と、それがトレーニング容易性と一般化能力に与える影響を明らかにする上で重要な役割を担っている。 しかし, これまでに提案されている可視化手法の多くは, 線形な性質を持ち, 限られた次元でしか特徴を捉えないため, 比較的限定的であった。 高次元データのグローバル構造とローカル構造の両方をキャプチャするという点で、SOTAを表す現代の次元還元法PHATEの使用を提案します。 この手法を用いて,トレーニング中の損失状況の可視化を行う。 今回の可視化では,最適化法,初期化法,アーキテクチャ,データセットの比較において,訓練軌跡と一般化能力の違いが明らかになった。 この成功を考えると、ニューラルネットワークのこれらの側面についての情報に基づいた選択にこの方法を使用することが予想される。

Training artificial neural networks requires the optimization of highly non-convex loss functions. Throughout the years, the scientific community has developed an extensive set of tools and architectures that render this optimization task tractable and a general intuition has been developed for choosing hyper parameters that help the models reach minima that generalize well to unseen data. However, for the most part, the difference in trainability in between architectures, tasks and even the gap in network generalization abilities still remain unexplained. Visualization tools have played a key role in uncovering key geometric characteristics of the loss-landscape of ANNs and how they impact trainability and generalization capabilities. However, most visualizations methods proposed so far have been relatively limited in their capabilities since they are of linear nature and only capture features in a limited number of dimensions. We propose the use of the modern dimensionality reduction method PHATE which represents the SOTA in terms of capturing both global and local structures of high-dimensional data. We apply this method to visualize the loss landscape during and after training. Our visualizations reveal differences in training trajectories and generalization capabilities when used to make comparisons between optimization methods, initializations, architectures, and datasets. Given this success we anticipate this method to be used in making informed choices about these aspects of neural networks.
翻訳日:2021-02-02 16:09:13 公開日:2021-01-31
# Aggregate Bandit Feedbackを用いたオンラインマルコフ決定プロセス

Online Markov Decision Processes with Aggregate Bandit Feedback ( http://arxiv.org/abs/2102.00490v1 )

ライセンス: Link先を確認
Alon Cohen, Haim Kaplan, Tomer Koren, Yishay Mansour(参考訳) 可逆的に変化する損失関数と当初未知のダイナミクスを持つオンライン有限ホリゾンマルコフ決定過程の新しい変種を研究する。 各エピソードにおいて、学習者は、エピソードの選択した方針によって実現された軌跡に沿って蓄積された損失を経験し、総括的盗聴フィードバックを観察する:この軌跡は、軌跡に沿って遭遇する個人的損失よりも、累積的損失とともに明らかにされる。 我々の主な結果は計算効率のよいアルゴリズムで、$O(\sqrt{K})$ regret for this set, where $K$ is the number of episodes。 この結果は,学習者が選択した動作がコミット前に逆向きに歪むような帯域線形最適化の変種であるDistted Linear Bandits (DLB) と呼ばれる新しい帯域線形学習環境に効率よく還元することで実現される。 次に、 DLB の計算効率の高いオンラインアルゴリズムを開発し、$O(\sqrt{T})$ 後悔境界を証明し、$T$ は時間ステップの数です。 我々のアルゴリズムは,新たな学習率のスケジュールを取り入れた自己一致障壁正規化によるオンラインミラー降下に基づく。

We study a novel variant of online finite-horizon Markov Decision Processes with adversarially changing loss functions and initially unknown dynamics. In each episode, the learner suffers the loss accumulated along the trajectory realized by the policy chosen for the episode, and observes aggregate bandit feedback: the trajectory is revealed along with the cumulative loss suffered, rather than the individual losses encountered along the trajectory. Our main result is a computationally efficient algorithm with $O(\sqrt{K})$ regret for this setting, where $K$ is the number of episodes. We establish this result via an efficient reduction to a novel bandit learning setting we call Distorted Linear Bandits (DLB), which is a variant of bandit linear optimization where actions chosen by the learner are adversarially distorted before they are committed. We then develop a computationally-efficient online algorithm for DLB for which we prove an $O(\sqrt{T})$ regret bound, where $T$ is the number of time steps. Our algorithm is based on online mirror descent with a self-concordant barrier regularization that employs a novel increasing learning rate schedule.
翻訳日:2021-02-02 16:08:31 公開日:2021-01-31
# Oracle Queries を用いた有限メートル空間におけるクラスタの厳密な回復

Exact Recovery of Clusters in Finite Metric Spaces Using Oracle Queries ( http://arxiv.org/abs/2102.00504v1 )

ライセンス: Link先を確認
Marco Bressan, Nicol\`o Cesa-Bianchi, Silvio Lattanzi, Andrea Paudice(参考訳) oracleクエリを用いて正確なクラスタリカバリの問題を調査する。 以前の結果は、円周で凸かつ分離されたユークリッド空間のクラスタは、$o(\log n)$の同クラスタクエリのみを使用して正確に再構築できることを示している。 本研究では,より困難な非凸環境においてこの問題を研究する。 我々は、計量(あるいは三角不等式を必要としないような半計量)を備えた任意の有限個の点の集合に適用可能な、$(\beta,\gamma)$-凸性と呼ばれるクラスターの構造的特徴付けを導入する。 $(\beta,\gamma)$-凸性を用いることで、(例えば、$R^d$で強く非凸なクラスタを含む)クラスタの自然な密度特性を凸性のグラフ理論の概念に変換することができる。 この凸性の概念を利用して、$O(k^2 \log n + k^2 (\frac{6}{\beta\gamma})^{dens(X)})$ same-cluster query(k$はクラスタ数、$dens(X)$はセミメトリックの密度次元)を用いて、$(\beta,\gamma)$-convexクラスタを復元する決定論的アルゴリズムを設計する。 密度次元への指数関数的依存が必要であることを示し、また、もし「クラスター分離」オラクルに$o(k^2 + k \log n)$の追加クエリを許可すれば、各クラスタのスケールが未知であっても、異なるスケールと任意のスケールのクラスタを復元できることを示した。

We investigate the problem of exact cluster recovery using oracle queries. Previous results show that clusters in Euclidean spaces that are convex and separated with a margin can be reconstructed exactly using only $O(\log n)$ same-cluster queries, where $n$ is the number of input points. In this work, we study this problem in the more challenging non-convex setting. We introduce a structural characterization of clusters, called $(\beta,\gamma)$-convexity, that can be applied to any finite set of points equipped with a metric (or even a semimetric, as the triangle inequality is not needed). Using $(\beta,\gamma)$-convexity, we can translate natural density properties of clusters (which include, for instance, clusters that are strongly non-convex in $R^d$) into a graph-theoretic notion of convexity. By exploiting this convexity notion, we design a deterministic algorithm that recovers $(\beta,\gamma)$-convex clusters using $O(k^2 \log n + k^2 (\frac{6}{\beta\gamma})^{dens(X)})$ same-cluster queries, where $k$ is the number of clusters and $dens(X)$ is the density dimension of the semimetric. We show that an exponential dependence on the density dimension is necessary, and we also show that, if we are allowed to make $O(k^2 + k \log n)$ additional queries to a "cluster separation" oracle, then we can recover clusters that have different and arbitrary scales, even when the scale of each cluster is unknown.
翻訳日:2021-02-02 16:07:51 公開日:2021-01-31
# 深い再構成されたラプラシアントーンマッピング

Deep Reformulated Laplacian Tone Mapping ( http://arxiv.org/abs/2102.00348v1 )

ライセンス: Link先を確認
Jie Yang, Ziyi Liu, Mengchen Lin, Svetlana Yanushkevich, Orly Yadid-Pecht(参考訳) 広ダイナミックレンジ(wdr)画像は、一般的な画像と比較してシーンの詳細とコントラストを多く含む。 しかし、適切に表示するためにピクセル値を処理するにはトーンマッピングが必要となる。 wdr画像の詳細はトーンマッピングの過程で減少する可能性がある。 本研究では,新しい改良ラプラシアピラミッドと深層学習を組み合わせることで,この問題に対処した。 再構成されたラプラシアピラミッドは、常にWDRイメージを2つの周波数帯に分解し、低周波バンドはグローバル特徴指向であり、高周波バンドはローカル特徴指向である。 この改革は、ローカルな特徴を元の解像度で保存し、グローバルな特徴を低解像度の画像に凝縮します。 生成された周波数帯域を再構築して微調整し、最小のディテールとコントラスト損失で画面に表示できる最終的なトーンマッピング画像を出力します。 実験の結果,提案手法は最先端のWDR画像のトーンマッピング法よりも優れていた。 コードはhttps://github.com/linmc86/Deep-Reformulated-Laplacian-Tone-Mappingで公開されている。

Wide dynamic range (WDR) images contain more scene details and contrast when compared to common images. However, it requires tone mapping to process the pixel values in order to display properly. The details of WDR images can diminish during the tone mapping process. In this work, we address the problem by combining a novel reformulated Laplacian pyramid and deep learning. The reformulated Laplacian pyramid always decompose a WDR image into two frequency bands where the low-frequency band is global feature-oriented, and the high-frequency band is local feature-oriented. The reformulation preserves the local features in its original resolution and condenses the global features into a low-resolution image. The generated frequency bands are reconstructed and fine-tuned to output the final tone mapped image that can display on the screen with minimum detail and contrast loss. The experimental results demonstrate that the proposed method outperforms state-of-the-art WDR image tone mapping methods. The code is made publicly available at https://github.com/linmc86/Deep-Reformulated-Laplacian-Tone-Mapping.
翻訳日:2021-02-02 15:55:13 公開日:2021-01-31
# スペクトルロールオフ点:低周波データ表現に基づく有用情報の推定

Spectral Roll-off Points: Estimating Useful Information Under the Basis of Low-frequency Data Representations ( http://arxiv.org/abs/2102.00369v1 )

ライセンス: Link先を確認
Yunkai Yu, Zhihong Yang, Yuyang You, Guozheng Liu, Peiyao Li, Zhicheng Yang, Wenjing Shan(参考訳) 有用な情報はモデル決定の基礎である。 特徴マップにおける有用な情報の推定は、ニューラルネットワークのメカニズムの理解を促進する。 ダウンスケーリング操作により通信帯域幅が削減されるため、低周波はデータ表現における有用な情報の前提条件です。 本研究では,スペクトルロールオフポイント(SROP)を用いて低周波状態を統合し,有用な情報を推定することを提案する。 SROPの計算は、画像分類タスクにおいて必要となる回転不変性により、1次元信号から2次元画像に拡張される。 特徴マップ間のSROP統計は,階層的に有用な情報推定のために実装される。 正当性チェックは、モデル入力間のレイヤワイドSROP分布のばらつきが、モデル決定をサポートする有用なコンポーネントを認識するのに有効であることを示す。 さらに、モデルの有用な情報の基礎となるSROPと精度の変動は、様々なモデル構造において十分な訓練を行う際に同期する。 したがって、SROPは有用情報の正確かつ便利な推定法である。 周波数領域の知識に関する人工知能の説明性を促進する。

Useful information is the basis for model decisions. Estimating useful information in feature maps promotes the understanding of the mechanisms of neural networks. Low frequency is a prerequisite for useful information in data representations, because downscaling operations reduce the communication bandwidth. This study proposes the use of spectral roll-off points (SROPs) to integrate the low-frequency condition when estimating useful information. The computation of an SROP is extended from a 1-D signal to a 2-D image by the required rotation invariance in image classification tasks. SROP statistics across feature maps are implemented for layer-wise useful information estimation. Sanity checks demonstrate that the variation of layer-wise SROP distributions among model input can be used to recognize useful components that support model decisions. Moreover, the variations of SROPs and accuracy, the ground truth of useful information of models, are synchronous when adopting sufficient training in various model structures. Therefore, SROP is an accurate and convenient estimation of useful information. It promotes the explainability of artificial intelligence with respect to frequency-domain knowledge.
翻訳日:2021-02-02 15:54:35 公開日:2021-01-31
# 貨物列車画像のリアルタイム故障検出のための統一光フレームワーク

A Unified Light Framework for Real-time Fault Detection of Freight Train Images ( http://arxiv.org/abs/2102.00381v1 )

ライセンス: Link先を確認
Yang Zhang, Moyun Liu, Yang Yang, Yanwen Guo, Huiming Zhang(参考訳) 貨物列車のリアルタイム故障検出は、厳しい資源要件下での鉄道輸送の安全性と最適運用を保証する上で重要な役割を果たしています。 深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像上のこれらの断層検出器の性能は精度と効率の両立には程遠い。 本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。 まず,新しい軽量バックボーン(RFDNet)を設計し,精度の向上と計算コストの低減を図る。 そこで,RFDNetから生成されたマルチスケール機能マップを用いたマルチリージョン提案ネットワークを提案し,検出性能を改善する。 最後に,多レベル位置センシティブスコアマップと関心領域のプーリングを行い,冗長な計算量が少なく精度をさらに向上させる。 公開ベンチマークデータセットの広範囲な実験結果から,rfdnetは精度と効率を向上し,ベースラインネットワークの性能を大幅に向上できることが示唆された。 6つの故障データセットを用いた実験により,本手法は毎秒38フレーム以上でリアルタイム検出が可能であり,最先端検出器よりも高い精度と低い計算性能を達成できることを示した。

Real-time fault detection for freight trains plays a vital role in guaranteeing the security and optimal operation of railway transportation under stringent resource requirements. Despite the promising results for deep learning based approaches, the performance of these fault detectors on freight train images, are far from satisfactory in both accuracy and efficiency. This paper proposes a unified light framework to improve detection accuracy while supporting a real-time operation with a low resource requirement. We firstly design a novel lightweight backbone (RFDNet) to improve the accuracy and reduce computational cost. Then, we propose a multi region proposal network using multi-scale feature maps generated from RFDNet to improve the detection performance. Finally, we present multi level position-sensitive score maps and region of interest pooling to further improve accuracy with few redundant computations. Extensive experimental results on public benchmark datasets suggest that our RFDNet can significantly improve the performance of baseline network with higher accuracy and efficiency. Experiments on six fault datasets show that our method is capable of real-time detection at over 38 frames per second and achieves competitive accuracy and lower computation than the state-of-the-art detectors.
翻訳日:2021-02-02 15:54:01 公開日:2021-01-31
# マルチスケールヒストグラム合成に基づくトーンマッピング

Tone Mapping Based on Multi-scale Histogram Synthesis ( http://arxiv.org/abs/2102.00408v1 )

ライセンス: Link先を確認
Jie Yang, Ziyi Liu, Ulian Shahnovich, Orly Yadid-Pecht(参考訳) 本稿では、低ダイナミックレンジ(LDR)デバイス上で広ダイナミックレンジ(WDR)画像を表示するために使用できる新しいトーンマッピングアルゴリズムを提案する。 提案アルゴリズムは主に,人間の視覚系(hvs)の対数応答と局所適応特性に動機づけられている。 HVSは、異なる適応レベルの下で異なる輝度を知覚するので、我々のアルゴリズムは異なるスケールで構築された関数を使って異なる値にピクセルをマッピングする。 画像の輝度の整合性を維持するために大規模な関数が使用され、局所的な詳細とコントラストを維持するために小さなスケールの関数が使用される。 異なるスケールの値を融合し、アーティファクトを除去するために、局所分散を用いた効率的な方法が提案されている。 このアルゴリズムは積分画像と積分ヒストグラムを利用して計算複雑性と処理時間を短縮する。 実験結果から,提案アルゴリズムは,多くの最先端トーンマッピングアルゴリズムの性能を超越した,高輝度,良コントラスト,魅力的な画像を生成することができることがわかった。 このプロジェクトはhttps://github.com/jieyang1987/ToneMapping-Based-on-Multi-scale-Histogram-Synthesisで入手できる。

In this paper, we present a novel tone mapping algorithm that can be used for displaying wide dynamic range (WDR) images on low dynamic range (LDR) devices. The proposed algorithm is mainly motivated by the logarithmic response and local adaptation features of the human visual system (HVS). HVS perceives luminance differently when under different adaptation levels, and therefore our algorithm uses functions built upon different scales to tone map pixels to different values. Functions of large scales are used to maintain image brightness consistency and functions of small scales are used to preserve local detail and contrast. An efficient method using local variance has been proposed to fuse the values of different scales and to remove artifacts. The algorithm utilizes integral images and integral histograms to reduce computation complexity and processing time. Experimental results show that the proposed algorithm can generate high brightness, good contrast, and appealing images that surpass the performance of many state-of-the-art tone mapping algorithms. This project is available at https://github.com/jieyang1987/ToneMapping-Based-on-Multi-scale-Histogram-Synthesis.
翻訳日:2021-02-02 15:53:22 公開日:2021-01-31
# PyTorch-Hebbian: ディープラーニングフレームワークによるローカル学習の促進

PyTorch-Hebbian: facilitating local learning in a deep learning framework ( http://arxiv.org/abs/2102.00428v1 )

ライセンス: Link先を確認
Jules Talloen, Joni Dambre, Alexander Vandesompele(参考訳) 近年では、シナプス効果の変化はシナプス前ニューロンとシナプス後ニューロンのみの活性に依存するというヘッブの考えに基づく教師なしの局所学習が、バックプロパゲーションの代替の訓練メカニズムとしての可能性を示している。 残念ながら、hebbian learningはまだ実験段階であり、標準的なディープラーニングフレームワークに入ることは滅多にない。 本研究では,標準的なディープラーニングワークフローの文脈におけるヘビアン学習の可能性を検討する。 そこで本研究では,既存の深層学習パイプラインにおける局所学習ルールを徹底的かつ体系的に評価する枠組みを提案する。 この枠組みを用いて,画像分類のためのヘビー学習特徴抽出器の可能性を示す。 特に、このフレームワークは、エンドツーエンドのバックプロパゲーションよりも精度を犠牲にすることなく、krotov-hopfield学習ルールを標準畳み込みニューラルネットワークに拡張するために使用される。 ソースコードはhttps://github.com/joxis/pytorch-hebbianで入手できる。

Recently, unsupervised local learning, based on Hebb's idea that change in synaptic efficacy depends on the activity of the pre- and postsynaptic neuron only, has shown potential as an alternative training mechanism to backpropagation. Unfortunately, Hebbian learning remains experimental and rarely makes it way into standard deep learning frameworks. In this work, we investigate the potential of Hebbian learning in the context of standard deep learning workflows. To this end, a framework for thorough and systematic evaluation of local learning rules in existing deep learning pipelines is proposed. Using this framework, the potential of Hebbian learned feature extractors for image classification is illustrated. In particular, the framework is used to expand the Krotov-Hopfield learning rule to standard convolutional neural networks without sacrificing accuracy compared to end-to-end backpropagation. The source code is available at https://github.com/Joxis/pytorch-hebbian.
翻訳日:2021-02-02 15:52:44 公開日:2021-01-31
# Admix: 敵攻撃の転送可能性を高める

Admix: Enhancing the Transferability of Adversarial Attacks ( http://arxiv.org/abs/2102.00436v1 )

ライセンス: Link先を確認
Xiaosen Wang, Xuanran He, Jingdong Wang, Kun He(参考訳) 敵の攻撃はホワイトボックス設定下では驚くべき攻撃成功率を達成したが、既存の敵の多くはブラックボックス設定下では移動性が弱い。 この問題に対処するため、攻撃伝達性を高めるために様々な入力変換が提案されている。 本研究では、既存のすべての変換が単一の画像に適用されることを観察し、これは製造された敵の移動性を制限する可能性がある。 そこで本研究では,他のカテゴリからランダムに選択した画像と原画像の両方を考慮し,admix attack method (aam) と呼ばれる新たな入力変換ベース攻撃を提案する。 元の入力の勾配を直接計算する代わりに、AAMは2つの画像で補間された混合画像の勾配を計算し、高い移動確率で敵を作らせる。 標準のImageNetデータセットの実証的評価は、AAMが既存の入力変換方法よりもはるかに高い転送性を達成できることを示しています。 他の入力変換を組み込むことで、9つの先進的防御モデルを攻撃する際、入力変換の最先端の組み合わせを平均3.4%の明確なマージンでさらに改善し、性能を上回ることができる。

Although adversarial attacks have achieved incredible attack success rates under the white-box setting, most existing adversaries often exhibit weak transferability under the black-box setting. To address this issue, various input transformations have been proposed to enhance the attack transferability. In this work, We observe that all the existing transformations are applied on a single image, which might limit the transferability of the crafted adversaries. Hence, we propose a new input transformation based attack called Admix Attack Method (AAM) that considers both the original image and an image randomly picked from other categories. Instead of directly calculating the gradient on the original input, AAM calculates the gradient on the admixed image interpolated by the two images in order to craft adversaries with higher transferablility. Empirical evaluations on the standard ImageNet dataset demonstrate that AAM could achieve much higher transferability than the existing input transformation methods. By incorporating with other input transformations, our method could further improve the transferability and outperform the state-of-the-art combination of input transformations by a clear margin of 3.4% on average when attacking nine advanced defense models.
翻訳日:2021-02-02 15:52:09 公開日:2021-01-31
# SkinScan:皮膚科診断とドキュメンテーションのための低コスト3Dスキャン

SkinScan: Low-Cost 3D-Scanning for Dermatologic Diagnosis and Documentation ( http://arxiv.org/abs/2102.00508v1 )

ライセンス: Link先を確認
Merlin A. Nau, Florian Schiffers, Yunhao Li, Bingjie Xu, Andreas Maier, Jack Tumblin, Marc Walton, Aggelos K. Katsaggelos, Florian Willomitzer, Oliver Cossairt(参考訳) 医療分野では,計算写真の利用がますます不可欠になりつつある。 現在、皮膚科のイメージング技術は、モバイルデバイスによる2次元(2D)カラー画像から、さらに詳細な3次元(3D)データを測定するプロの臨床画像システムまで幅広い。 後者は一般的に高価であり、幅広い観客にはアクセスできません。 本研究では, 低コスト(かつ移動可能な)のコモディティ機器にのみ依存し, 3D-gradient-illumination法を用いて皮膚の詳細な3D情報を測定する新しいシステムとソフトウェア・フレームワークを提案する。 当システムは,皮膚疾患の早期診断とモニタリング,特に人口密集地域や未発達地域において大きな可能性を秘めている。

The utilization of computational photography becomes increasingly essential in the medical field. Today, imaging techniques for dermatology range from two-dimensional (2D) color imagery with a mobile device to professional clinical imaging systems measuring additional detailed three-dimensional (3D) data. The latter are commonly expensive and not accessible to a broad audience. In this work, we propose a novel system and software framework that relies only on low-cost (and even mobile) commodity devices present in every household to measure detailed 3D information of the human skin with a 3D-gradient-illumination-based method. We believe that our system has great potential for early-stage diagnosis and monitoring of skin diseases, especially in vastly populated or underdeveloped areas.
翻訳日:2021-02-02 15:51:29 公開日:2021-01-31
# Co-Seg:ラベル破壊に対するイメージセグメンテーションフレームワーク

Co-Seg: An Image Segmentation Framework Against Label Corruption ( http://arxiv.org/abs/2102.00523v1 )

ライセンス: Link先を確認
Ziyi Huang, Haofeng Zhang, Andrew Laine, Elsa Angelini, Christine Hendon, Yu Gan(参考訳) 教師付きディープラーニングのパフォーマンスは、トレーニング用の高品質のラベルの可用性に大きく関連しています。 ニューラルネットワークは、ノイズの多いデータセットで直接トレーニングした場合、破損したラベルを徐々にオーバーフィットさせ、テスト時に深刻なパフォーマンス低下をもたらす。 本稿では,低品質のノイズラベルを含むデータセット上で,セグメンテーションネットワークを協調的に学習する新しいディープラーニングフレームワーク,co-segを提案する。 提案手法では,まず2つのネットワークを同時に訓練し,すべてのサンプルをふるいにかけ,信頼できるラベルのサブセットを得る。 そして、信頼性の高い部分集合を豊かにするために、効率的かつ容易に実装されたラベル補正戦略を適用する。 最後に、更新データセットを使用して、セグメンテーションネットワークをトレーニングしてパラメータを確定する。 2つのノイズラベルシナリオにおける実験により,提案手法は,ノイズフリーラベルに基づいて学習した教師あり学習と同等の結果が得られることを示した。 さらに,どのセグメンテーションアルゴリズムにも容易に実装でき,ノイズの多いラベルへのロバスト性を高めることができる。

Supervised deep learning performance is heavily tied to the availability of high-quality labels for training. Neural networks can gradually overfit corrupted labels if directly trained on noisy datasets, leading to severe performance degradation at test time. In this paper, we propose a novel deep learning framework, namely Co-Seg, to collaboratively train segmentation networks on datasets which include low-quality noisy labels. Our approach first trains two networks simultaneously to sift through all samples and obtain a subset with reliable labels. Then, an efficient yet easily-implemented label correction strategy is applied to enrich the reliable subset. Finally, using the updated dataset, we retrain the segmentation network to finalize its parameters. Experiments in two noisy labels scenarios demonstrate that our proposed model can achieve results comparable to those obtained from supervised learning trained on the noise-free labels. In addition, our framework can be easily implemented in any segmentation algorithm to increase its robustness to noisy labels.
翻訳日:2021-02-02 15:50:56 公開日:2021-01-31
# ニューラルネットワークにおける近似,深さ分離,学習可能性の関係

The Connection Between Approximation, Depth Separation and Learnability in Neural Networks ( http://arxiv.org/abs/2102.00434v1 )

ライセンス: Link先を確認
Eran Malach, Gilad Yehudai, Shai Shalev-Shwartz, Ohad Shamir(参考訳) いくつかの最近の研究では、ディープニューラルネットワークと、浅いネットワークやカーネルクラスのような近似能力の劣る仮説クラスとの分離結果が示されている。 一方、ディープネットワークがターゲット関数を効率的に表現できるという事実は、このターゲット関数をディープニューラルネットワークで効率的に学習できるという意味ではない。 本研究では,学習能力と近似能力の関係について検討する。 対象関数の深いネットワークでの学習性は、より単純なクラスがターゲットを近似する能力に依存することを示す。 具体的には、深層ニューラルネットワークの勾配降下によって学習可能な関数に必要な条件は、少なくとも弱い意味では、浅いニューラルネットワークで関数を近似できることを示す。 また,関数のクラスが,あるカーネルクラスによって弱意味に近似できる場合に限り,効率的な統計クエリアルゴリズムによって学習できることを示した。 深さ分離を示す関数のいくつかの例を示し、それらを効率的に近似できる仮説クラスによっても効率的に学習できないと結論づける。

Several recent works have shown separation results between deep neural networks, and hypothesis classes with inferior approximation capacity such as shallow networks or kernel classes. On the other hand, the fact that deep networks can efficiently express a target function does not mean this target function can be learned efficiently by deep neural networks. In this work we study the intricate connection between learnability and approximation capacity. We show that learnability with deep networks of a target function depends on the ability of simpler classes to approximate the target. Specifically, we show that a necessary condition for a function to be learnable by gradient descent on deep neural networks is to be able to approximate the function, at least in a weak sense, with shallow neural networks. We also show that a class of functions can be learned by an efficient statistical query algorithm if and only if it can be approximated in a weak sense by some kernel class. We give several examples of functions which demonstrate depth separation, and conclude that they cannot be efficiently learned, even by a hypothesis class that can efficiently approximate them.
翻訳日:2021-02-02 15:40:48 公開日:2021-01-31
# 完全畳み込みシームス連結ネットワークによる都市変化検出と注意

Urban Change Detection by Fully Convolutional Siamese Concatenate Network with Attention ( http://arxiv.org/abs/2102.00501v1 )

ライセンス: Link先を確認
Farnoosh Heidary, Mehran Yazdi, Maryam Dehghani, and Peyman Setoodeh(参考訳) リモートセンシングにおいて,特に都市管理における災害時の変化検出(cd)は重要な問題である。 既存の変更検出手法のほとんどは、ピクセルやオブジェクトに基づいて分類される。 オブジェクトベースのモデルは、非常に高解像度のリモートセンシング(VHR RS)画像を扱うピクセルベースの手法に好まれる。 このような手法は、ディープラーニングに関する継続的な研究の恩恵を受けることができる。 本稿では, フルコンボリューション型Siamese Concatenateネットワーク(FC-Siam-Conc)を展開したVHR RS画像に対する全自動変化検出アルゴリズムを提案する。 提案手法は前処理と注意ゲート層を用いて精度を向上させる。 ソフトな視覚的注意機構としてのガウス的注意(GA)は前処理に用いられる。 GAはネットワークが生物学的視覚システムのような特徴マップを扱うのに役立つ。 GAパラメータはネットワークトレーニング中に調整できないため、他のネットワークパラメータ間で調整可能なパラメータでGAの役割を演じるためにアテンションゲート層が導入された。 Onera Satellite Change Detection (OSCD)およびRIVER-CDデータセットで得られた実験結果は、提案されたアーキテクチャが最先端のアルゴリズムよりも優れていることを確認します。

Change detection (CD) is an important problem in remote sensing, especially in disaster time for urban management. Most existing traditional methods for change detection are categorized based on pixel or objects. Object-based models are preferred to pixel-based methods for handling very high-resolution remote sensing (VHR RS) images. Such methods can benefit from the ongoing research on deep learning. In this paper, a fully automatic change-detection algorithm on VHR RS images is proposed that deploys Fully Convolutional Siamese Concatenate networks (FC-Siam-Conc). The proposed method uses preprocessing and an attention gate layer to improve accuracy. Gaussian attention (GA) as a soft visual attention mechanism is used for preprocessing. GA helps the network to handle feature maps like biological visual systems. Since the GA parameters cannot be adjusted during network training, an attention gate layer is introduced to play the role of GA with parameters that can be tuned among other network parameters. Experimental results obtained on Onera Satellite Change Detection (OSCD) and RIVER-CD datasets confirm the superiority of the proposed architecture over the state-of-the-art algorithms.
翻訳日:2021-02-02 15:35:20 公開日:2021-01-31
# 記号を越えて:Sign Seriesによる非パラメトリックテンソル補完

Beyond the Signs: Nonparametric Tensor Completion via Sign Series ( http://arxiv.org/abs/2102.00384v1 )

ライセンス: Link先を確認
Chanwoo Lee, Miaoyan Wang(参考訳) ノイズ観測によるテンソル推定の問題点について考察する。 テンソル完全化に対する非パラメトリックなアプローチは、記号表現可能なテンソルとして表される新しいモデルに基づいている。 このモデルは一連の構造化符号テンソルを用いて興味のある信号テンソルを表す。 以前の方法とは異なり、符号列表現は、CPモデル、タッカーモデル、単一インデックスモデル、複数のハイパーグラフモデルなど、多くの既存のテンソルモデルを含む、低階信号と高階信号の両方を効果的に扱う。 符号テンソル級数は理論的に特徴的であり、注意深く特定された重みを持つ分類タスクによって計算上推定可能であることを示す。 過剰なリスクバウンド、推定誤差率、サンプル複雑度が確立される。 提案手法は,人間の脳接続ネットワークとトピックデータマイニングの2つのデータセットにおいて,従来の手法よりも性能が劣ることを示す。

We consider the problem of tensor estimation from noisy observations with possibly missing entries. A nonparametric approach to tensor completion is developed based on a new model which we coin as sign representable tensors. The model represents the signal tensor of interest using a series of structured sign tensors. Unlike earlier methods, the sign series representation effectively addresses both low- and high-rank signals, while encompassing many existing tensor models -- including CP models, Tucker models, single index models, several hypergraphon models -- as special cases. We show that the sign tensor series is theoretically characterized, and computationally estimable, via classification tasks with carefully-specified weights. Excess risk bounds, estimation error rates, and sample complexities are established. We demonstrate the outperformance of our approach over previous methods on two datasets, one on human brain connectivity networks and the other on topic data mining.
翻訳日:2021-02-02 15:32:37 公開日:2021-01-31