このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200409となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 非互換なデコヒーレンスチャネルからのEinselection Einselection from incompatible decoherence channels ( http://arxiv.org/abs/2001.10851v2 ) ライセンス: Link先を確認 | Alexandre Feller, Guillaume Coeuret Cauquil, and Benjamin Roussel | (参考訳) 非監視環境との絡み合いから量子系の非一貫性は、量子世界からの古典的絵の出現に関する最も説得力のある説明である。
単一のリンドブラッド演算子についてよく理解されているが、複雑なシステム-環境相互作用のエインセレクションプロセスにおける役割は、まだ解明されていない。
本稿では,2つの非可換リンドブラッド作用素を用いたcqed実験に触発された開放量子力学の解析を行い,コヒーレント状態における非可逆性と散逸的デコヒーレンスをモデル化する。
我々は,量子軌道法と位相空間法を用いて,問題を正確に研究し,解決する。
与えられたエネルギーにおける絡み合い証人の変動を最小化する状態を求めることを目的としたeinselection optimization問題について数値的研究を行った。
我々は、フォック状態が臨界結合までデコヒーレンスする最も強固な状態であることを示す。 Decoherence of quantum systems from entanglement with an unmonitored environment is to date the most compelling explanation of the emergence of a classical picture from a quantum world. While it is well understood for a single Lindblad operator, the role in the einselection process of a complex system-environment interaction remains to be clarified. In this paper, we analyze an open quantum dynamics inspired by CQED experiments with two non-commuting Lindblad operators modeling decoherence in the number basis and dissipative decoherence in the coherent state basis. We study and solve exactly the problem using quantum trajectories and phase-space techniques. The einselection optimization problem, which we consider to be about finding states minimizing the variation of some entanglement witness at a given energy, is studied numerically. We show that Fock states remain the most robust states to decoherence up to a critical coupling. | 翻訳日:2023-06-05 06:53:12 公開日:2020-04-09 |
# 相対論的衝突における横コヒーレンス長の影響 Effects of the transverse coherence length in relativistic collisions ( http://arxiv.org/abs/2002.00101v2 ) ライセンス: Link先を確認 | Dmitry V. Karlovets, Valeriy G. Serbo | (参考訳) 粒子の衝突における量子干渉の影響は、複雑な散乱振幅の自己相関と入射波パケットの空間的コヒーレンスによって生じる2倍の性質を持つ。
これらの効果は、非局在化平面波を扱う従来の散乱理論では無視されるが、粒子物理学や原子物理学では考慮する必要がある。
ここでは、パケットの逆コヒーレンス長の役割について検討し、粒子の一方がねじれている場合、すなわち軌道角運動量$\ell\hbar$ を担っている場合に特に重点を置いている。
ee、ep$、および$pp$の衝突では、干渉は平面波断面積の補正となり、通常、$\sqrt{s} \gg 1$ gev では無視できるが、小さい場合、特に初期状態で ||\ell| > 10^3$ のツイストハドロンが存在する場合、特に顕著である。
摂動 QCD の他に、これらの補正は中程度の減衰しかなく、ハドロン振幅の位相を $s$ と $t$ の関数として探究することができる。
この状態において、コヒーレンス効果はQEDのループ補正と競合し、中間エネルギーと低エネルギーの強い相互作用の現象論的モデルのテストを容易にする。 Effects of the quantum interference in collisions of particles have a twofold nature: they arise because of the auto-correlation of a complex scattering amplitude and due to spatial coherence of the incoming wave packets. Both these effects are neglected in a conventional scattering theory dealing with the delocalized plane waves, although they sometimes must be taken into account in particle and atomic physics. Here, we study the role of a transverse coherence length of the packets, putting special emphasis on the case in which one of the particles is twisted, that is, it carries an orbital angular momentum $\ell\hbar$. In $ee, ep$, and $pp$ collisions the interference results in corrections to the plane-wave cross sections, usually negligible at the energies $\sqrt{s} \gg 1$ GeV but noticeable for smaller ones, especially if there is a twisted hadron with $|\ell| > 10^3$ in initial state. Beyond the perturbative QCD, these corrections become only moderately attenuated allowing one to probe a phase of the hadronic amplitude as a function of $s$ and $t$. In this regime, the coherence effects can compete with the loop corrections in QED and facilitate testing the phenomenological models of the strong interaction at intermediate and low energies. | 翻訳日:2023-06-05 02:30:40 公開日:2020-04-09 |
# モノポール背景における隠れ対称性と(超)コンフォーマル力学 Hidden symmetry and (super)conformal mechanics in a monopole background ( http://arxiv.org/abs/2002.04341v4 ) ライセンス: Link先を確認 | Luis Inzunza, Mikhail S. Plyushchay, Andreas Wipf | (参考訳) 磁気電荷のディラック単極子の背景に電荷がe$を持つ粒子の古典的および量子的隠れ対称性を研究する。 $g$ 追加の中央ポテンシャル $v(r)=u(r) +(eg)^2/2mr^{2}$ と$u(r)=\tfrac{1}{2}m\omega^2r^2$ は、デ・アルファロ、フビニ、フルラン(aff)の1次元共形力学モデルに類似している。
非ユニタリ共形橋変換(non-unitary conformal bridge transformation)によって、量子状態と系のすべての対称性の関係を調和トラップのない系の対称性である$u(r)=0$ で確立する。
非常に特殊なスピン軌道結合によるスピン自由度の導入により、超共形拡大系をunbroken $\mathcal{n}=2$ poincar\'eで構成し、非ブロッキングかつ自発的な超対称性を持つ1次元affモデルの2つの異なる超共形拡大が共通の起源を持つことを示す。
また、任意の中心ポテンシャル $u(r)$ におけるユークリッド粒子のダイナミクスと、ポテンシャル $v(r)$ を受ける単極系背景における荷電粒子のダイナミクスとの普遍的な関係を示す。 We study classical and quantum hidden symmetries of a particle with electric charge $e$ in the background of a Dirac monopole of magnetic charge $g$ subjected to an additional central potential $V(r)=U(r) +(eg)^2/2mr^{2}$ with $U(r)=\tfrac{1}{2}m\omega^2r^2$, similar to that in the one-dimensional conformal mechanics model of de Alfaro, Fubini and Furlan (AFF). By means of a non-unitary conformal bridge transformation, we establish a relation of the quantum states and of all symmetries of the system with those of the system without harmonic trap, $U(r)=0$. Introducing spin degrees of freedom via a very special spin-orbit coupling, we construct the $\mathfrak{osp}(2,2)$ superconformal extension of the system with unbroken $\mathcal{N}=2$ Poincar\'e supersymmetry and show that two different superconformal extensions of the one-dimensional AFF model with unbroken and spontaneously broken supersymmetry have a common origin. We also show a universal relationship between the dynamics of a Euclidean particle in an arbitrary central potential $U(r)$ and the dynamics of a charged particle in a monopole background subjected to the potential $V(r)$. | 翻訳日:2023-06-03 23:42:29 公開日:2020-04-09 |
# ハイブリッド2ビットシステムにおける不要な$ZZ$相互作用の抑制 Suppression of Unwanted $ZZ$ Interactions in a Hybrid Two-Qubit System ( http://arxiv.org/abs/2003.02775v2 ) ライセンス: Link先を確認 | Jaseung Ku, Xuexin Xu, Markus Brink, David C. McKay, Jared B. Hertzberg, Mohammad H. Ansari, and B.L.T. Plourde | (参考訳) 古典的あるいは量子力学的に問わないクロストークの誤りの軽減は、マルチ量子ビット回路において高忠実性ゲートを実現する上で非常に重要である。
弱非調和超伝導量子ビットの場合、不要な$ZZ$相互作用は反対の非調和性と量子ビットを組み合わせることで抑制できる。
本稿では, 容量共振フラックスキュービットとトランスモンとの相互共振相互作用に基づくゲートの2量子ゲート誤差の実験的測定と理論的モデル化を行い, ZZ$相互作用の除去を実証する。 Mitigating crosstalk errors, whether classical or quantum mechanical, is critically important for achieving high-fidelity entangling gates in multi-qubit circuits. For weakly anharmonic superconducting qubits, unwanted $ZZ$ interactions can be suppressed by combining qubits with opposite anharmonicity. We present experimental measurements and theoretical modeling of two-qubit gate error for gates based on the cross resonance interaction between a capacitively shunted flux qubit and a transmon and demonstrate the elimination of the $ZZ$ interaction. | 翻訳日:2023-05-30 11:36:06 公開日:2020-04-09 |
# 全密度行列上の一様確率分布 Uniform Probability Distribution Over All Density Matrices ( http://arxiv.org/abs/2003.13087v2 ) ライセンス: Link先を確認 | Eddy Keming Chen, Roderich Tumulka | (参考訳) $\mathscr{h}$ を有限次元複素ヒルベルト空間とし、$\mathscr{d}$ を$\mathscr{h}$ 上の密度行列の集合、すなわちトレース 1 を持つ正の作用素とする。
このノートにおける我々のゴールは、$\mathscr{D}$上の確率測度$u$を、$\mathscr{D}$上の一様分布と見なすことができる。
我々は、$\mathscr{d}$ の測度を提案し、その性質を議論し、この測度に従って分布するランダム密度行列の固有値の合同分布を計算することができると主張する。 Let $\mathscr{H}$ be a finite-dimensional complex Hilbert space and $\mathscr{D}$ the set of density matrices on $\mathscr{H}$, i.e., the positive operators with trace 1. Our goal in this note is to identify a probability measure $u$ on $\mathscr{D}$ that can be regarded as the uniform distribution over $\mathscr{D}$. We propose a measure on $\mathscr{D}$, argue that it can be so regarded, discuss its properties, and compute the joint distribution of the eigenvalues of a random density matrix distributed according to this measure. | 翻訳日:2023-05-27 14:20:15 公開日:2020-04-09 |
# 量子論における量子ビットの判別 Discrimination against or in favor of qubits in quantum theory ( http://arxiv.org/abs/2004.04313v1 ) ライセンス: Link先を確認 | Arkady Bolotin | (参考訳) 量子論理の文脈では、量子ビットに関連する実験命題に分散フリー確率を割り当てることができる。
このため、量子系の他の部分と異なるのは、後者が0と1の値しか持たない確率を認めないからである。
本稿では,量子ビットの識別を消去することで,多数のプリミティブ演算を大規模並列に実行可能な計算モデルが得られることを示す。
この論文では、そのようなモデル(量子並列ランダムアクセスマシン(qpram)と呼ばれる)が量子力学的に実現可能であることが示されている。 Within context of quantum logic, it is possible to assign dispersion-free probabilities to experimental propositions pertaining to qubits. This makes qubits distinct from the rest of quantum systems since the latter do not admit probabilities having only values 0 and 1. The present paper shows that erasing qubit discrimination leads to a model of computation which permits execution of many primitive operations in a massive parallel way. In the paper, it is demonstrated that such a model (that can be called a quantum parallel random-access machine, QPRAM) is quantum mechanically plausible. | 翻訳日:2023-05-25 08:54:26 公開日:2020-04-09 |
# 性的支援機能を有する介護ロボット Care Robots with Sexual Assistance Functions ( http://arxiv.org/abs/2004.04428v1 ) ライセンス: Link先を確認 | Oliver Bendel | (参考訳) 老人ホームや老人ホームの居住者は、他者と同じように性欲を抱いている。
しかし、半公的な状況は、これらの既存の懸念を満たすことを困難にしている。
さらに、適切なパートナーに会うことができず、精神的または身体的な理由から関係を持つことが難しくなる場合もある。
家庭で暮らしたり世話されたりした人は、この問題の影響を受けやすい。
健康施設の住人よりも、より簡単かつ慎重に誰かをホストできるかもしれないが、一部の高齢者や障害者は、何らかの方法で制限される可能性がある。
本稿では,性的支援機能を有する介護ロボットに関して生じる機会とリスクについて検討する。
まず第一に、性的な幸福を扱っている。
そして、セックスロボットからケアロボットまで、さまざまなロボットシステムを紹介します。
最後に、焦点はケアロボットであり、著者は技術とデザインの問題を探求している。
短い倫理的な議論が記事を完成させます。
その結果,性的な支援機能を備えた介護ロボットは,介護を必要とする人々の日常生活を豊かにするだけでなく,技術的,デザイン的,道徳的な側面も考慮する必要がある。 Residents in retirement and nursing homes have sexual needs just like other people. However, the semi-public situation makes it difficult for them to satisfy these existential concerns. In addition, they may not be able to meet a suitable partner or find it difficult to have a relationship for mental or physical reasons. People who live or are cared for at home can also be affected by this problem. Perhaps they can host someone more easily and discreetly than the residents of a health facility, but some elderly and disabled people may be restricted in some ways. This article examines the opportunities and risks that arise with regard to care robots with sexual assistance functions. First of all, it deals with sexual well-being. Then it presents robotic systems ranging from sex robots to care robots. Finally, the focus is on care robots, with the author exploring technical and design issues. A brief ethical discussion completes the article. The result is that care robots with sexual assistance functions could be an enrichment of the everyday life of people in need of care, but that we also have to consider some technical, design and moral aspects. | 翻訳日:2023-05-25 08:53:14 公開日:2020-04-09 |
# 磁場抵抗型スピンセンサを用いたナノスケール電気測定 Nanoscale electrometry based on a magnetic-field-resistant spin sensor ( http://arxiv.org/abs/2004.04385v1 ) ライセンス: Link先を確認 | Rui Li, Fei Kong, Pengju Zhao, Zhi Cheng, Zhuoyang Qin, Mengqi Wang, Qi Zhang, Pengfei Wang, Ya Wang, Fazhan Shi, and Jiangfeng Du | (参考訳) 窒素空孔(NV)中心は、電場検知のための潜在的原子スケールスピンセンサーである。
しかし、磁場に対する自然の感受性は、電界の効果的な検出を妨げる。
本稿では,連続動的デカップリング(CDD)技術を用いたロバスト電気測定法を提案する。
CDD期間中、NV中心は着衣状態の空間で進化し、センサは磁場に耐性があるが、電界に敏感である。
一例として, ダイヤモンド表面近傍の複雑な電磁環境から, 着衣状態間の脱落速度を測定することにより, 電気ノイズを分離する手法を提案する。
異なる被覆液で表面の電気ノイズを低減させることにより, 脱落速度と液体の誘電率とのあいまいな関係を観察し, ダイヤモンド表面近傍の電気ノイズモデルの定量的検討を可能にする。 The nitrogen-vacancy (NV) center is a potential atomic-scale spin sensor for electric field sensing. However, its natural susceptibility to the magnetic field hinders effective detection of the electric field. Here we propose a robust electrometric method utilizing continuous dynamic decoupling (CDD) technique. During the CDD period, the NV center evolves in a dressed-state space, where the sensor is resistant to magnetic fields but remains sensitive to electric fields. As an example, we use this method to isolate the electric noise from a complex electro-magnetical environment near diamond surface via measuring the dephasing rate between dressed states. By reducing the surface electric noise with different covered liquids, we observe an unambiguous relation between the dephasing rate and the dielectric permittivity of the liquid, which enables a quantitative investigation of electric noise model near diamond surface. | 翻訳日:2023-05-25 08:52:46 公開日:2020-04-09 |
# 窒素空孔中心に結合したロバストファイバー系量子温度計 A robust fiber-based quantum thermometer coupled with nitrogen-vacancy centers ( http://arxiv.org/abs/2004.04349v1 ) ライセンス: Link先を確認 | Shao-Chun Zhang, Yang Dong, Bo Du, Hao-Bin Lin, Shen Li, Wei Zhu, Guan-Zhong Wang, Xiang-Dong Chen, Guang-Can Guo, and Fang-Wen Sun | (参考訳) ダイヤモンドの窒素空洞中心は、異なる物理量に敏感であるため、量子センシングに広く応用されている。
一方、実用上、不要な物理量から乱れを分離することは困難である。
本稿では,磁界ノイズとマイクロ波パワーシフトを著しく分離するロバストなファイバ型量子温度計を提案する。
周波数変調方式により、高密度窒素空洞アンサンブルにおいて、ゼロフィールド光検出磁気共鳴スペクトルにおけるシャープダイップの変動を検出することで温度測定を実現する。
この量子温度計は、磁気ノイズとマイクロ波ノイズの分離における実装の単純さと互換性と頑健さのおかげで、電子チップの表面温度イメージングに適用され、感度は18ドル$\rm{mk}/\sqrt{\rm{hz}}$である。
曖昧な環境での高感度温度測定への道を開く。 The nitrogen-vacancy center in diamond has been broadly applied in quantum sensing since it is sensitive to different physical quantities. Meanwhile, it is difficult to isolate disturbances from unwanted physical quantities in practical applications. Here, we present a robust fiber-based quantum thermometer which can significantly isolate the magnetic field noise and microwave power shift. With a frequency modulation scheme, we realize the temperature measurement by detecting the variation of the sharp-dip in the zero-field optically detected magnetic resonance spectrum in a high-density nitrogen-vacancy ensemble. Thanks to its simplicity and compatibility in implementation and robustness in the isolation of magnetic and microwave noise, this quantum thermometer is then applied to the surface temperature imaging of an electronic chip with a sensitivity of $18$ $\rm{mK}/\sqrt{\rm{Hz}}$. It paves the way to high sensitive temperature measurement in ambiguous environments. | 翻訳日:2023-05-25 08:50:44 公開日:2020-04-09 |
# フォールトトレラント重み付きUnion-Find復号法 Fault-Tolerant Weighted Union-Find Decoding on the Toric Code ( http://arxiv.org/abs/2004.04693v1 ) ライセンス: Link先を確認 | Shilin Huang, Michael Newman, Kenneth R. Brown | (参考訳) 量子誤り訂正は、正確かつ効率的なデコーダを必要とする。
この目的のために、表面符号の誤り訂正の候補としてユニオンフィンデコードが現れている。
本研究では,回路レベルのデポーラライズノイズ下で,トーリック符号に重み付けされたユニオンフィンドデコーダをベンチマークする。
この変種は、フォールトトレランス設定のパフォーマンスを著しく向上させる一方で、オリジナルのほぼ線形時間の複雑さを保っている。
このノイズモデルでは、ユニオンフィンドデコーダの重み付けはしきい値が0.38%から0.62%に増加するのに対し、一致するデコーダの重み付けでは0.65%から0.72%に増加する。
さらに量子非破壊測定を仮定すると、重み付けされたユニオンフィンデコーディングはマッチング時の0.90%の閾値に比べて0.76%の閾値を達成する。
また、タイミングの比較とエラー率の低さについて述べる。 Quantum error correction requires decoders that are both accurate and efficient. To this end, union-find decoding has emerged as a promising candidate for error correction on the surface code. In this work, we benchmark a weighted variant of the union-find decoder on the toric code under circuit-level depolarizing noise. This variant preserves the almost-linear time complexity of the original while significantly increasing the performance in the fault-tolerance setting. In this noise model, weighting the union-find decoder increases the threshold from 0.38% to 0.62%, compared to an increase from 0.65% to 0.72% when weighting a matching decoder. Further assuming quantum non-demolition measurements, weighted union-find decoding achieves a threshold of 0.76% compared to the 0.90% threshold when matching. We additionally provide comparisons of timing as well as low error rate behavior. | 翻訳日:2023-05-25 08:43:04 公開日:2020-04-09 |
# 騒がしい3人ディレンマゲーム:量子アドバンテージの堅牢性 Noisy three-player dilemma game: Robustness of the quantum advantage ( http://arxiv.org/abs/2004.04533v1 ) ライセンス: Link先を確認 | Pranav Kairon, Kishore Thapliyal, R. Srikanth and Anirban Pathak | (参考訳) 量子戦略を伴うゲームは、しばしば高い報酬をもたらす。
本稿では、IBM Q Experienceが提供する超伝導ベースの量子プロセッサを用いて、3プレイヤージレンマゲームの実現について検討する。
入力状態の腐敗下での量子アドバンテージの持続性と、それがペイオフテーブルのパラメータに依存するかを分析する。
特に、実験の忠実度と誤差は適切に反相関しない、すなわち、高い忠実度を持つ実験のクラスがペイオフにおいてより大きな誤差をもたらす場合が観察される。
さらに,腐敗が半分以上の場合,古典戦略は常に量子戦略よりも優れることがわかった。 Games involving quantum strategies often yield higher payoff. Here, we study a practical realization of the three-player dilemma game using the superconductivity-based quantum processors provided by IBM Q Experience. We analyze the persistence of the quantum advantage under corruption of the input states and how this depends on parameters of the payoff table. Specifically, experimental fidelity and error are observed not to be properly anti correlated, i.e., there are instances where a class of experiments with higher fidelity yields a greater error in the payoff. Further, we find that the classical strategy will always outperform the quantum strategy if corruption is higher than half. | 翻訳日:2023-05-25 08:41:26 公開日:2020-04-09 |
# 非平衡開ディックモデルの非線形半古典力学 The nonlinear semiclassical dynamics of the unbalanced, open Dicke model ( http://arxiv.org/abs/2004.04486v1 ) ライセンス: Link先を確認 | Kevin Stitely, Andrus Giraldo, Bernd Krauskopf, and Scott Parkins | (参考訳) 近年では、光学キャビティに制限された原子と光の間の多体相互作用の研究が著しい進歩を遂げている。
ディックモデル(Dicke model)は、特定の条件下で原子が集合的にキャビティモードに光を放出する状態への量子相転移を示すモデルである。
相互作用ハミルトニアンの共回転項と反回転項の独立に制御可能な強みを特徴とするこのモデルの一般化を考える。
我々はこのシステムを半古典的(平均場)限界、すなわち量子ゆらぎの役割を無視して研究する。
この近似の下では、このモデルはシステムの半古典的進化を決定する非線形微分方程式の組によって記述される。
力学系アプローチをとることで、これらの方程式の包括的解析を行い、新しい複雑な力学の豊富さを明らかにする。
私たちが観察する新しい現象の例としては、ホップ分岐によって生じる超ラジアント振動の出現と、周期2倍のカスケードから生じる1対のカオスアトラクターの出現、そしてそれらの衝突によって無限に多くのホモクリニックな分岐の列を介して単一の大きなカオスアトラクターを形成することが挙げられる。
さらに, 集団スピンの反転がカオス力学の突然の出現に繋がる可能性が示唆された。
全体として、2つの相互作用強度の平面における位相図の形で、アンバランスでオープンなディックモデルで起こりうるダイナミクスの包括的なロードマップを提供する。
したがって,非平衡ディッケモデルのマスター方程式,すなわち,特定の実験的に実現可能な系における量子カオスの顕在化を研究する可能性を考える際に,半古典的カオスの指紋の研究をさらに進めるための基礎を整理する。 In recent years there have been significant advances in the study of many-body interactions between atoms and light confined to optical cavities. One model which has received widespread attention of late is the Dicke model, which under certain conditions exhibits a quantum phase transition to a state in which the atoms collectively emit light into the cavity mode, known as superradiance. We consider a generalization of this model that features independently controllable strengths of the co- and counter-rotating terms of the interaction Hamiltonian. We study this system in the semiclassical (mean field) limit, i.e., neglecting the role of quantum fluctuations. Under this approximation, the model is described by a set of nonlinear differential equations, which determine the system's semiclassical evolution. By taking a dynamical systems approach, we perform a comprehensive analysis of these equations to reveal an abundance of novel and complex dynamics. Examples of the novel phenomena that we observe are the emergence of superradiant oscillations arising due to Hopf bifurcations, and the appearance of a pair of chaotic attractors arising from period-doubling cascades, followed by their collision to form a single, larger chaotic attractor via a sequence of infinitely many homoclinic bifurcations. Moreover, we find that a flip of the collective spin can result in the sudden emergence of chaotic dynamics. Overall, we provide a comprehensive roadmap of the possible dynamics that arise in the unbalanced, open Dicke model in the form of a phase diagram in the plane of the two interaction strengths. Hence, we lay out the foundations to make further advances in the study of the fingerprint of semiclassical chaos when considering the master equation of the unbalanced Dicke model, that is, the possibility of studying a manifestation of quantum chaos in a specific, experimentally realizable system. | 翻訳日:2023-05-25 08:41:04 公開日:2020-04-09 |
# ゼロフィールド核磁気共鳴における2次元単一および多重量子相関分光 Two-Dimensional Single- and Multiple-Quantum Correlation Spectroscopy in Zero-Field Nuclear Magnetic Resonance ( http://arxiv.org/abs/2004.04456v1 ) ライセンス: Link先を確認 | Tobias F. Sjolander, John W. Blanchard, Dmitry Budker, and Alexander Pines | (参考訳) ゼロで検出された1量子および複数量子相関$J$-spectroscopyを提示する。
\!
1$~$\mu$G) 蒸気セル磁気センサを用いた磁場。
ゼロフィールドでは、エタノールのスペクトルは \carbon isotopomers の混合物として現れ、相関スペクトルは2つの複合スペクトルを分離するのに有用である。
また、${}^{13}$C$_2$-acetic acidにおける二重量子遷移のゼロ場等価性を同定し、観測し、そのような遷移がスペクトル割り当てに使用されることを示す。
2次元分光法は、コヒーレンス-トランスファー経路の選択規則により、重複しない共鳴を異なるクロスピークに分離できるため、ゼロフィールドNMRで得られる高分解能をさらに改善する。 We present single- and multiple-quantum correlation $J$-spectroscopy detected in zero ($<\!\!1$~$\mu$G) magnetic field using a \Rb vapor-cell magnetometer. At zero field the spectrum of ethanol appears as a mixture of \carbon isotopomers, and correlation spectroscopy is useful in separating the two composite spectra. We also identify and observe the zero-field equivalent of a double-quantum transition in ${}^{13}$C$_2$-acetic acid, and show that such transitions are of use in spectral assignment. Two-dimensional spectroscopy further improves the high resolution attained in zero-field NMR since selection rules on the coherence-transfer pathways allow for the separation of otherwise overlapping resonances into distinct cross-peaks. | 翻訳日:2023-05-25 08:40:32 公開日:2020-04-09 |
# ガウスボソンサンプリング分布の訓練 Training Gaussian Boson Sampling Distributions ( http://arxiv.org/abs/2004.04770v1 ) ライセンス: Link先を確認 | Leonardo Banchi, Nicol\'as Quesada, Juan Miguel Arrazola | (参考訳) gaussian boson sampling (gbs) はフォトニック量子コンピューティングの短期的プラットフォームである。
GBSデバイスを直接プログラミングするアプリケーションは開発されているが、新しいアルゴリズムを開発する上では、回路のトレーニングと最適化が欠如している。
本研究では,GBS分布の解析的勾配式を導出し,勾配降下に基づく標準手法を用いてデバイスを訓練することができる。
本稿では,最適化されている同一装置からのサンプリングにより勾配を推定できる分布のパラメータ化を提案する。
kullback-leibler divergenceまたはlog-likelihood cost関数を用いたトレーニングでは、勾配を古典的に計算でき、高速にトレーニングできることを示す。
確率最適化と教師なし学習における数値実験により,これらの結果を示す。
具体的には,古典的イジングモデルの基底状態を高い確率でサンプリングするために,gbsデバイスのトレーニングを行うハイブリッドアルゴリズムである変分イジングソルバを提案する。 Gaussian Boson Sampling (GBS) is a near-term platform for photonic quantum computing. Applications have been developed which rely on directly programming GBS devices, but the ability to train and optimize circuits has been a key missing ingredient for developing new algorithms. In this work, we derive analytical gradient formulas for the GBS distribution, which can be used to train devices using standard methods based on gradient descent. We introduce a parametrization of the distribution that allows the gradient to be estimated by sampling from the same device that is being optimized. In the case of training using a Kullback-Leibler divergence or log-likelihood cost function, we show that gradients can be computed classically, leading to fast training. We illustrate these results with numerical experiments in stochastic optimization and unsupervised learning. As a particular example, we introduce the variational Ising solver, a hybrid algorithm for training GBS devices to sample ground states of a classical Ising model with high probability. | 翻訳日:2023-05-25 08:33:51 公開日:2020-04-09 |
# OPTIMAMマンモグラフィー画像データベース:マンモグラフィー画像と臨床データの大規模資源 OPTIMAM Mammography Image Database: a large scale resource of mammography images and clinical data ( http://arxiv.org/abs/2004.04742v1 ) ライセンス: Link先を確認 | Mark D Halling-Brown, Lucy M Warren, Dominic Ward, Emma Lewis, Alistair Mackenzie, Matthew G Wallis, Louise Wilkinson, Rosalind M Given-Wilson, Rita McAvinchey and Kenneth C Young | (参考訳) 医用画像研究、特に人工知能(AI)の開発における大きな障壁は、他の研究者と画像を共有する医療画像の大規模なデータベースがないことである。
このようなデータベースがなければ、汎用的なAIアルゴリズムをトレーニングすることは不可能であり、個々の研究センターで小さなデータセットの収集に大量の時間と資金が費やされている。
OPTIMAM画像データベース(OMI-DB)は,これらの障壁を克服するために開発された。
OMI-DBはいくつかのリレーショナルデータベースとクラウドストレージシステムで構成され、マンモグラフィー画像と関連する臨床および病理情報を含んでいる。
このデータベースには、イギリスの3つの乳房検診センターから集めた173,319人の女性の画像が250万枚以上含まれている。
正常な乳癌154,832人、良性所見6909人、スクリーン検出癌9690人、インターバル癌1888人を含む。
コレクションは継続中であり、すべての女性はフォローアップされ、その後のスクリーニングエピソードに従って臨床状態が更新される。
事前検診のマンモグラフィーとインターバル癌が利用できることは、AI開発に欠かせない資源である。
OMI-DBのデータは2014年から30以上の研究グループや企業と共有されている。
この進歩的なアプローチは、資金提供者と承認された学術研究グループと商業研究グループの間で合意を共有することによって可能になった。
OMI-DBのような研究データセットは、研究のための強力なリソースを提供する。 A major barrier to medical imaging research and in particular the development of artificial intelligence (AI) is a lack of large databases of medical images which share images with other researchers. Without such databases it is not possible to train generalisable AI algorithms, and large amounts of time and funding is spent collecting smaller datasets at individual research centres. The OPTIMAM image database (OMI-DB) has been developed to overcome these barriers. OMI-DB consists of several relational databases and cloud storage systems, containing mammography images and associated clinical and pathological information. The database contains over 2.5 million images from 173,319 women collected from three UK breast screening centres. This includes 154,832 women with normal breasts, 6909 women with benign findings, 9690 women with screen-detected cancers and 1888 women with interval cancers. Collection is on-going and all women are followed-up and their clinical status updated according to subsequent screening episodes. The availability of prior screening mammograms and interval cancers is a vital resource for AI development. Data from OMI-DB has been shared with over 30 research groups and companies, since 2014. This progressive approach has been possible through sharing agreements between the funder and approved academic and commercial research groups. A research dataset such as the OMI-DB provides a powerful resource for research. | 翻訳日:2023-05-25 08:32:48 公開日:2020-04-09 |
# ノイズの多い中規模イオン量子コンピュータの構築 Architecting Noisy Intermediate-Scale Trapped Ion Quantum Computers ( http://arxiv.org/abs/2004.04706v1 ) ライセンス: Link先を確認 | Prakash Murali, Dripto M. Debroy, Kenneth R. Brown, Margaret Martonosi | (参考訳) Trapped ion (TI) は、NISQ (Noisy Intermediate-Scale Quantum) ハードウェアを構築する主要な候補である。
TI量子ビットは超伝導量子ビットのような他の技術に対して、高い量子ビット品質、コヒーレンス、接続性などの根本的な利点がある。
しかし、現在のTIシステムのサイズは小さく、5-20キュービットであり、基本的なスケーラビリティの制限がある単一のトラップアーキテクチャを使用するのが一般的である。
50-100量子ビットの次の大きなマイルストーンに向けて、Quantum Charge Coupled Device (QCCD)と呼ばれるモジュラーアーキテクチャが提案されている。
QCCDベースのTIデバイスでは、イオン遮断によって小さなトラップが接続される。
このようなデバイスの基本ハードウェアコンポーネントが実証されているが、トラップサイズや通信トポロジ、ゲート実装など、さまざまなアプリケーションリソース要件に適合する必要性から、50-100キュービットシステムの構築は困難である。
本稿では,50-100キュービットのQCCDシステムの実現に向けて,トラップサイズ,通信トポロジ,運用手法の鍵となる設計選択を評価する。
我々はQCCDアーキテクチャのパラメータを入力として、アプリケーションと現実的なハードウェアパフォーマンスモデルとともに設計ツールフローを構築しました。
ツールフローは、アプリケーションをターゲットデバイスにマッピングし、実行をシミュレートして、アプリケーションの実行時間、信頼性、デバイスのノイズ率などのメトリクスを計算する。
6つのアプリケーションといくつかのハードウェア設計ポイントを用いて、トラップサイズと通信トポロジの選択がアプリケーションの信頼性に最大3桁の影響を与えていることを示す。
マイクロアーキテクチャのゲート実装の選択は、信頼性にさらに大きな影響を与える。
これらの研究から、信頼性が高くパフォーマンスの高いアプリケーション実行を実現するために、これらの選択を調整するための具体的な勧告を提供する。 Trapped ions (TI) are a leading candidate for building Noisy Intermediate-Scale Quantum (NISQ) hardware. TI qubits have fundamental advantages over other technologies such as superconducting qubits, including high qubit quality, coherence and connectivity. However, current TI systems are small in size, with 5-20 qubits and typically use a single trap architecture which has fundamental scalability limitations. To progress towards the next major milestone of 50-100 qubits, a modular architecture termed the Quantum Charge Coupled Device (QCCD) has been proposed. In a QCCD-based TI device, small traps are connected through ion shuttling. While the basic hardware components for such devices have been demonstrated, building a 50-100 qubit system is challenging because of a wide range of design possibilities for trap sizing, communication topology and gate implementations and the need to match diverse application resource requirements. Towards realizing QCCD systems with 50-100 qubits, we perform an extensive architectural study evaluating the key design choices of trap sizing, communication topology and operation implementation methods. We built a design toolflow which takes a QCCD architecture's parameters as input, along with a set of applications and realistic hardware performance models. Our toolflow maps the applications onto the target device and simulates their execution to compute metrics such as application run time, reliability and device noise rates. Using six applications and several hardware design points, we show that trap sizing and communication topology choices can impact application reliability by up to three orders of magnitude. Microarchitectural gate implementation choices influence reliability by another order of magnitude. From these studies, we provide concrete recommendations to tune these choices to achieve highly reliable and performant application executions. | 翻訳日:2023-05-25 08:32:14 公開日:2020-04-09 |
# 退化固有値に対するシルベスター解について On Sylvester solution for degenerate eigenvalues ( http://arxiv.org/abs/2004.05159v1 ) ライセンス: Link先を確認 | Dawit Hiluf Hailu | (参考訳) 本稿では, 退化固有値を持つ系に対するシルベスターの公式の利用と, 解析解の取得について述べる。
この用途を評価すべく、断熱的およびマグナス近似という2種類の解析解を含む。
量子力学において、シュルンディンガー方程式(Schr\"{o}dinger equation)は、波動-粒子双対性のような量子効果が重要な物理系の時間的進化を記述する数学的方程式である。
この方程式は量子力学系を研究するための数学的定式化である。
ニュートンの法則が物体の運動を支配するのと同様に、shr\"{o}dinger equation of motionもまた量子物体の運動を制御する。
物体の古典的運動とは異なり、量子現象の運動方程式は軌道の可能性を扱っている。 In this paper we introduce the use of Sylvester's formula for systems with degenerate eigenvalues in relation to obtaining their analytical solutions. To appreciate the use we include two other forms of analytical solutions namely adiabatic and Magnus approximations. In quantum mechanics, the Schr\"{o}dinger equation is a mathematical equation that describes the evolution over time of a physical system in which quantum effects, such as wave--particle duality, are significant. The equation is a mathematical formulation for studying quantum mechanical systems. Just like Newtons's laws govern the motion of objects, Schr\"{o}dinger equations of motion also govern the motion of quantum objects. Unlike the classical motion of objects the equation of motions of quantum phenomenon deals with the likelihood of the trajectories. | 翻訳日:2023-05-25 08:22:59 公開日:2020-04-09 |
# 量子ウォークにおけるエントロピー生成 Entropy production in the quantum walk ( http://arxiv.org/abs/2004.04850v1 ) ライセンス: Link先を確認 | Andr\'es Vallejo, Alejandro Romanelli, Ra\'ul Donangelo and Renato Portugal | (参考訳) オープン量子系における生成エントロピーの概念を探求する。
我々は,エントロピー生成の観点から,ライン上の離散時間量子ウォークの研究に焦点を当てる。
硬貨の進化は、初期状態に依存する有効な温度でエネルギーと格子を交換する開放的な2段階システムとしてモデル化できると主張する。
エントロピーバランスは、熱力学の第2法則に従って、進化中に正のエントロピー生成が存在することを示している。 We explore the notion of generated entropy in open quantum systems. We focus on the study of the discrete-time quantum walk on the line, from the entropy production perspective. We argue that the evolution of the coin can be modeled as an open two-level system that exchanges energy with the lattice at some effective temperature that depends on the initial state. The entropy balance shows that there is a positive entropy production during the evolution, in accordance with the second law of thermodynamics. | 翻訳日:2023-05-25 08:22:44 公開日:2020-04-09 |
# ブロッホ球面の非平衡量子熱力学:温度と内部エントロピー生成 Out-of-equilibrium quantum thermodynamics in the Bloch sphere: temperature and internal entropy production ( http://arxiv.org/abs/2004.04845v1 ) ライセンス: Link先を確認 | Andr\'es Vallejo, Alejandro Romanelli and Ra\'ul Donangelo | (参考訳) 開2レベル量子システムの温度の明示的な表現は、環境との弱い相互作用の仮説の下で局所的な性質の関数として得られる。
この温度は平衡状態と平衡状態の両方で定義され、系が熱貯水池と熱平衡に達すると環境温度と一致する。
さらに, この理論的枠組みにおいて, 総エントロピー生産は, 熱伝達による2つの貢献と, 量子ビットによる内部コヒーレンス損失に関連する内部非可逆性に関連する2つの貢献に分割可能であることを示した。
熱容量の正性は、熱平衡におけるよく知られた結果との整合性とともに確立される。
これらの概念を2つの異なるシステムに適用し、古典的なシステムと同様に振舞うことを示す。 An explicit expression for the temperature of an open two-level quantum system is obtained as a function of local properties, under the hypothesis of weak interaction with the environment. This temperature is defined for both equilibrium and out-of-equilibrium states, and coincides with the environment temperature if the system reaches thermal equilibrium with a heat reservoir. Additionally, we show that within this theoretical framework the total entropy production can be partitioned into two contributions: one due to heat transfer, and another, associated to internal irreversibilities, related to the loss of internal coherence by the qubit. The positiveness of the heat capacity is established, as well as its consistency with the well known results at thermal equilibrium. We apply these concepts to two different systems, and show that they behave in analogous ways as their classical counterparts. | 翻訳日:2023-05-25 08:22:23 公開日:2020-04-09 |
# 超伝導量子ビットからの光子の量子トランスダクション Quantum transduction of optical photons from a superconducting qubit ( http://arxiv.org/abs/2004.04838v1 ) ライセンス: Link先を確認 | Mohammad Mirhosseini, Alp Sipahigil, Mahmoud Kalaee, and Oskar Painter | (参考訳) 電気信号と光信号の双方向変換は、グローバルインターネットの基礎にある。
このようなコンバータは、長いハール光通信システムの範囲を広げ、データセンター内で高速光信号をコンピュータ間で交換するために、中継局で使用される。
同様に、単一光子のコヒーレントマイクロ波から光への変換は、有望な量子コンピューティングハードウェアプラットフォームであるリモート接続の超伝導量子プロセッサ間の量子状態の交換を可能にする。
量子ネットワークの可能性にもかかわらず、超伝導量子ビットによる変換プロセスにおける脆弱な量子状態の維持はいまだ解明されていない。
ここでは、超伝導トランスモン量子ビットのマイクロ波励起の光子への変換を示す。
本研究では, クビットの電気的励起を圧電相互作用により単一フォノンに変換し, 続いて光子を放射圧により光光子に変換する中間ナノメカニカル共振器を用いてこれを実現する。
我々は、光ファイバー上での発光光の単一光子検出により、量子ラビ振動を記録することにより、量子ビットからの光子生成を単位よりも大きい信号-雑音で実証する。
デバイスの改良と外部計測のセットアップにより、このような量子トランスデューサは、新しいハイブリッド量子ネットワーク、そして最終的に分散量子コンピュータを実現する実用的なデバイスに繋がる可能性がある。 Bidirectional conversion of electrical and optical signals lies at the foundation of the global internet. Such converters are employed at repeater stations to extend the reach of long-haul fiber optic communication systems and within data centers to exchange high-speed optical signals between computers. Likewise, coherent microwave-to-optical conversion of single photons would enable the exchange of quantum states between remotely connected superconducting quantum processors, a promising quantum computing hardware platform. Despite the prospects of quantum networking, maintaining the fragile quantum state in such a conversion process with superconducting qubits has remained elusive. Here we demonstrate the conversion of a microwave-frequency excitation of a superconducting transmon qubit into an optical photon. We achieve this using an intermediary nanomechanical resonator which converts the electrical excitation of the qubit into a single phonon by means of a piezoelectric interaction, and subsequently converts the phonon to an optical photon via radiation pressure. We demonstrate optical photon generation from the qubit with a signal-to-noise greater than unity by recording quantum Rabi oscillations of the qubit through single-photon detection of the emitted light over an optical fiber. With proposed improvements in the device and external measurement set-up, such quantum transducers may lead to practical devices capable of realizing new hybrid quantum networks, and ultimately, distributed quantum computers. | 翻訳日:2023-05-25 08:22:10 公開日:2020-04-09 |
# 量子コンピュータ上の材料の動的シミュレーションに向けて Towards Dynamic Simulations of Materials on Quantum Computers ( http://arxiv.org/abs/2004.04836v1 ) ライセンス: Link先を確認 | Lindsay Bassman, Kuang Liu, Aravind Krishnamoorthy, Thomas Linker, Yifan Geng, Daniel Shebib, Shogo Fukushima, Fuyuki Shimojo, Rajiv K. Kalia, Aiichiro Nakano, and Priya Vashishta | (参考訳) 量子コンピュータに対する非常に期待された応用は、1980年代にリチャード・ファインマンによって予想されたように、量子多体系の普遍的シミュレータである。
この10年間、量子システムの静的特性、すなわち小さな分子の基底状態エネルギーをシミュレーションする量子コンピューティングの成功を目撃してきた。
しかし、現在の近未来雑音量子コンピュータ上で量子多体ダイナミクスをシミュレートすることは依然として課題である。
ここでは,ibmのq16メルボルン量子プロセッサとリゲッティのaspen量子プロセッサにおける非自明な量子ダイナミクスのシミュレーションを成功させた。
このようなシミュレーションを実行するための完全なコードとステップバイステップのチュートリアルは、これら2つの量子コンピュータの将来の研究のためのアクセス障壁を低くするために含まれている。
この研究は、フロッケ状態の動的局在化やうるさい環境での量子ビットの位相的保護など、近未来の量子コンピュータにおける様々な量子力学の研究に期待できる基礎を築いた。 A highly anticipated application for quantum computers is as a universal simulator of quantum many-body systems, as was conjectured by Richard Feynman in the 1980s. The last decade has witnessed the growing success of quantum computing for simulating static properties of quantum systems, i.e., the ground state energy of small molecules. However, it remains a challenge to simulate quantum many-body dynamics on current-to-near-future noisy intermediate-scale quantum computers. Here, we demonstrate successful simulation of nontrivial quantum dynamics on IBM's Q16 Melbourne quantum processor and Rigetti's Aspen quantum processor; namely, ultrafast control of emergent magnetism by THz radiation in an atomically-thin two-dimensional material. The full code and step-by-step tutorials for performing such simulations are included to lower the barrier to access for future research on these two quantum computers. As such, this work lays a foundation for the promising study of a wide variety of quantum dynamics on near-future quantum computers, including dynamic localization of Floquet states and topological protection of qubits in noisy environments. | 翻訳日:2023-05-25 08:21:49 公開日:2020-04-09 |
# 非/使用の類型を生成する方法 Methods for Generating Typologies of Non/use ( http://arxiv.org/abs/2004.04827v1 ) ライセンス: Link先を確認 | Devansh Saxena, Patrick Skeba, Shion Guha, and Eric P. S. Baumer | (参考訳) テクノロジの先行研究は、ユーザと非ユーザとの単純なバイナリ区別以上のアプローチの必要性を実証している。
本稿では、研究者が研究している特定の社会工学的設定に関連する非利用$^{1}$のタイプを特定できる2種類の方法を提案する。
これらの方法は、facebookの非利用に関する調査データに適用することで示される。
以上の結果から, 提案手法は, ほぼ同等の非使用型を同定した。
また、この2つの手法が、結果の型学の粒度と全サンプルサイズの間にどのように異なるトレードオフを行うかを説明している。
また,これらの手法から得られた異なる型が予測モデルにどのように利用され,両者が相互に相互に相関あるいは不確認を行うことができるかを示す。
この議論は、技術非使用とソーシャルコンピューティングをより広く研究するための、これらの方法の意義と応用を考察している。 Prior studies of technology non-use demonstrate the need for approaches that go beyond a simple binary distinction between users and non-users. This paper proposes a set of two different methods by which researchers can identify types of non/use$^{1}$ relevant to the particular sociotechnical settings they are studying. These methods are demonstrated by applying them to survey data about Facebook non/use. The results demonstrate that the different methods proposed here identify fairly comparable types of non/use. They also illustrate how the two methods make different trade offs between the granularity of the resulting typology and the total sample size. The paper also demonstrates how the different typologies resulting from these methods can be used in predictive modeling, allowing for the two methods to corroborate or disconfirm results from one another. The discussion considers implications and applications of these methods, both for research on technology non/use and for studying social computing more broadly. | 翻訳日:2023-05-25 08:20:58 公開日:2020-04-09 |
# 30m水槽上の水中量子通信 Underwater quantum communication over a 30-meter flume tank ( http://arxiv.org/abs/2004.04821v1 ) ライセンス: Link先を確認 | Felix Hufnagel, Alicia Sit, Fr\'ed\'eric Bouchard, Yingwen Zhang, Duncan England, Khabat Heshami, Benjamin J. Sussman, Ebrahim Karimi | (参考訳) 水中量子通信は近年、偏光と軌道角運動量を用いて研究されている。
ここでは、偏光と軌道角運動量の両方を担持するビームのコヒーレントな重ね合わせのような空間構造モードが、水中量子暗号にも利用できることを示す。
私たちはまた、さまざまな長さの水中チャネルにおける量子通信の分極度を最大30ドルまで使用しています。
水中チャネルは、水中の光乱流として量子通信を確立するための難しい環境であることが証明され、かなりのビームの浪費と歪みをもたらす。
しかし、乱流に関連した誤差は、偏光と空間的に構造化された光子の両方との量子通信リンクにおいて正の鍵を確立する閾値を超える誤差率をもたらすことはない。
また, 水中チャネルが空間構造モードに与える影響を偏光トモグラフィを用いて異なる距離で検討した。 Underwater quantum communication has recently been explored using polarization and orbital angular momentum. Here, we show that spatially structured modes, e.g., a coherent superposition of beams carrying both polarization and orbital angular momentum, can also be used for underwater quantum cryptography. We also use the polarization degree of freedom for quantum communication in an underwater channel having various lengths, up to $30$ meters. The underwater channel proves to be a difficult environment for establishing quantum communication as underwater optical turbulence results in significant beam wandering and distortions. However, the errors associated to the turbulence do not result in error rates above the threshold for establishing a positive key in a quantum communication link with both the polarization and spatially structured photons. The impact of the underwater channel on the spatially structured modes is also investigated at different distances using polarization tomography. | 翻訳日:2023-05-25 08:20:41 公開日:2020-04-09 |
# パラメータ再マッピングとアーキテクチャ探索による高速ニューラルネットワーク適応 Fast Neural Network Adaptation via Parameter Remapping and Architecture Search ( http://arxiv.org/abs/2001.02525v2 ) ライセンス: Link先を確認 | Jiemin Fang, Yuzhu Sun, Kangjian Peng, Qian Zhang, Yuan Li, Wenyu Liu, Xinggang Wang | (参考訳) ディープニューラルネットワークは多くのコンピュータビジョンタスクにおいて顕著なパフォーマンスを達成する。
ほとんどの最先端(sota)セマンティックセグメンテーションとオブジェクト検出アプローチは、イメージ分類用に設計されたニューラルネットワークアーキテクチャをバックボーンとして再利用する。
しかし、近年のneural architecture search (nas) research for detection and segmentationで示されているように、検出とセグメンテーションに特化したネットワークアーキテクチャを設計することで、パフォーマンスの向上を実現することができる。
しかし、大きな課題の1つは、イメージネットが検索空間表現(スーパーネットワーク)や検索ネットワークの事前トレーニングを行っていることである。
本稿では,FNA(Fast Neural Network Adaptation)手法を提案する。この手法は,シードネットワークのアーキテクチャとパラメータ(例えば,高性能で手動で設計したバックボーン)をパラメータリマッピング技術によって異なる深さ,幅,あるいはカーネルのネットワークに適応させることで,NASをより効率的に検出/分離タスクに利用できるようにする。
我々はMobileNetV2上でFNAを行い、手動とNASの両方で設計された既存のネットワークよりも明らかに優れたセグメンテーションと検出のための新しいネットワークを得る。
FNAの総計算コストは、SOTAセグメンテーション/検出NASアプローチよりも大幅に小さく、DPCより1737$\times$、Auto-DeepLabより6.8$\times$、DetNASより7.4$\times$である。
コードはhttps://github.com/jaminfong/fnaで入手できる。 Deep neural networks achieve remarkable performance in many computer vision tasks. Most state-of-the-art (SOTA) semantic segmentation and object detection approaches reuse neural network architectures designed for image classification as the backbone, commonly pre-trained on ImageNet. However, performance gains can be achieved by designing network architectures specifically for detection and segmentation, as shown by recent neural architecture search (NAS) research for detection and segmentation. One major challenge though, is that ImageNet pre-training of the search space representation (a.k.a. super network) or the searched networks incurs huge computational cost. In this paper, we propose a Fast Neural Network Adaptation (FNA) method, which can adapt both the architecture and parameters of a seed network (e.g. a high performing manually designed backbone) to become a network with different depth, width, or kernels via a Parameter Remapping technique, making it possible to utilize NAS for detection/segmentation tasks a lot more efficiently. In our experiments, we conduct FNA on MobileNetV2 to obtain new networks for both segmentation and detection that clearly out-perform existing networks designed both manually and by NAS. The total computation cost of FNA is significantly less than SOTA segmentation/detection NAS approaches: 1737$\times$ less than DPC, 6.8$\times$ less than Auto-DeepLab and 7.4$\times$ less than DetNAS. The code is available at https://github.com/JaminFong/FNA. | 翻訳日:2023-01-13 12:41:26 公開日:2020-04-09 |
# ムッシュルームのメムフラクティブ特性 Mem-fractive Properties of Mushrooms ( http://arxiv.org/abs/2002.06413v2 ) ライセンス: Link先を確認 | Alexander E. Beasley, Mohammed-Salah Abdelouahab, Ren\'e Lozi, Anna L. Powell, and Andrew Adamatzky | (参考訳) メムリスタは、従来の受動的セミコンダクタ装置のI-V特性のループを閉じる。
元々1971年に提案されたmemristorの狩りは、それ以来続いている。
中間子の主な特徴は、現在の抵抗が以前の抵抗の関数であることである。
そのため、デバイスの動作は、その間に電位が適用される方法を変えることによって影響される。
最終的に、情報は memristor にエンコードできる。
生体基質は、すでにいくつかの分裂特性を示すことが示されている。
しかし、多くの医療機器はまだ見つかっていない。
ここでは,カワカワラの果実体がメmri的行動を示すことを示す。
本稿ではキノコのI-V特性について述べる。
前電圧の関数として印加された所定電圧に対する測定電流を調べた結果,キノコはメムリスタであることが判明した。
以上の結果から, 自然はこれらの特異かつ価値のある電気特性を持ち, ハイブリッド電子システムの分野を前進させる可能性を秘めた標本を提供し続けていることが示唆された。 Memristors close the loop for I-V characteristics of the traditional, passive, semi-conductor devices. Originally proposed in 1971, the hunt for the memristor has been going ever since. The key feature of a memristor is that its current resitance is a function of its previous resistance. As such, the behaviour of the device is influenced by changing the way in which potential is applied across it. Ultimately, information can be encoded on memristors. Biological substrates have already been shown to exhibit some memristive properties. However, many memristive devices are yet to be found. Here we show that the fruit bodies of grey oyster fungi Pleurotus ostreatus exhibit memristive behaviours. This paper presents the I-V characteristics of the mushrooms. By examination of the conducted current for a given voltage applied as a function of the previous voltage, it is shown that the mushroom is a memristor. Our results demonstrate that nature continues to provide specimens that hold these unique and valuable electrical characteristics and which have the potential to advance the field of hybrid electronic systems. | 翻訳日:2022-12-31 23:01:56 公開日:2020-04-09 |
# RNE: 数十億ドル規模のレコメンデーションのためのスケーラブルなネットワーク埋め込み RNE: A Scalable Network Embedding for Billion-scale Recommendation ( http://arxiv.org/abs/2003.07158v2 ) ライセンス: Link先を確認 | Jianbin Lin, Daixin Wang, Lu Guan, Yin Zhao, Binqiang Zhao, Jun Zhou, Xiaolong Li, and Yuan Qi | (参考訳) 近年,学術と産業の両方において,レコメンデーションシステムの設計が重要な課題となっている。
しかし,ユーザや項目の多様さ,ユーザの関心事の多様性や動的な性質,数十億規模のシナリオにおいて効果的かつ多様なレコメンデーション結果を効率よく生成できるスケーラブルなレコメンデーションシステムを設計する方法は,既存の手法では依然として困難かつオープンな問題である。
本稿では,ユーザとユーザのインタラクショングラフから,データ効率の高いレコメンデーションベースのNetwork Embedding法であるRNEを提案し,ユーザに対してパーソナライズされた多様なアイテムを提供する。
具体的には,ネットワーク埋め込みのための多様性とダイナミックスを考慮した近傍サンプリング手法を提案する。
一方,提案手法は,ユーザの関心の多様性と動的特性をモデル化し,推薦品質を高めるとともに,ユーザとアイテム間の局所的な構造を維持できる。
一方, サンプリング法は理論上, 全手法の複雑さを低減し, 数十億の推薦が可能となる。
また,設計したアルゴリズムを分散的に実装し,スケーラビリティをさらに向上させる。
実験的に、中国最大のEコマースプラットフォームであるTaobaoのレコメンデーションシナリオにRNEをデプロイし、それを10億規模のユーザテムグラフでトレーニングします。
A/Bテストに関するいくつかのオンラインメトリクスで示されているように、RNEはCFベースの手法と比較して高品質で多様な結果を得ることができる。
また,pinterestデータセット上で,最先端のレコメンデーション手法とネットワーク埋め込み手法を比較してオフライン実験を行った。
その結果,本手法はベースライン法よりも高速に動作しながら,良好な結果が得られることが示された。 Nowadays designing a real recommendation system has been a critical problem for both academic and industry. However, due to the huge number of users and items, the diversity and dynamic property of the user interest, how to design a scalable recommendation system, which is able to efficiently produce effective and diverse recommendation results on billion-scale scenarios, is still a challenging and open problem for existing methods. In this paper, given the user-item interaction graph, we propose RNE, a data-efficient Recommendation-based Network Embedding method, to give personalized and diverse items to users. Specifically, we propose a diversity- and dynamics-aware neighbor sampling method for network embedding. On the one hand, the method is able to preserve the local structure between the users and items while modeling the diversity and dynamic property of the user interest to boost the recommendation quality. On the other hand the sampling method can reduce the complexity of the whole method theoretically to make it possible for billion-scale recommendation. We also implement the designed algorithm in a distributed way to further improves its scalability. Experimentally, we deploy RNE on a recommendation scenario of Taobao, the largest E-commerce platform in China, and train it on a billion-scale user-item graph. As is shown on several online metrics on A/B testing, RNE is able to achieve both high-quality and diverse results compared with CF-based methods. We also conduct the offline experiments on Pinterest dataset comparing with several state-of-the-art recommendation methods and network embedding methods. The results demonstrate that our method is able to produce a good result while runs much faster than the baseline methods. | 翻訳日:2022-12-24 20:52:51 公開日:2020-04-09 |
# PONAS: 極めて効率的なデプロイのためのプログレッシブワンショットニューラルネットワーク検索 PONAS: Progressive One-shot Neural Architecture Search for Very Efficient Deployment ( http://arxiv.org/abs/2003.05112v2 ) ライセンス: Link先を確認 | Sian-Yao Huang and Wei-Ta Chu | (参考訳) 異なるハードウェア制約に適合するようにニューラルネットワークアーキテクチャを設計する、非常に効率的なディープラーニングモデルデプロイメントを実現しています。
制約が与えられた場合、ほとんどのニューラルネットワーク探索(nas)メソッドは、事前訓練された精度予測器に従って一連のサブネットワークをサンプリングするか、スーパーネットから特殊なネットワークを進化させる進化的アルゴリズムを採用するかのどちらかである。
どちらのアプローチも時間がかかる。
ここで、非常に効率的なデプロイメントのキーとなるアイデアは、アーキテクチャ空間を検索する際に、すべてのレイヤですべての候補ブロックの検証精度を格納するテーブルを構築することです。
より厳密なハードウェア制約に対して、この表に基づいて、最小精度の損失をもたらす最適な候補ブロックを選択することにより、特殊ネットワークのアーキテクチャを極めて効率的に決定することができる。
このアイデアを実現するために,プログレッシブNASとワンショット手法の利点を組み合わせたプログレッシブワンショットニューラルアーキテクチャサーチ(PONAS)を提案する。
ponasでは,メタトレーニングステージと微調整ステージを含む2段階のトレーニングスキームを提案する。
探索中、異なるレイヤの候補ブロックを評価し、デプロイに使用する精度テーブルを構築する。
総合的な実験では、PONASは極めて柔軟であり、約10秒で特殊なネットワークのアーキテクチャを見つけることができる。
imagenet分類では、75.2%のtop-1精度が得られ、これはstate of the artsに匹敵する。 We achieve very efficient deep learning model deployment that designs neural network architectures to fit different hardware constraints. Given a constraint, most neural architecture search (NAS) methods either sample a set of sub-networks according to a pre-trained accuracy predictor, or adopt the evolutionary algorithm to evolve specialized networks from the supernet. Both approaches are time consuming. Here our key idea for very efficient deployment is, when searching the architecture space, constructing a table that stores the validation accuracy of all candidate blocks at all layers. For a stricter hardware constraint, the architecture of a specialized network can be very efficiently determined based on this table by picking the best candidate blocks that yield the least accuracy loss. To accomplish this idea, we propose Progressive One-shot Neural Architecture Search (PONAS) that combines advantages of progressive NAS and one-shot methods. In PONAS, we propose a two-stage training scheme, including the meta training stage and the fine-tuning stage, to make the search process efficient and stable. During search, we evaluate candidate blocks in different layers and construct the accuracy table that is to be used in deployment. Comprehensive experiments verify that PONAS is extremely flexible, and is able to find architecture of a specialized network in around 10 seconds. In ImageNet classification, 75.2% top-1 accuracy can be obtained, which is comparable with the state of the arts. | 翻訳日:2022-12-24 14:40:35 公開日:2020-04-09 |
# 深い決定論的ポートフォリオ最適化 Deep Deterministic Portfolio Optimization ( http://arxiv.org/abs/2003.06497v2 ) ライセンス: Link先を確認 | Ayman Chaouki, Stephen Hardiman, Christian Schmidt, Emmanuel S\'eri\'e, and Joachim de Lataillade | (参考訳) 深層強化学習アルゴリズムは最適取引戦略の解法として利用できるか?
この研究の目的は、概念的に単純だが数学的に非自明な取引環境において強化学習アルゴリズムをテストすることである。
最適または最適に近い取引戦略が知られている環境を選択する。
決定論的政策勾配アルゴリズムを深く研究し、このような強化学習エージェントが最適取引戦略の本質的特徴を回復し、最適報酬を得られることを示す。 Can deep reinforcement learning algorithms be exploited as solvers for optimal trading strategies? The aim of this work is to test reinforcement learning algorithms on conceptually simple, but mathematically non-trivial, trading environments. The environments are chosen such that an optimal or close-to-optimal trading strategy is known. We study the deep deterministic policy gradient algorithm and show that such a reinforcement learning agent can successfully recover the essential features of the optimal trading strategies and achieve close-to-optimal rewards. | 翻訳日:2022-12-24 02:25:02 公開日:2020-04-09 |
# Gimme Signals:マルチモーダルアクティビティ認識のための識別信号符号化 Gimme Signals: Discriminative signal encoding for multimodal activity recognition ( http://arxiv.org/abs/2003.06156v2 ) ライセンス: Link先を確認 | Raphael Memmesheimer, Nick Theisen, Dietrich Paulus | (参考訳) 複数のセンサのモーダル性をサポートする簡易かつ効果的かつ柔軟な動作認識法を提案する。
多変量信号シーケンスは画像にエンコードされ、最近提案された efficientnet cnn アーキテクチャで分類される。
我々の焦点は、特定の適応を伴わずに様々なセンサーモードをうまく一般化し、良好な結果が得られるアプローチを見つけることであった。
提案手法は,スケルトンシーケンス,慣性およびモーションキャプチャの測定値を含む4つのアクション認識データセットと,最大120のアクションクラスを含む \wifiフィンガープリントに適用する。
NTU RGB+D 120データセットにおける現在の最高のCNNベースのアプローチを定義し、ARIL Wi-Fiデータセット上のアートの状態を+6.78%引き上げ、UTD-MHAD慣性ベースラインを+14.4%改善し、UTD-MHAD骨格ベースラインを1.13%改善し、シミテートモーションキャプチャデータ(80/20分割)で96.11%を達成する。
さらに,信号レベルでのモダリティ融合と信号の低減を両立させて,表現の過負荷を防止する実験を行った。 We present a simple, yet effective and flexible method for action recognition supporting multiple sensor modalities. Multivariate signal sequences are encoded in an image and are then classified using a recently proposed EfficientNet CNN architecture. Our focus was to find an approach that generalizes well across different sensor modalities without specific adaptions while still achieving good results. We apply our method to 4 action recognition datasets containing skeleton sequences, inertial and motion capturing measurements as well as \wifi fingerprints that range up to 120 action classes. Our method defines the current best CNN-based approach on the NTU RGB+D 120 dataset, lifts the state of the art on the ARIL Wi-Fi dataset by +6.78%, improves the UTD-MHAD inertial baseline by +14.4%, the UTD-MHAD skeleton baseline by 1.13% and achieves 96.11% on the Simitate motion capturing data (80/20 split). We further demonstrate experiments on both, modality fusion on a signal level and signal reduction to prevent the representation from overloading. | 翻訳日:2022-12-24 02:06:36 公開日:2020-04-09 |
# 小物体検出のための拡張特徴ピラミッドネットワーク Extended Feature Pyramid Network for Small Object Detection ( http://arxiv.org/abs/2003.07021v2 ) ライセンス: Link先を確認 | Chunfang Deng, Mengmeng Wang, Liang Liu, Yong Liu | (参考訳) 小さな物体検出は、わずか数ピクセルの小さな物体の情報を抽出することが難しいため、未解決の課題である。
機能ピラミッドネットワークにおけるスケールレベルの対応検出はこの問題を軽減するが、様々なスケールの特徴結合は小さなオブジェクトのパフォーマンスを損なう。
本稿では,小型物体検出に特化した超高分解能ピラミッドレベルの拡張特徴ピラミッドネットワーク(efpn)を提案する。
具体的には,特徴の超解法と信頼性のある地域情報を同時に抽出するために,特徴テクスチャ転送(FTT)と呼ばれる新しいモジュールを設計する。
さらに,前景と背景の領域不均衡を軽減するために,前景バランス損失関数を設計する。
本実験では,提案するefpnは計算とメモリの両方において効率的であり,tsinghua-tencent 100kおよび一般オブジェクト検出データセットms cocoの小さなカテゴリにおいて最先端の結果が得られる。 Small object detection remains an unsolved challenge because it is hard to extract information of small objects with only a few pixels. While scale-level corresponding detection in feature pyramid network alleviates this problem, we find feature coupling of various scales still impairs the performance of small objects. In this paper, we propose extended feature pyramid network (EFPN) with an extra high-resolution pyramid level specialized for small object detection. Specifically, we design a novel module, named feature texture transfer (FTT), which is used to super-resolve features and extract credible regional details simultaneously. Moreover, we design a foreground-background-balanced loss function to alleviate area imbalance of foreground and background. In our experiments, the proposed EFPN is efficient on both computation and memory, and yields state-of-the-art results on small traffic-sign dataset Tsinghua-Tencent 100K and small category of general object detection dataset MS COCO. | 翻訳日:2022-12-23 03:22:08 公開日:2020-04-09 |
# 医用画像分割のための半教師付き少数ショット学習 Semi-supervised few-shot learning for medical image segmentation ( http://arxiv.org/abs/2003.08462v2 ) ライセンス: Link先を確認 | Abdur R Feyjie, Reza Azad, Marco Pedersoli, Claude Kauffman, Ismail Ben Ayed, Jose Dolz | (参考訳) 近年、特に医用画像において、セマンティックセグメンテーションにおけるディープニューラルネットワークの大きな進歩が見られた。
それでもハイパフォーマンスモデルのトレーニングには大量のピクセルレベルの地上真実マスクが必要であり、医療領域では入手が禁止される。
さらに、このようなモデルを低データ環境でトレーニングすることで、過剰フィッティングのリスクが高まる。
大規模な注釈付きデータセットの必要性を緩和しようとする最近の試みは、少数のラベル付き例から新しいクラスを学習することで、この欠点に対処する、マイショット学習パラダイムの下でトレーニング戦略を開発した。
この文脈では、セグメンテーションモデルは、異なるセグメンテーション問題を表すエピソードで訓練され、それぞれが非常に小さなラベル付きデータセットでトレーニングされる。
そこで本研究では,各エピソードでラベルなし画像が利用可能となる,意味セグメンテーションのための新しいマイ・ショット学習フレームワークを提案する。
この新たな学習パラダイムに対処するために、セマンティックな特徴学習のために、非常に強力な監視信号(データ自体から派生した)を活用可能なサロゲートタスクを含めることを提案する。
ラベルなしのサロゲートタスクをエピソディクストレーニングに含めることで、より強力な特徴表現が得られ、最終的に、未認識タスクのジェネラビリティが向上することを示している。
2つの公開データセットにおける皮膚病変分割作業における本手法の有効性を実証する。
さらに、我々のアプローチは汎用的でモデルに依存しないものであり、異なる深層アーキテクチャと組み合わせることができる。 Recent years have witnessed the great progress of deep neural networks on semantic segmentation, particularly in medical imaging. Nevertheless, training high-performing models require large amounts of pixel-level ground truth masks, which can be prohibitive to obtain in the medical domain. Furthermore, training such models in a low-data regime highly increases the risk of overfitting. Recent attempts to alleviate the need for large annotated datasets have developed training strategies under the few-shot learning paradigm, which addresses this shortcoming by learning a novel class from only a few labeled examples. In this context, a segmentation model is trained on episodes, which represent different segmentation problems, each of them trained with a very small labeled dataset. In this work, we propose a novel few-shot learning framework for semantic segmentation, where unlabeled images are also made available at each episode. To handle this new learning paradigm, we propose to include surrogate tasks that can leverage very powerful supervisory signals --derived from the data itself-- for semantic feature learning. We show that including unlabeled surrogate tasks in the episodic training leads to more powerful feature representations, which ultimately results in better generability to unseen tasks. We demonstrate the efficiency of our method in the task of skin lesion segmentation in two publicly available datasets. Furthermore, our approach is general and model-agnostic, which can be combined with different deep architectures. | 翻訳日:2022-12-22 12:59:46 公開日:2020-04-09 |
# sejnowski氏の“the unreasonable effectiveness of deep learning in artificial intelligence”に対するコメント [arxiv:2002.04806] Comments on Sejnowski's "The unreasonable effectiveness of deep learning in artificial intelligence" [arXiv:2002.04806] ( http://arxiv.org/abs/2003.09415v2 ) ライセンス: Link先を確認 | Leslie S. Smith | (参考訳) Terry Sejnowski氏の2020年の論文(arXiv:2002.04806)は、"The Unreasonable Effective of Deep Learning in Artificial Intelligence"と題されている。
しかし、この論文は、なぜDeep Convolutional Neural Networks(DCNN)がモデルとして訓練された多くのマッピングを近似できるのかという暗黙の疑問に答えようとはしない。
詳細な数学的解析は存在するが、この短い論文では、これらのネットワークの使用方法や、トレーニングによって達成できる機能の一部(元の関数空間のある場所から始まります)、そして、これらのネットワークが実際に適用される機能などを考慮して、問題を異なる視点で検討しようと試みている。 Terry Sejnowski's 2020 paper [arXiv:2002.04806] is entitled "The unreasonable effectiveness of deep learning in artificial intelligence". However, the paper doesn't attempt to answer the implied question of why Deep Convolutional Neural Networks (DCNNs) can approximate so many of the mappings that they have been trained to model. While there are detailed mathematical analyses, this short paper attempts to look at the issue differently, considering the way that these networks are used, the subset of these functions that can be achieved by training (starting from some location in the original function space), as well as the functions to which these networks will actually be applied. | 翻訳日:2022-12-21 22:06:58 公開日:2020-04-09 |
# 画像分類のためのロバストかつオンザフライデータセット Robust and On-the-fly Dataset Denoising for Image Classification ( http://arxiv.org/abs/2003.10647v2 ) ライセンス: Link先を確認 | Jiaming Song, Lunjia Hu, Michael Auli, Yann Dauphin, Tengyu Ma | (参考訳) 過パラメータニューラルネットワークの記憶は、誤記された例の存在下での一般化を著しく損なう可能性がある。
しかし、弱い監督の下で収集された非常に大きなデータセットでは、誤ったラベルの例を避けるのは難しい。
実例で学習した場合のランダムラベル付き例の損失分布を反則的に推論することでこの問題に対処し、この情報を用いてトレーニングセットからノイズの多い例を取り除く。
まず,一様ランダムラベルの例は,学習率の高い確率勾配降下の訓練において,高い損失率を示す。
そこで本研究では, ネットワークパラメータのみを用いて, 対実例の損失分布をモデル化し, 顕著な成功例をモデル化する。
最後に,モデル化された損失分布の量子量を超える損失の例を取り除くことを提案する。
この結果、On-the-fly Data Denoising (ODD)は、誤ってラベル付けされた例に対して堅牢で、通常のトレーニングと比べて計算オーバーヘッドがほとんどない単純なアルゴリズムである。
ODDはWebVisionやClothing1Mといった現実世界のデータセットを含む、幅広いデータセットで最先端の結果を達成することができる。 Memorization in over-parameterized neural networks could severely hurt generalization in the presence of mislabeled examples. However, mislabeled examples are hard to avoid in extremely large datasets collected with weak supervision. We address this problem by reasoning counterfactually about the loss distribution of examples with uniform random labels had they were trained with the real examples, and use this information to remove noisy examples from the training set. First, we observe that examples with uniform random labels have higher losses when trained with stochastic gradient descent under large learning rates. Then, we propose to model the loss distribution of the counterfactual examples using only the network parameters, which is able to model such examples with remarkable success. Finally, we propose to remove examples whose loss exceeds a certain quantile of the modeled loss distribution. This leads to On-the-fly Data Denoising (ODD), a simple yet effective algorithm that is robust to mislabeled examples, while introducing almost zero computational overhead compared to standard training. ODD is able to achieve state-of-the-art results on a wide range of datasets including real-world ones such as WebVision and Clothing1M. | 翻訳日:2022-12-20 08:51:48 公開日:2020-04-09 |
# tldr:繰り返し発声低減のためのトークン損失動的重み付け TLDR: Token Loss Dynamic Reweighting for Reducing Repetitive Utterance Generation ( http://arxiv.org/abs/2003.11963v2 ) ライセンス: Link先を確認 | Shaojie Jiang, Thomas Wolf, Christof Monz, Maarten de Rijke | (参考訳) 自然言語生成(NLG)モデルは、繰り返し発話を生成する傾向にある。
本研究では,recurrent neural network (rnn) とtransformerアーキテクチャを用いて,エンコーダ・デコーダモデルの繰り返し問題について検討する。
この目的のために,エンコーダ・デコーダアーキテクチャを必要とする他のタスクよりも問題は顕著であるchit-chatタスクを考える。
まず,モデルアーキテクチャの影響について検討する。
RNNの事前接続と高速道路接続を利用することで、より低い繰り返し率を達成することができる。
しかし、この方法はトランスフォーマーのような他のモデルにも一般化しない。
より深い理由は、トレーニングコーパスでは、生成モデルが他の人よりも学習するのが困難であり、学習が終わると、ハードトークンはいまだ学習が不足しているため、繰り返し世代が発生する可能性が高い、という仮説を立てる。
この仮説に基づき,個々のトークン損失に対して微分可能重みを適用するトークン損失動的重み付け(tldr)を提案する。
ハードトークンの重量を高くし、簡単なトークンの重量を低くすることで、NLGモデルは異なるペースで個々のトークンを学習することができる。
チットチャットベンチマークデータセットの実験により、TLDRは異なる重み付け関数を用いたベースラインよりも、RNNとトランスフォーマーアーキテクチャの両方の繰り返し還元に有効であることが示された。 Natural Language Generation (NLG) models are prone to generating repetitive utterances. In this work, we study the repetition problem for encoder-decoder models, using both recurrent neural network (RNN) and transformer architectures. To this end, we consider the chit-chat task, where the problem is more prominent than in other tasks that need encoder-decoder architectures. We first study the influence of model architectures. By using pre-attention and highway connections for RNNs, we manage to achieve lower repetition rates. However, this method does not generalize to other models such as transformers. We hypothesize that the deeper reason is that in the training corpora, there are hard tokens that are more difficult for a generative model to learn than others and, once learning has finished, hard tokens are still under-learned, so that repetitive generations are more likely to happen. Based on this hypothesis, we propose token loss dynamic reweighting (TLDR) that applies differentiable weights to individual token losses. By using higher weights for hard tokens and lower weights for easy tokens, NLG models are able to learn individual tokens at different paces. Experiments on chit-chat benchmark datasets show that TLDR is more effective in repetition reduction for both RNN and transformer architectures than baselines using different weighting functions. | 翻訳日:2022-12-19 21:40:25 公開日:2020-04-09 |
# ビジュアルストリームにおける変化の検出と記述 Detection and Description of Change in Visual Streams ( http://arxiv.org/abs/2003.12633v2 ) ライセンス: Link先を確認 | Davis Gilton, Ruotian Luo, Rebecca Willett, Greg Shakhnarovich | (参考訳) 本稿では,視覚的ストリームの変化を分析するための枠組みについて述べる。
本稿では,変化の自然言語記述を生成するための学習にラベルのないデータを組み込む新しい手法を提案する。
また、視覚的ストリームの変化時期を推定するフレームワークも開発しています。
学習した表現を変化証拠と認識された変化の一貫性に使い、それらを正規化グラフカットに基づく変化検出器に組み合わせる。
筆者らがコントリビューションの一部としてリリースしたビジュアルストリームデータセットの実験的評価から,自然言語記述による表現学習は,言語に依存しない手法と比較して,変化検出精度を大幅に向上することが示された。 This paper presents a framework for the analysis of changes in visual streams: ordered sequences of images, possibly separated by significant time gaps. We propose a new approach to incorporating unlabeled data into training to generate natural language descriptions of change. We also develop a framework for estimating the time of change in visual stream. We use learned representations for change evidence and consistency of perceived change, and combine these in a regularized graph cut based change detector. Experimental evaluation on visual stream datasets, which we release as part of our contribution, shows that representation learning driven by natural language descriptions significantly improves change detection accuracy, compared to methods that do not rely on language. | 翻訳日:2022-12-19 05:21:04 公開日:2020-04-09 |
# 極低照度生分解のための物理ベースノイズ生成モデル A Physics-based Noise Formation Model for Extreme Low-light Raw Denoising ( http://arxiv.org/abs/2003.12751v2 ) ライセンス: Link先を確認 | Kaixuan Wei, Ying Fu, Jiaolong Yang, Hua Huang | (参考訳) リッチでリアルなデータの欠如 学習された単一の画像分別アルゴリズムは、トレーニングに使用されるデータに似ていない実際の生画像に貧弱に一般化する。
この問題はヘテロセダスティックなガウスモデルによるノイズ合成によって緩和できるが、デジタルカメラエレクトロニクスによるノイズ源は、特に極低照度条件下での生測に顕著な影響にもかかわらず、まだほとんど見過ごされている。
そこで本研究では,cmosフォトセンサの特性に基づく高精度なノイズ生成モデルを提案する。
また,提案するノイズモデルに基づき,新しいデバイスでは容易に再現可能な,利用可能な最新のデジタルカメラのノイズパラメータを校正する手法を提案する。
我々は、既存のスキームで訓練されたニューラルネットワークの一般化可能性について体系的に研究し、様々なブランドの最新のデジタルカメラをカバーする新しい低照度デノイジングデータセットを導入した。
その結果,提案するノイズ生成モデルを用いることで,ネットワークがリッチな実データで訓練されたかのようにその能力に到達できることが示され,ノイズ生成モデルの有効性が示された。 Lacking rich and realistic data, learned single image denoising algorithms generalize poorly to real raw images that do not resemble the data used for training. Although the problem can be alleviated by the heteroscedastic Gaussian model for noise synthesis, the noise sources caused by digital camera electronics are still largely overlooked, despite their significant effect on raw measurement, especially under extremely low-light condition. To address this issue, we present a highly accurate noise formation model based on the characteristics of CMOS photosensors, thereby enabling us to synthesize realistic samples that better match the physics of image formation process. Given the proposed noise model, we additionally propose a method to calibrate the noise parameters for available modern digital cameras, which is simple and reproducible for any new device. We systematically study the generalizability of a neural network trained with existing schemes, by introducing a new low-light denoising dataset that covers many modern digital cameras from diverse brands. Extensive empirical results collectively show that by utilizing our proposed noise formation model, a network can reach the capability as if it had been trained with rich real data, which demonstrates the effectiveness of our noise formation model. | 翻訳日:2022-12-18 23:54:29 公開日:2020-04-09 |
# ストリーミングネットワーク:ハードワイヤおよび入力励振によるノイズロバスト性の向上とフィルタの多様性 Streaming Networks: Increase Noise Robustness and Filter Diversity via Hard-wired and Input-induced Sparsity ( http://arxiv.org/abs/2004.03334v2 ) ライセンス: Link先を確認 | Sergey Tarasenko and Fumihiko Takahashi | (参考訳) CNNは多くのアプリケーションで最先端のパフォーマンスを達成した。
近年の研究では、CNNの認識精度が、画像にノイズが生じると大幅に低下することが示された。
ノイズ破損画像の頑健な認識精度の問題に焦点をあてる。
ストリーミングネットワークと呼ばれる新しいネットワークアーキテクチャを導入する。
各ストリームは元のイメージの特定の強度スライスを入力として取り、ストリームパラメータは独立して訓練される。
我々は実験の次元として、ネットワーク容量、ハードワイヤおよび入力誘起空間を使用する。
その結果,ハードワイヤとインプットインデューサの両方が存在するだけで,頑健な雑音画像認識が可能となった。
Streaming Netsは両方の種類の疎性を持ち、ノイズに対する堅牢性を示す唯一のアーキテクチャである。
最後に、フィルタの多様性の増大を示すために、第1のconv層のフィルタ重みの分布が、ハードワイヤおよびドメイン誘起スパーシティおよびキャパシティの度合いが増加するにつれて、徐々に均一な分布に近づくことを示す。 The CNNs have achieved a state-of-the-art performance in many applications. Recent studies illustrate that CNN's recognition accuracy drops drastically if images are noise corrupted. We focus on the problem of robust recognition accuracy of noise-corrupted images. We introduce a novel network architecture called Streaming Networks. Each stream is taking a certain intensity slice of the original image as an input, and stream parameters are trained independently. We use network capacity, hard-wired and input-induced sparsity as the dimensions for experiments. The results indicate that only the presence of both hard-wired and input-induces sparsity enables robust noisy image recognition. Streaming Nets is the only architecture which has both types of sparsity and exhibits higher robustness to noise. Finally, to illustrate increase in filter diversity we illustrate that a distribution of filter weights of the first conv layer gradually approaches uniform distribution as the degree of hard-wired and domain-induced sparsity and capacities increases. | 翻訳日:2022-12-18 08:40:48 公開日:2020-04-09 |
# フラップを与えない方法:効率的な推論のために正規化とpruningを組み合わせる How Not to Give a FLOP: Combining Regularization and Pruning for Efficient Inference ( http://arxiv.org/abs/2003.13593v2 ) ライセンス: Link先を確認 | Tai Vu, Emily Wen, Roy Nehoran | (参考訳) デプロイフェーズにおけるディープラーニングモデルのスピードアップという課題は、現代のテクノロジ業界において、大きくて高価なボトルネックでした。
本稿では,Deep Neural Networks(DNN)における計算複雑性の低減と,より効率的な推論のための正規化とプルーニングの併用について検討する。
特に,浮動小数点演算(FLOP)の最小化に焦点をあて,ミックスアップとカットアウトの正規化とソフトフィルタプルーニングをResNetアーキテクチャに適用する。
さらに,ネットワークプルーニングと協調して正規化を行うことにより,これらの組み合わせが,各手法を個別に大幅に改善することを示す。 The challenge of speeding up deep learning models during the deployment phase has been a large, expensive bottleneck in the modern tech industry. In this paper, we examine the use of both regularization and pruning for reduced computational complexity and more efficient inference in Deep Neural Networks (DNNs). In particular, we apply mixup and cutout regularizations and soft filter pruning to the ResNet architecture, focusing on minimizing floating-point operations (FLOPs). Furthermore, by using regularization in conjunction with network pruning, we show that such a combination makes a substantial improvement over each of the two techniques individually. | 翻訳日:2022-12-18 06:22:38 公開日:2020-04-09 |
# BosphorusSign22k手話認識データセット BosphorusSign22k Sign Language Recognition Dataset ( http://arxiv.org/abs/2004.01283v2 ) ライセンス: Link先を確認 | O\u{g}ulcan \"Ozdemir, Ahmet Alp K{\i}nd{\i}ro\u{g}lu, Necati Cihan Camg\"oz and Lale Akarun | (参考訳) 手話認識は困難な研究領域である。
最近、データの可用性の向上によって、いくつかの進歩が見られた。
本稿では,コンピュータビジョン,ビデオ認識,ディープラーニング研究コミュニティを対象とした大規模手話データセットであるbosphorussign22kについて紹介する。
このデータセットの主な目的は、その広大な語彙に対するトルコ手話認識の新しいベンチマーク、ネイティブシグナーによる頻繁な反復、高い記録品質、そしてそれが包含する記号のユニークな構文特性として機能することである。
我々はまた、手話生成などの他のタスクを奨励するために、最先端の人間のポーズ推定も提供する。
我々は、他の公開データセットを調査し、BosphorusSign22kが、類似のSign Languageリソースの普及を通じて可能になっている将来の研究にどのように貢献できるかを拡大する。
我々は、データセットに関する今後の研究を支えるために、広範囲にわたる実験を行い、基礎となる結果を提示した。 Sign Language Recognition is a challenging research domain. It has recently seen several advancements with the increased availability of data. In this paper, we introduce the BosphorusSign22k, a publicly available large scale sign language dataset aimed at computer vision, video recognition and deep learning research communities. The primary objective of this dataset is to serve as a new benchmark in Turkish Sign Language Recognition for its vast lexicon, the high number of repetitions by native signers, high recording quality, and the unique syntactic properties of the signs it encompasses. We also provide state-of-the-art human pose estimates to encourage other tasks such as Sign Language Production. We survey other publicly available datasets and expand on how BosphorusSign22k can contribute to future research that is being made possible through the widespread availability of similar Sign Language resources. We have conducted extensive experiments and present baseline results to underpin future research on our dataset. | 翻訳日:2022-12-17 13:06:06 公開日:2020-04-09 |
# クロスドメインオブジェクト検出のための深いアライメント適応 Deeply Aligned Adaptation for Cross-domain Object Detection ( http://arxiv.org/abs/2004.02093v2 ) ライセンス: Link先を確認 | Minghao Fu, Zhenshan Xie, Wen Li, Lixin Duan | (参考訳) クロスドメインオブジェクト検出は、新しい環境にうまく適応する堅牢な検出器を構築するのに役立つため、現実世界のアプリケーションで最近ますます注目を集めている。
本研究では,Faster R-CNNをベースとしたエンドツーエンドのソリューションを提案する。そこでは,ソースイメージ(漫画など)に対して,トレーニング中の対象のアノテーション(水彩など)には適用できない。
異なるニューラルネットワーク層間の移動確率が互いに異なるという観測結果に動機づけられて,r-cnnの異なる層に複数の領域アライメント戦略を適用し,アライメント強度を徐々に低層から高層に低減させる手法を提案する。
さらに,ネットワーク内の領域提案を得た後,フォアグラウンドおよび背景領域の特徴をソースドメインとターゲットドメインから分離してアライメントすることで,ドメインミスマッチをさらに低減するためのフォアグラウンド・アライメント・モジュールを開発した。
ベンチマークデータセットに関する広範な実験により,提案手法の有効性が示された。 Cross-domain object detection has recently attracted more and more attention for real-world applications, since it helps build robust detectors adapting well to new environments. In this work, we propose an end-to-end solution based on Faster R-CNN, where ground-truth annotations are available for source images (e.g., cartoon) but not for target ones (e.g., watercolor) during training. Motivated by the observation that the transferabilities of different neural network layers differ from each other, we propose to apply a number of domain alignment strategies to different layers of Faster R-CNN, where the alignment strength is gradually reduced from low to higher layers. Moreover, after obtaining region proposals in our network, we develop a foreground-background aware alignment module to further reduce the domain mismatch by separately aligning features of the foreground and background regions from the source and target domains. Extensive experiments on benchmark datasets demonstrate the effectiveness of our proposed approach. | 翻訳日:2022-12-16 13:04:21 公開日:2020-04-09 |
# 創発的コミュニケーションを用いたネットワーク型マルチエージェント強化学習 Networked Multi-Agent Reinforcement Learning with Emergent Communication ( http://arxiv.org/abs/2004.02780v2 ) ライセンス: Link先を確認 | Shubham Gupta, Rishi Hazra, Ambedkar Dukkipati | (参考訳) MARL(Multi-Agent Reinforcement Learning)法は,他の学習エージェントの存在下で活動するエージェントに対して最適なポリシーを求める。
これを実現する中心はエージェントの調整方法です。
コーディネートするひとつの方法は、相互通信を学ぶことです。
エージェントは共通のタスクを実行するために学習しながら、言語を開発できるだろうか?
本稿では,協調エージェントが固定基盤ネットワークを介して相互に接続されるmarl問題を定式化し,検討する。
これらのエージェントは、離散シンボルを交換することで、ネットワークの端に沿って通信することができる。
しかし、これらのシンボルのセマンティクスは事前に定義されておらず、訓練中、エージェントは目標を達成するのに役立つ言語を開発する必要がある。
本稿では,創発的コミュニケーションを用いたエージェントの訓練手法を提案する。
提案手法をトラヒックコントローラの管理問題に適用し,多数の強力なベースラインと比較して最先端の性能を実現することにより,提案手法の適用性を示す。
より重要なことは、例えば、開発された言語が基盤となるネットワークトポロジーとの関係を実証するために、創発的通信の詳細な分析を行うことである。
我々の知る限りでは、ネットワーク化されたMARL設定における創発的コミュニケーションの奥行き分析を行う上で、幅広い問題に適用できる唯一の方法である。 Multi-Agent Reinforcement Learning (MARL) methods find optimal policies for agents that operate in the presence of other learning agents. Central to achieving this is how the agents coordinate. One way to coordinate is by learning to communicate with each other. Can the agents develop a language while learning to perform a common task? In this paper, we formulate and study a MARL problem where cooperative agents are connected to each other via a fixed underlying network. These agents can communicate along the edges of this network by exchanging discrete symbols. However, the semantics of these symbols are not predefined and, during training, the agents are required to develop a language that helps them in accomplishing their goals. We propose a method for training these agents using emergent communication. We demonstrate the applicability of the proposed framework by applying it to the problem of managing traffic controllers, where we achieve state-of-the-art performance as compared to a number of strong baselines. More importantly, we perform a detailed analysis of the emergent communication to show, for instance, that the developed language is grounded and demonstrate its relationship with the underlying network topology. To the best of our knowledge, this is the only work that performs an in depth analysis of emergent communication in a networked MARL setting while being applicable to a broad class of problems. | 翻訳日:2022-12-16 07:21:50 公開日:2020-04-09 |
# dmlo: ディープマッチングlidarオドメトリ DMLO: Deep Matching LiDAR Odometry ( http://arxiv.org/abs/2004.03796v2 ) ライセンス: Link先を確認 | Zhichao Li, Naiyan Wang | (参考訳) LiDARオドメトリーは、ロボティクスや自律運転など、さまざまな分野の基本的なタスクである。
この問題は、システムが実世界のノイズの多いデータで非常に堅牢であることを要求するため、難しい。
既存のメソッドはほとんどが局所的な反復メソッドです。
非一様かつスパースなLiDARデータの正確なマッチングペアを抽出することは依然として困難であるため、特徴に基づくグローバルな登録法は好ましくない。
本稿では,LiDAR odometry タスクに適用可能な特徴マッチング手法を,新しい学習ベースフレームワークであるDeep Matching LiDAR Odometry (DMLO)を提案する。
最近の多くの学習手法とは異なり、DMLOはフレームワークの幾何学的制約を明示的に強制する。
具体的には、DMLOは6-DoFのポーズ推定を2つの部分に分解し、2つのスキャン間の正確な対応と、Singular Value Decomposition (SVD) による閉じた解による厳密な変換推定を提供する学習ベースのマッチングネットワークである。
実世界のデータセットKITTIとArgoverseの総合的な実験結果から、我々のDMLOは既存の学習手法よりも劇的に優れており、最先端の幾何学的アプローチと同等であることが示された。 LiDAR odometry is a fundamental task for various areas such as robotics, autonomous driving. This problem is difficult since it requires the systems to be highly robust running in noisy real-world data. Existing methods are mostly local iterative methods. Feature-based global registration methods are not preferred since extracting accurate matching pairs in the nonuniform and sparse LiDAR data remains challenging. In this paper, we present Deep Matching LiDAR Odometry (DMLO), a novel learning-based framework which makes the feature matching method applicable to LiDAR odometry task. Unlike many recent learning-based methods, DMLO explicitly enforces geometry constraints in the framework. Specifically, DMLO decomposes the 6-DoF pose estimation into two parts, a learning-based matching network which provides accurate correspondences between two scans and rigid transformation estimation with a close-formed solution by Singular Value Decomposition (SVD). Comprehensive experimental results on real-world datasets KITTI and Argoverse demonstrate that our DMLO dramatically outperforms existing learning-based methods and comparable with the state-of-the-art geometry based approaches. | 翻訳日:2022-12-15 09:31:15 公開日:2020-04-09 |
# 古典的および量子モデルを用いた人為的ビットストリームの予測 Predicting human-generated bitstreams using classical and quantum models ( http://arxiv.org/abs/2004.04671v1 ) ライセンス: Link先を確認 | Alex Bocharov, Michael Freedman, Eshan Kemp, Martin Roetteler, and Krysta M.Svore | (参考訳) ある思考学派は、人間の意思決定は量子的な論理を示すと主張している。
脳が実際に実際の量子機構によって駆動されるかどうかは不明であるが、ある研究者は決定論理が現象学的に非古典的であることを示唆している。
本稿では,この視点を探求するための実証的枠組みを開発し,実装する。
低幅,低深さ,パラメタライズド量子回路を用いて二分決定をエミュレートする。
ここで、エンタングルメントは単純なビット予測ゲームにおけるパターン分析のリソースとして機能する。
パラメータ更新とクラス推論を計測結果の古典的後処理によって行う間、ビットストリーム内の相関を検出するために量子処理を用いるハイブリッド量子支援機械学習戦略を評価する。
シミュレーションの結果,2量子変動回路の族は,ニューラルネットやロジスティック自己回帰のような古典的ソリューションと同じビット予測精度を実現するのに十分であることが示唆された。
したがって、この単純なシナリオで証明可能な「量子優位性」を確立できないため、人間の生成したビットストリームの古典的予測可能性解析が小さな量子モデルによって達成できることを示す。 A school of thought contends that human decision making exhibits quantum-like logic. While it is not known whether the brain may indeed be driven by actual quantum mechanisms, some researchers suggest that the decision logic is phenomenologically non-classical. This paper develops and implements an empirical framework to explore this view. We emulate binary decision-making using low width, low depth, parameterized quantum circuits. Here, entanglement serves as a resource for pattern analysis in the context of a simple bit-prediction game. We evaluate a hybrid quantum-assisted machine learning strategy where quantum processing is used to detect correlations in the bitstreams while parameter updates and class inference are performed by classical post-processing of measurement results. Simulation results indicate that a family of two-qubit variational circuits is sufficient to achieve the same bit-prediction accuracy as the best traditional classical solution such as neural nets or logistic autoregression. Thus, short of establishing a provable "quantum advantage" in this simple scenario, we give evidence that the classical predictability analysis of a human-generated bitstream can be achieved by small quantum models. | 翻訳日:2022-12-15 03:36:04 公開日:2020-04-09 |
# Friend or Faux: ソーシャルネットワーク上のフェイクアカウントのグラフによる早期検出 Friend or Faux: Graph-Based Early Detection of Fake Accounts on Social Networks ( http://arxiv.org/abs/2004.04834v1 ) ライセンス: Link先を確認 | Adam Breuer, Roee Eilat, and Udi Weinsberg | (参考訳) 本稿では,ソーシャルネットワーク上での偽ユーザアカウントの早期発見の問題点を,他のユーザとのネットワーク接続のみに基づいて検討する。
こうしたアカウントの削除は、ソーシャルネットワークの完全性を維持する上で重要な課題であり、早期発見は、これらのアカウントが与える損害を減らすのに役立つ。
しかし、新しい偽アカウントはグラフベースのアルゴリズムで検出するのが困難であることが知られている。
我々は,新しいユーザが偽アカウント(sybil')であるかどうかを,(I)友達リクエストターゲットの選択を集約し,(II)これらのターゲットの応答を集約することで決定するSybilEdgeアルゴリズムを提案する。
SybilEdgeはこのアグリゲーションを実行し、これらのターゲットが他の偽ユーザーと実際のユーザーの間で好まれる程度にユーザーのターゲットの選択に重みを与え、また、これらのターゲットが偽ユーザーと実際のユーザーに対して異なる反応を示す程度にします。
我々は、SybilEdgeがFacebookネットワーク上で新しいフェイクユーザーを素早く検出し、最先端のアルゴリズムより優れていることを示す。
また、sybiledgeはトレーニングデータのノイズラベル付けに堅牢であり、ネットワーク内の偽アカウントの発生頻度も異なり、フェイクが友達リクエストのターゲットを選択できる方法もいくつか示しています。
私たちの知る限りでは、グラフベースのアルゴリズムが少数の友人リクエストを送信したばかりの新規ユーザに対して高いパフォーマンス(auc>0.9)を達成したのは、これが初めてです。 In this paper, we study the problem of early detection of fake user accounts on social networks based solely on their network connectivity with other users. Removing such accounts is a core task for maintaining the integrity of social networks, and early detection helps to reduce the harm that such accounts inflict. However, new fake accounts are notoriously difficult to detect via graph-based algorithms, as their small number of connections are unlikely to reflect a significant structural difference from those of new real accounts. We present the SybilEdge algorithm, which determines whether a new user is a fake account (`sybil') by aggregating over (I) her choices of friend request targets and (II) these targets' respective responses. SybilEdge performs this aggregation giving more weight to a user's choices of targets to the extent that these targets are preferred by other fakes versus real users, and also to the extent that these targets respond differently to fakes versus real users. We show that SybilEdge rapidly detects new fake users at scale on the Facebook network and outperforms state-of-the-art algorithms. We also show that SybilEdge is robust to label noise in the training data, to different prevalences of fake accounts in the network, and to several different ways fakes can select targets for their friend requests. To our knowledge, this is the first time a graph-based algorithm has been shown to achieve high performance (AUC>0.9) on new users who have only sent a small number of friend requests. | 翻訳日:2022-12-15 03:35:18 公開日:2020-04-09 |
# ケアロボットとしてのコロボット Co-Robots as Care Robots ( http://arxiv.org/abs/2004.04374v1 ) ライセンス: Link先を確認 | Oliver Bendel | (参考訳) コラボレーションとコラボレーションのロボット、コロボットやコボットは、工場の不可欠な部分だ。
例えば、彼らは自動車セクターのフィッターと密接に連携しており、誰もが最善を尽くしている。
しかし、この新しいロボットは、生産や物流だけでなく、サービス分野、特にそれらとユーザとの近接が望ましくない、あるいは避けられない場合にも関係がある。
何十年もの間、全く異なる種類の個々のソリューションがケアで開発されてきた。
現在、専門家はロボットに頼り、ケアやセラピーに関わる特別なタスクを教えている。
本稿では,介護支援におけるコロボの長所だけでなく,人間とロボットの相互作用やコミュニケーションに関する情報も提供する。
この論文は、F&P RoboticsのLioなど、さまざまな老人ホームや老人ホームですでにテストされているモデルに基づいており、関連する研究結果を使用している。
著者らは、コラボロボットは様々な方法でケアとサポートに理想的であることを示せる。
もちろん、機能と受け入れを保証するためにいくつかのポイントを考慮することも重要です。 Cooperation and collaboration robots, co-robots or cobots for short, are an integral part of factories. For example, they work closely with the fitters in the automotive sector, and everyone does what they do best. However, the novel robots are not only relevant in production and logistics, but also in the service sector, especially where proximity between them and the users is desired or unavoidable. For decades, individual solutions of a very different kind have been developed in care. Now experts are increasingly relying on co-robots and teaching them the special tasks that are involved in care or therapy. This article presents the advantages, but also the disadvantages of co-robots in care and support, and provides information with regard to human-robot interaction and communication. The article is based on a model that has already been tested in various nursing and retirement homes, namely Lio from F&P Robotics, and uses results from accompanying studies. The authors can show that co-robots are ideal for care and support in many ways. Of course, it is also important to consider a few points in order to guarantee functionality and acceptance. | 翻訳日:2022-12-15 03:32:12 公開日:2020-04-09 |
# 無線フェデレーション学習ネットワークにおけるクライアント選択と帯域割り当て : 長期的展望 Client Selection and Bandwidth Allocation in Wireless Federated Learning Networks: A Long-Term Perspective ( http://arxiv.org/abs/2004.04314v1 ) ライセンス: Link先を確認 | Jie Xu, Heqiang Wang | (参考訳) 本稿では,従来の無線ネットワークにおけるフェデレーション学習(FL)について検討し,学習クライアントがコーディネートサーバに共通の無線リンクを共有して,ローカルデータを用いてフェデレーションモデルトレーニングを行う。
このような無線フェデレーション学習ネットワーク(WFLN)では、無線とクライアントのエネルギー資源が限られているため、クライアントの選択方法や、各学習ラウンドで選択したクライアント間で帯域幅を割り当てる方法に大きく依存する。
既存の研究は、FLを最適化するために限られた無線リソースを割り当てようと試みてきたが、彼らは個々の学習ラウンドにおける問題に注目し、フェデレーション学習の本質的かつ重要な特徴を見落としている。
本稿では,学習ラウンドが時間的に相互依存するだけでなく,最終学習結果に対して異なる意味を持つことを認識して,WFLNの資源配分に新たな長期的視点をもたらす。
この目的のために、まずデータ駆動実験を設計し、異なる時間的クライアント選択パターンが、かなり異なる学習性能をもたらすことを示す。
得られた知見に基づき、長期クライアントエネルギー制約下での連系クライアント選択と帯域幅割り当てのための確率的最適化問題を定式化し、現在利用可能な無線チャネル情報のみを利用するが、長期的な性能保証を実現する新しいアルゴリズムを開発した。
さらなる実験により,提案アルゴリズムは所望の時間的クライアント選択パターンとなり,ネットワーク環境の変化に適応し,FLの長期的影響を無視するベンチマークをはるかに上回っていることが示された。 This paper studies federated learning (FL) in a classic wireless network, where learning clients share a common wireless link to a coordinating server to perform federated model training using their local data. In such wireless federated learning networks (WFLNs), optimizing the learning performance depends crucially on how clients are selected and how bandwidth is allocated among the selected clients in every learning round, as both radio and client energy resources are limited. While existing works have made some attempts to allocate the limited wireless resources to optimize FL, they focus on the problem in individual learning rounds, overlooking an inherent yet critical feature of federated learning. This paper brings a new long-term perspective to resource allocation in WFLNs, realizing that learning rounds are not only temporally interdependent but also have varying significance towards the final learning outcome. To this end, we first design data-driven experiments to show that different temporal client selection patterns lead to considerably different learning performance. With the obtained insights, we formulate a stochastic optimization problem for joint client selection and bandwidth allocation under long-term client energy constraints, and develop a new algorithm that utilizes only currently available wireless channel information but can achieve long-term performance guarantee. Further experiments show that our algorithm results in the desired temporal client selection pattern, is adaptive to changing network environments and far outperforms benchmarks that ignore the long-term effect of FL. | 翻訳日:2022-12-15 03:30:44 公開日:2020-04-09 |
# 限定記憶による探索:コイントスキング,雑音比較,マルチアーマッド帯域に対するストリーミングアルゴリズム Exploration with Limited Memory: Streaming Algorithms for Coin Tossing, Noisy Comparisons, and Multi-Armed Bandits ( http://arxiv.org/abs/2004.04666v1 ) ライセンス: Link先を確認 | Sepehr Assadi, Chen Wang | (参考訳) 以下の抽象的なコイントスリング問題を考える: 未知のバイアスを持つ$n$コインのセットが与えられたとき、最小数のコイントスを使用して最も偏りのあるコインを見つける。
これは理論計算機科学と機械学習における様々な探索問題の共通の抽象化であり、長年にわたって広く研究されてきた。
特に、最適なサンプル複雑性(コイントスの数)を持つアルゴリズムは、この問題に対してかなり前から知られていた。
大規模データセット処理への応用により、ストリーミングモデルにおいて最適なコイントス数でこの問題を解決するための空間的複雑さについて検討する。
このモデルでは、コインは1枚ずつ到着し、アルゴリズムは任意の時点で限られた数のコインしか保存できない。
最適なサンプル複雑性を伴うコイン投げ問題の以前のアルゴリズムは、コインを全て保存する必要のある反復的な排除に基づいているため、メモリ非効率なストリーミングアルゴリズムに繋がる。
まず、$o(\log{n})$コインのみを保存し、その後、さらに繰り返し精錬する簡単なアルゴリズムから始め、$o(\log\log{(n)})$メモリ、$o(\log^*{(n)})$メモリ、そして最後に1つの追加コインだけをメモリに格納するアルゴリズムへと至ります。
さらに、我々はアルゴリズムを、最も偏りが強いコインの$k$や、ノイズ比較を用いた上位$k$要素の探索問題、確率的マルチアームバンディットにおける$\epsilon$-bestアームの発見の問題にまで拡張し、これらの問題に対する効率的なストリーミングアルゴリズムを得る。 Consider the following abstract coin tossing problem: Given a set of $n$ coins with unknown biases, find the most biased coin using a minimal number of coin tosses. This is a common abstraction of various exploration problems in theoretical computer science and machine learning and has been studied extensively over the years. In particular, algorithms with optimal sample complexity (number of coin tosses) have been known for this problem for quite some time. Motivated by applications to processing massive datasets, we study the space complexity of solving this problem with optimal number of coin tosses in the streaming model. In this model, the coins are arriving one by one and the algorithm is only allowed to store a limited number of coins at any point -- any coin not present in the memory is lost and can no longer be tossed or compared to arriving coins. Prior algorithms for the coin tossing problem with optimal sample complexity are based on iterative elimination of coins which inherently require storing all the coins, leading to memory-inefficient streaming algorithms. We remedy this state-of-affairs by presenting a series of improved streaming algorithms for this problem: we start with a simple algorithm which require storing only $O(\log{n})$ coins and then iteratively refine it further and further, leading to algorithms with $O(\log\log{(n)})$ memory, $O(\log^*{(n)})$ memory, and finally a one that only stores a single extra coin in memory -- the same exact space needed to just store the best coin throughout the stream. Furthermore, we extend our algorithms to the problem of finding the $k$ most biased coins as well as other exploration problems such as finding top-$k$ elements using noisy comparisons or finding an $\epsilon$-best arm in stochastic multi-armed bandits, and obtain efficient streaming algorithms for these problems. | 翻訳日:2022-12-15 03:30:16 公開日:2020-04-09 |
# ニューラルネットワークに結合した生体膜を用いた高速周波数識別と音素認識 Fast frequency discrimination and phoneme recognition using a biomimetic membrane coupled to a neural network ( http://arxiv.org/abs/2004.04459v1 ) ライセンス: Link先を確認 | Woo Seok Lee, Hyunjae Kim, Andrew N. Cleland, and Kang-Hun Ahn | (参考訳) ヒトの耳では、基底膜は音声認識において中心的な役割を果たす。
音によって興奮すると、この膜は周波数依存性の変位パターンに応答し、聴覚毛細胞とヒトの神経系が結合して検出・同定される。
この構造にインスパイアされた我々は,畳み込みニューラルネットワーク(CNN)のトレーニングに使用した,可聴信号に応答して空間変位パターンを生成する人工膜を設計・製作した。
単一の周波数音で訓練すると、このシステムは周波数に密接な間隔で音を区別することができる。
音声母音の認識を訓練する場合、このシステムは離散フーリエ変換(DFT)、ズームFFT、チャープz変換(特に短時間ウィンドウでのテスト)など、既存の音素認識方法よりも優れる。
したがって、この音声認識方式は、既存の方法に比べて高速で正確な音響識別において大きな利点をもたらす。 In the human ear, the basilar membrane plays a central role in sound recognition. When excited by sound, this membrane responds with a frequency-dependent displacement pattern that is detected and identified by the auditory hair cells combined with the human neural system. Inspired by this structure, we designed and fabricated an artificial membrane that produces a spatial displacement pattern in response to an audible signal, which we used to train a convolutional neural network (CNN). When trained with single frequency tones, this system can unambiguously distinguish tones closely spaced in frequency. When instead trained to recognize spoken vowels, this system outperforms existing methods for phoneme recognition, including the discrete Fourier transform (DFT), zoom FFT and chirp z-transform, especially when tested in short time windows. This sound recognition scheme therefore promises significant benefits in fast and accurate sound identification compared to existing methods. | 翻訳日:2022-12-15 03:29:14 公開日:2020-04-09 |
# 反射光と深部ニューラルネットワークを用いた適応光学 Adaptive optics with reflected light and deep neural networks ( http://arxiv.org/abs/2004.04603v1 ) ライセンス: Link先を確認 | Ivan Vishniakou, Johannes D. Seelig | (参考訳) 光散乱と収差は生体組織における光学顕微鏡を制限し、適応光学技術の発展を動機付ける。
本稿では、反射光と深部ニューラルネットワークをエピ検出構成に適合させる適応光学法を提案する。
励起及び検出経路収差と対応する反射焦点画像からなるサンプル収差の大規模なデータセットを生成する。
これらのデータセットは、ディープニューラルネットワークのトレーニングに使用される。
トレーニング後、これらのネットワークは、散乱サンプルから記録された反射光画像に基づく励起と検出の収差を分離し、独立して補正することができる。
同様の深層学習法は散乱ガイド星でも示される。
予測収差補正は2つの光子イメージングを用いて検証する。 Light scattering and aberrations limit optical microscopy in biological tissue, which motivates the development of adaptive optics techniques. Here, we develop a method for adaptive optics with reflected light and deep neural networks compatible with an epi-detection configuration. Large datasets of sample aberrations which consist of excitation and detection path aberrations as well as the corresponding reflected focus images are generated. These datasets are used for training deep neural networks. After training, these networks can disentangle and independently correct excitation and detection aberrations based on reflected light images recorded from scattering samples. A similar deep learning approach is also demonstrated with scattering guide stars. The predicted aberration corrections are validated using two photon imaging. | 翻訳日:2022-12-15 03:28:58 公開日:2020-04-09 |
# 意味のあるテキストの2つの半分は統計的に異なる Two halves of a meaningful text are statistically different ( http://arxiv.org/abs/2004.06474v1 ) ライセンス: Link先を確認 | Weibing Deng, R. Xie, S. Deng, and Armen E. Allahverdyan | (参考訳) 意味のあるテキスト(おそらく未知のシステムで書かれた)と無意味な記号の集合を区別する統計的特徴は?
ここでは、テキストの前半の機能と後半の機能を比較することで、この問題に答える。
この比較は、多くのパラメータ(スタイル、ジャンルなど)の値が同じであるため、隠れた効果を明らかにすることができる。
前半部は後半部より異なっており, 稀な語が多いことが判明した。
また、前半の単語は、周波数と逆空間周期の違いという意味で、テキスト上では均質に分散しない。
これらの違いは、我々が調査した数百の比較的短いテキストの大部分を占めている。
統計学的意義はウィルコクソン試験によって確認される。
テキストの線形構造を破壊する単語のランダムな置換後に、違いは消える。
この違いは意味のあるテキストの時間的非対称性を明らかにし、テキストが単語反転形式よりも自然な方法で(すなわち物語に沿って)圧縮可能であることを示すことによって確認される。
これらの結果は、テキストの意味的構成(物語の流れによって定義される)と統計的特徴を結びつけるものであると推測する。 Which statistical features distinguish a meaningful text (possibly written in an unknown system) from a meaningless set of symbols? Here we answer this question by comparing features of the first half of a text to its second half. This comparison can uncover hidden effects, because the halves have the same values of many parameters (style, genre {\it etc}). We found that the first half has more different words and more rare words than the second half. Also, words in the first half are distributed less homogeneously over the text in the sense of of the difference between the frequency and the inverse spatial period. These differences hold for the significant majority of several hundred relatively short texts we studied. The statistical significance is confirmed via the Wilcoxon test. Differences disappear after random permutation of words that destroys the linear structure of the text. The differences reveal a temporal asymmetry in meaningful texts, which is confirmed by showing that texts are much better compressible in their natural way (i.e. along the narrative) than in the word-inverted form. We conjecture that these results connect the semantic organization of a text (defined by the flow of its narrative) to its statistical features. | 翻訳日:2022-12-15 03:23:14 公開日:2020-04-09 |
# 二色反射モデルに基づく改ざん画像中のスプライシングエッジの同定 Identification of splicing edges in tampered image based on Dichromatic Reflection Model ( http://arxiv.org/abs/2004.04317v1 ) ライセンス: Link先を確認 | Zhe Shen, Peng Sun, Yubo Lang, Lei Liu, Silong Peng | (参考訳) イメージングは、多くの光電変換を組み合わせた洗練されたプロセスであり、最終的な画像の視覚的知覚を超えたスペクトル的なシグネチャを生み出す。
オリジナルの画像に対する操作は、これらの署名を破壊し、必然的にいくつかの痕跡を最終偽造に残します。
そこで本研究では,スプライシングエッジと自然エッジを区別する新しい光学物理法を提案する。
まず、法医学画像をRGBからSとo1o2の色空間に変換する。
次に、二色反射モデルの仮定により、画像のエッジは合成勾配によって発見され、その異なる光度特性に基づいて異なるタイプに分類される。
最後に、スプライシングエッジは単純な論理アルゴリズムによって自然に対して予約される。
実験の結果,提案手法の有効性が示された。 Imaging is a sophisticated process combining a plenty of photovoltaic conversions, which lead to some spectral signatures beyond visual perception in the final images. Any manipulation against an original image will destroy these signatures and inevitably leave some traces in the final forgery. Therefore we present a novel optic-physical method to discriminate splicing edges from natural edges in a tampered image. First, we transform the forensic image from RGB into color space of S and o1o2. Then on the assumption of Dichromatic Reflection Model, edges in the image are discovered by composite gradient and classified into different types based on their different photometric properties. Finally, splicing edges are reserved against natural ones by a simple logical algorithm. Experiment results show the efficacy of the proposed method. | 翻訳日:2022-12-15 03:22:58 公開日:2020-04-09 |
# ロバストな非剛性登録のための準ニュートン解法 Quasi-Newton Solver for Robust Non-Rigid Registration ( http://arxiv.org/abs/2004.04322v1 ) ライセンス: Link先を確認 | Yuxin Yao, Bailin Deng, Weiwei Xu, Juyong Zhang | (参考訳) 不完全なデータ(ノイズ、外れ値、部分的な重複)と高い自由度は、コンピュータビジョンにおける古典的な問題である。
既存の手法では、通常$\ell_{p}$型ロバスト推定器を用いて適合性と滑らかさを定式化しており、近位作用素は結果として生じる非スムース問題を解くために用いられる。
しかし、これらのアルゴリズムの緩やかな収束は幅広い応用を制限する。
本稿では,データフィッティングと正規化のためのグローバルなスムーズなロバストなロバストな推定器をベースとした,ロバストな非剛性登録のための定式化を提案する。
本稿では,L-BFGS を用いた最小二乗問題を解くため,各繰り返しを最小化するアルゴリズムを提案する。
大規模実験により,2つの形状間の非剛性アライメントの有効性が実証され,登録精度と計算速度の点で最先端の手法より優れていることを示す定量的評価が得られた。
ソースコードはhttps://github.com/juyong/fast_rnrrで入手できる。 Imperfect data (noise, outliers and partial overlap) and high degrees of freedom make non-rigid registration a classical challenging problem in computer vision. Existing methods typically adopt the $\ell_{p}$ type robust estimator to regularize the fitting and smoothness, and the proximal operator is used to solve the resulting non-smooth problem. However, the slow convergence of these algorithms limits its wide applications. In this paper, we propose a formulation for robust non-rigid registration based on a globally smooth robust estimator for data fitting and regularization, which can handle outliers and partial overlaps. We apply the majorization-minimization algorithm to the problem, which reduces each iteration to solving a simple least-squares problem with L-BFGS. Extensive experiments demonstrate the effectiveness of our method for non-rigid alignment between two shapes with outliers and partial overlap, with quantitative evaluation showing that it outperforms state-of-the-art methods in terms of registration accuracy and computational speed. The source code is available at https://github.com/Juyong/Fast_RNRR. | 翻訳日:2022-12-15 03:22:47 公開日:2020-04-09 |
# MoreFusion: 体積核融合による6次元ポス推定のためのマルチオブジェクト推論 MoreFusion: Multi-object Reasoning for 6D Pose Estimation from Volumetric Fusion ( http://arxiv.org/abs/2004.04336v1 ) ライセンス: Link先を確認 | Kentaro Wada, Edgar Sucar, Stephen James, Daniel Lenton, Andrew J. Davison | (参考訳) ロボットや他のスマートデバイスは、接触、物理、閉塞を推論するために、車載の視覚システムから効率的なオブジェクトベースのシーン表現を必要とする。
認識された正確な対象モデルは、認識されていない構造の非パラメトリックな再構成と共に重要な役割を果たす。
本稿では,複数の既知の物体の接触と隠蔽の正確なポーズを,リアルタイムな多視点視から推定するシステムを提案する。
提案手法では,単一のrgb-dビューから3dオブジェクトポーズの提案を行い,カメラの動きに合わせて複数のビューからのポーズ推定と非パラメトリック占有情報を蓄積し,接触する複数のオブジェクトに対して一貫性のある非干渉ポーズを推定する共同最適化を行う。
提案手法の精度とロバスト性を2つのオブジェクトデータセット(YCB-Video)で実験的に検証する。
rgb-d視覚のみを使用して、ロボットアームが複雑な物体の山を正確かつ秩序的に分解する、リアルタイムロボットアプリケーションを示す。 Robots and other smart devices need efficient object-based scene representations from their on-board vision systems to reason about contact, physics and occlusion. Recognized precise object models will play an important role alongside non-parametric reconstructions of unrecognized structures. We present a system which can estimate the accurate poses of multiple known objects in contact and occlusion from real-time, embodied multi-view vision. Our approach makes 3D object pose proposals from single RGB-D views, accumulates pose estimates and non-parametric occupancy information from multiple views as the camera moves, and performs joint optimization to estimate consistent, non-intersecting poses for multiple objects in contact. We verify the accuracy and robustness of our approach experimentally on 2 object datasets: YCB-Video, and our own challenging Cluttered YCB-Video. We demonstrate a real-time robotics application where a robot arm precisely and orderly disassembles complicated piles of objects, using only on-board RGB-D vision. | 翻訳日:2022-12-15 03:22:26 公開日:2020-04-09 |
# 部分アノテーション用疎結合型高調波検出器:シグネトリング細胞検出への応用 Decoupled Gradient Harmonized Detector for Partial Annotation: Application to Signet Ring Cell Detection ( http://arxiv.org/abs/2004.04455v1 ) ライセンス: Link先を確認 | Tiancheng Lin, Yuanfan Guo, Canqian Yang, Jiancheng Yang and Yi Xu | (参考訳) signet ring cell carcinomaの早期診断は、患者の生存率を劇的に改善する。
公開データセットや専門家レベルのアノテーションが欠如しているため,シグナリング細胞(SRC)の自動検出は十分に研究されていない。
MICCAI DigestPath2019の課題では、前景(SRC)バックグラウンド(正常組織領域)クラス不均衡とは別に、SRCは高価な医用画像アノテーションによって部分的に注釈付けされ、ラベルノイズが生じる。
そこで本研究では,dghm(decoupled gradient harmonizing mechanism)を提案し,dghm-c lossと呼ばれる分類損失に組み込む。
具体的には, 正(srcs)および負(正規組織)の例に加えて, クリーンな例からノイズの多い例を分離し, 対応する勾配分布の分類をそれぞれ調和させる。
ホイッスルとベルがなければ、私たちは挑戦で2位になった。
アブレーション研究とラベル欠落率の制御実験により、dghm-cの損失は部分的な注釈付き物体検出において大幅な改善をもたらすことが示されている。 Early diagnosis of signet ring cell carcinoma dramatically improves the survival rate of patients. Due to lack of public dataset and expert-level annotations, automatic detection on signet ring cell (SRC) has not been thoroughly investigated. In MICCAI DigestPath2019 challenge, apart from foreground (SRC region)-background (normal tissue area) class imbalance, SRCs are partially annotated due to costly medical image annotation, which introduces extra label noise. To address the issues simultaneously, we propose Decoupled Gradient Harmonizing Mechanism (DGHM) and embed it into classification loss, denoted as DGHM-C loss. Specifically, besides positive (SRCs) and negative (normal tissues) examples, we further decouple noisy examples from clean examples and harmonize the corresponding gradient distributions in classification respectively. Without whistles and bells, we achieved the 2nd place in the challenge. Ablation studies and controlled label missing rate experiments demonstrate that DGHM-C loss can bring substantial improvement in partially annotated object detection. | 翻訳日:2022-12-15 03:21:45 公開日:2020-04-09 |
# コーヒー栽培における持続的害虫防除のためのコンピュータビジョンを用いたIoTスマートトラップの提案 A Proposed IoT Smart Trap using Computer Vision for Sustainable Pest Control in Coffee Culture ( http://arxiv.org/abs/2004.04504v1 ) ライセンス: Link先を確認 | Vitor Alexandre Campos Figueiredo, Samuel Mafra and Joel Rodrigues | (参考訳) モノのインターネット(IoT)は、いくつかの領域における生活の質を改善する巨大な可能性を持つ多目的技術として登場しています。
特にIoTは、環境的により持続可能なものにするために、農業に応用されている。
例えば、電子トラップは殺虫剤を使わずに害虫を防げる可能性がある。
本稿では、コンピュータビジョンを用いて興味のある昆虫を識別するIoT機能を備えたスマートトラップを提案する。
ソリューションには
1) カメラ,gpsセンサ,及びモータアクチュエータを備えた組込みシステム
2) データベースサービスプロバイダとしてのIoTミドルウェア
3) 設定可能なヒートマップによるデータ提示のためのwebアプリケーション。
提案手法の実証が明らかになり, 主な結論は, プランテーションにおける害虫濃度に対する認識と, 農薬による従来の防除に対する代替害虫コントロールとしての生存性である。 The Internet of Things (IoT) is emerging as a multi-purpose technology with enormous potential for improving the quality of life in several areas. In particular, IoT has been applied in agriculture to make it more sustainable ecologically. For instance, electronic traps have the potential to perform pest control without any pesticide. In this paper, a smart trap with IoT capabilities that uses computer vision to identify the insect of interest is proposed. The solution includes 1) an embedded system with camera, GPS sensor and motor actuators; 2) an IoT middleware as database service provider, and 3) a Web application to present data by a configurable heat map. The demonstration of proposed solution is exposed and the main conclusions are the perception about pest concentration at the plantation and the viability as alternative pest control over traditional control based on pesticides. | 翻訳日:2022-12-15 03:21:20 公開日:2020-04-09 |
# モバイルエッジ計算オフロードのための知識蒸留 Knowledge Distillation for Mobile Edge Computation Offloading ( http://arxiv.org/abs/2004.04366v1 ) ライセンス: Link先を確認 | Haowei Chen, Liekang Zeng, Shuai Yu, and Xu Chen | (参考訳) エッジ計算のオフロードにより、モバイル端末はエッジサーバに計算集約タスクを実行することができる。
エンドデバイスは、タスクをエッジサーバやクラウドサーバにオフロードするか、現在のネットワーク状態やデバイスのプロファイルに応じてローカルに実行するかを、オンライン形式で決定できる。
本稿では,エンドデバイスが計算タスクの遅延を最適化するための細かな決定を迅速に行うことを支援する,deep imitation learning (dil) と knowledge distillation (kd) に基づくエッジ計算オフローディングフレームワークを提案する。
計算オフロード問題をマルチラベル分類問題に形式化する。
DILモデルのトレーニングサンプルはオフラインで生成される。
モデルが訓練された後、我々は知識蒸留を利用して軽量dilモデルを得る。
数値実験により,モデルによるオフロード決定が,他の関連ポリシーによるレイテンシ指標よりも優れていることが示された。
また、我々のモデルはすべてのポリシーの中で最も短い推論遅延を持つ。 Edge computation offloading allows mobile end devices to put execution of compute-intensive task on the edge servers. End devices can decide whether offload the tasks to edge servers, cloud servers or execute locally according to current network condition and devices' profile in an online manner. In this article, we propose an edge computation offloading framework based on Deep Imitation Learning (DIL) and Knowledge Distillation (KD), which assists end devices to quickly make fine-grained decisions to optimize the delay of computation tasks online. We formalize computation offloading problem into a multi-label classification problem. Training samples for our DIL model are generated in an offline manner. After model is trained, we leverage knowledge distillation to obtain a lightweight DIL model, by which we further reduce the model's inference delay. Numerical experiment shows that the offloading decisions made by our model outperforms those made by other related policies in latency metric. Also, our model has the shortest inference delay among all policies. | 翻訳日:2022-12-15 03:20:17 公開日:2020-04-09 |
# x3d:効率的なビデオ認識のための拡張アーキテクチャ X3D: Expanding Architectures for Efficient Video Recognition ( http://arxiv.org/abs/2004.04730v1 ) ライセンス: Link先を確認 | Christoph Feichtenhofer | (参考訳) 本稿では,複数のネットワーク軸に沿って,空間,時間,幅,深さの小さな2次元画像分類アーキテクチャを段階的に拡張する,効率的なビデオネットワークのファミリであるx3dを提案する。
機械学習における特徴選択法に触発されて、簡単なステップワイズネットワーク拡張アプローチが採用され、各ステップで単一の軸を広げ、高い精度と複雑性のトレードオフを達成する。
X3D を特定の対象の複雑性に拡張するために, 進行する前方展開と後方縮小を行う。
X3Dは4.8倍と5.5倍の乗算加算とパラメータを必要としながら最先端の性能を達成する。
最も驚くべき発見は、高時空間分解能のネットワークは、ネットワーク幅とパラメータの点で極めて軽量でありながら、良好に動作可能であることです。
我々は,ビデオ分類と検出ベンチマークにおいて,前例のない効率で競合精度を示す。
コードは以下の通り。 https://github.com/facebookresearch/SlowFast This paper presents X3D, a family of efficient video networks that progressively expand a tiny 2D image classification architecture along multiple network axes, in space, time, width and depth. Inspired by feature selection methods in machine learning, a simple stepwise network expansion approach is employed that expands a single axis in each step, such that good accuracy to complexity trade-off is achieved. To expand X3D to a specific target complexity, we perform progressive forward expansion followed by backward contraction. X3D achieves state-of-the-art performance while requiring 4.8x and 5.5x fewer multiply-adds and parameters for similar accuracy as previous work. Our most surprising finding is that networks with high spatiotemporal resolution can perform well, while being extremely light in terms of network width and parameters. We report competitive accuracy at unprecedented efficiency on video classification and detection benchmarks. Code will be available at: https://github.com/facebookresearch/SlowFast | 翻訳日:2022-12-15 03:13:29 公開日:2020-04-09 |
# イネの早期診断 Early Disease Diagnosis for Rice Crop ( http://arxiv.org/abs/2004.04775v1 ) ライセンス: Link先を確認 | M. Hammad Masood, Habiba Saim, Murtaza Taj, Mian M. Awais | (参考訳) 既存の多くの技術は、様々な病気による作物の被害を自動的に推定する。
しかし、早期検出は損傷自体を予防または軽減することができる。
早期検出における既存技術の限られた性能は、局所情報の欠如である。
代わりに、各画像の病的セグメントごとにアノテーション付きのデータセットを提案する。
既存のアプローチとは異なり、画像の健全な分類や病的な分類ではなく、画像の各セグメントの局所的な分類を提案する。
本手法はMask RCNNをベースとして,植物上の感染部位の拡がりの場所を提供する。
これにより、作物の損傷の延長を推定できる。
提案手法は,局所化情報を組み込まずに得られた58.4%と比較して,全体の87.6%の精度を得た。 Many existing techniques provide automatic estimation of crop damage due to various diseases. However, early detection can prevent or reduce the extend of damage itself. The limited performance of existing techniques in early detection is lack of localized information. We instead propose a dataset with annotations for each diseased segment in each image. Unlike existing approaches, instead of classifying images into either healthy or diseased, we propose to provide localized classification for each segment of an images. Our method is based on Mask RCNN and provides location as well as extend of infected regions on the plant. Thus the extend of damage on the crop can be estimated. Our method has obtained overall 87.6% accuracy on the proposed dataset as compared to 58.4% obtained without incorporating localized information. | 翻訳日:2022-12-15 03:13:11 公開日:2020-04-09 |
# メディアを用いた国際公衆衛生監視:GPHINの再設計 Global Public Health Surveillance using Media Reports: Redesigning GPHIN ( http://arxiv.org/abs/2004.04596v1 ) ライセンス: Link先を確認 | Dave Carter, Marta Stojanovic, Philip Hachey, Kevin Fournier, Simon Rodier, Yunli Wang, Berry de Bruijn | (参考訳) 世界の公衆衛生監視は、信頼できる健康報告の報告構造と伝達に依存している。
しかし実際には、これらのプロセスは常に十分に速いとは限らないし、手続き的、技術的、または政治的障壁によって妨げられることもある。
GPHIN(グローバル・パブリック・ヘルス・インテリジェンス・ネットワーク、GPHIN)は1990年代後半に、健康イベントのメインストリームニュースの収集のために設計された。
本稿では,2017年に稼働した次世代gphinの概要と,その新機能とイノベーションを支える設計決定に関する報告について述べる。 Global public health surveillance relies on reporting structures and transmission of trustworthy health reports. But in practice, these processes may not always be fast enough, or are hindered by procedural, technical, or political barriers. GPHIN, the Global Public Health Intelligence Network, was designed in the late 1990s to scour mainstream news for health events, as that travels faster and more freely. This paper outlines the next generation of GPHIN, which went live in 2017, and reports on design decisions underpinning its new functions and innovations. | 翻訳日:2022-12-15 03:12:05 公開日:2020-04-09 |
# 暴力音楽 vs. 暴力と音楽 - ロンドンにおけるレイプと暴力犯罪 Violent music vs violence and music: Drill rap and violent crime in London ( http://arxiv.org/abs/2004.04598v1 ) ライセンス: Link先を確認 | Bennett Kleinberg and Paul McFarlane | (参考訳) YouTubeなどのソーシャルメディアプラットフォームからドリルミュージックビデオを削除するという現在の方針は、ドリルラップの共犯や暴力と両者の因果関係が混同されるリスクがあるため、いまだに議論の余地がある。
経験的に、ドリル音楽とギャング暴力が関連しているという推測を支持する証拠があるかどうかという問題を再考する。
そのことを示唆する新たな経験的洞察を与えます
一 ドリル音楽の歌詞がより肯定的になったときは、時間とともに否定的になることがないこと。
二 個々のドリルアーティストが、ドリルジャンルの他のアーティストと同様の感情軌道を有すること。
三 ロンドンにおける3種類の警察記録暴力犯罪データと比較して、ドリル音楽と実生活暴力との間に有意義な関係はない。
我々は、問題にまつわる多くのエビデンスを構築するのに役立つ新しい仕事のアイデアを提案する。 The current policy of removing drill music videos from social media platforms such as YouTube remains controversial because it risks conflating the co-occurrence of drill rap and violence with a causal chain of the two. Empirically, we revisit the question of whether there is evidence to support the conjecture that drill music and gang violence are linked. We provide new empirical insights suggesting that: i) drill music lyrics have not become more negative over time if anything they have become more positive; ii) individual drill artists have similar sentiment trajectories to other artists in the drill genre, and iii) there is no meaningful relationship between drill music and real-life violence when compared to three kinds of police-recorded violent crime data in London. We suggest ideas for new work that can help build a much-needed evidence base around the problem. | 翻訳日:2022-12-15 03:11:55 公開日:2020-04-09 |
# 絶滅危惧語スコルトサミ語のfst形態 FST Morphology for the Endangered Skolt Sami Language ( http://arxiv.org/abs/2004.04803v1 ) ライセンス: Link先を確認 | Jack Rueter and Mika H\"am\"al\"ainen | (参考訳) 我々は,FSTを用いたSkolt Samiのモルフォロジー解析器とジェネレータの開発について述べる。
他の少数民族のウラル語と同様に、スコルト・サーミ語は豊富な形態を呈しており、他方では黄金の標準資料はほとんど存在しない。
これにより、NLPによる研究は、固体形態解析なしでは困難である。
言語は深刻な危険にさらされており、本論文で提示された研究は、その再生活動において大きな部分を占めている。
さらに、インフラストラクチャにはあまり文書化されていないファシリテーションと説明プラクティスによって、説明を分散します。
現在、このアナライザは148の屈折パラダイムで30,000以上のSkolt Sami語、12以上の派生形式をカバーしている。 We present advances in the development of a FST-based morphological analyzer and generator for Skolt Sami. Like other minority Uralic languages, Skolt Sami exhibits a rich morphology, on the one hand, and there is little golden standard material for it, on the other. This makes NLP approaches for its study difficult without a solid morphological analysis. The language is severely endangered and the work presented in this paper forms a part of a greater whole in its revitalization efforts. Furthermore, we intersperse our description with facilitation and description practices not well documented in the infrastructure. Currently, the analyzer covers over 30,000 Skolt Sami words in 148 inflectional paradigms and over 12 derivational forms. | 翻訳日:2022-12-15 03:11:41 公開日:2020-04-09 |
# ROOTにおける自動微分 Automatic Differentiation in ROOT ( http://arxiv.org/abs/2004.04435v1 ) ライセンス: Link先を確認 | Vassil Vassilev (1), Aleksandr Efremov (1) and Oksana Shadura (2) ((1) Princeton University, (2) University of Nebraska Lincoln) | (参考訳) 数学と計算機代数において、自動微分 (AD) は、コンピュータプログラムによって指定された関数の微分を評価するための一連の技術である。
adは、どんなに複雑であっても、全てのコンピュータプログラムが基本的な算術演算(加算、減算、乗算、除算など)、初等関数(exp、log、sin、cosなど)、制御フローステートメントのシーケンスを実行するという事実を利用する。
ADは関数のソースコードを入力とし、派生関数のソースコードを生成する。
これらの演算にチェーン規則を繰り返し適用することにより、任意の順序の微分を、作業精度に正確に自動的に計算し、少なくとも元のプログラムよりも小さな定数係数で計算することができる。
本稿では,ソースコード変換を実装し,フォワードモードとリバースモードの両方における微分解析の連鎖則を用いて任意のc/c++関数の導出を生成するために,clingがサポートするrootで利用可能なad手法を提案する。
TFormulaにおける勾配計算の現在の統合について説明する。
ROOTの適合アルゴリズムにおける精度と性能の改善について述べる。 In mathematics and computer algebra, automatic differentiation (AD) is a set of techniques to evaluate the derivative of a function specified by a computer program. AD exploits the fact that every computer program, no matter how complicated, executes a sequence of elementary arithmetic operations (addition, subtraction, multiplication, division, etc.), elementary functions (exp, log, sin, cos, etc.) and control flow statements. AD takes source code of a function as input and produces source code of the derived function. By applying the chain rule repeatedly to these operations, derivatives of arbitrary order can be computed automatically, accurately to working precision, and using at most a small constant factor more arithmetic operations than the original program. This paper presents AD techniques available in ROOT, supported by Cling, to produce derivatives of arbitrary C/C++ functions through implementing source code transformation and employing the chain rule of differential calculus in both forward mode and reverse mode. We explain its current integration for gradient computation in TFormula. We demonstrate the correctness and performance improvements in ROOT's fitting algorithms. | 翻訳日:2022-12-15 03:11:31 公開日:2020-04-09 |
# 関係リスクモデルのゲーム論的応用 Game-theoretic applications of a relational risk model ( http://arxiv.org/abs/2004.05920v1 ) ライセンス: Link先を確認 | Tatiana Urazaeva | (参考訳) 報告書はリスクの概念を示唆しており、リスク発生に必要な2つの数学的構造を概説している。
この最小部分順序は半格子の構造を構成することが示されている。
ある場合には、ある方法でネストされた半格子の系が存在するべきである。
この観点から、リスク理論のタスクの分類は、数学的知識の専門化の文脈で与えられる。
言い換えれば、我々は新しい相対的リスク理論の開発について話している。
ネストされたセミラティクスのシステムを構成するゲームの各パーチカントに対する結果の集合を部分的に選好するという点で、ゲーム理論の定式化における政治的決定の問題は、リレーショナルリスク概念の具体例として考察される。
様々な最適性原理を用いて得られた問題の解を検証する。 The report suggests the concept of risk, outlining two mathematical structures necessary for risk genesis: the set of outcomes and, in a general case, partial order of preference on it. It is shown that this minimum partial order should constitute the structure of a semilattice. In some cases, there should be a system of semilattices nested in a certain way. On this basis, the classification of risk theory tasks is given in the context of specialization of mathematical knowledge. In other words, we are talking about the development of a new rela-tional risk theory. The problem of political decision making in game-theoretic formulation in terms of having partial order of preference on the set of outcomes for each par-ticipant of the game forming a certain system of nested semilattices is consid-ered as an example of a relational risk concept implementation. Solutions to the problem obtained through the use of various optimality principles are investi-gated. | 翻訳日:2022-12-15 03:04:51 公開日:2020-04-09 |
# 人間軌道予測のための相互学習ネットワーク Reciprocal Learning Networks for Human Trajectory Prediction ( http://arxiv.org/abs/2004.04340v1 ) ライセンス: Link先を確認 | Hao Sun, Zhiqun Zhao and Zhihai He | (参考訳) 人間の軌道は前方予測可能であるだけでなく,後方予測可能である。
前向きと後向きの軌跡は同じ社会規範に従い、時間方向の唯一の違いで同じ物理的制約に従う。
このユニークな性質に基づき,人間軌道予測のための相反学習と呼ばれる新しい手法を開発した。
前方予測ネットワークと後方予測ネットワークの2つのネットワークは密結合しており、相互制約を満たしており、共同で学習することができる。
この制約に基づき、ネットワークの入力を反復的に修正して与えられたネットワーク出力や強制的なネットワーク出力に合わせるディープニューラルネットワークの逆攻撃の概念を借用し、マッチング予測のための相反攻撃と呼ばれる新しいネットワーク予測方法を開発した。
さらに予測精度を向上させる。
評価実験の結果,提案手法は人間の軌道予測の最先端手法よりも優れていることがわかった。 We observe that the human trajectory is not only forward predictable, but also backward predictable. Both forward and backward trajectories follow the same social norms and obey the same physical constraints with the only difference in their time directions. Based on this unique property, we develop a new approach, called reciprocal learning, for human trajectory prediction. Two networks, forward and backward prediction networks, are tightly coupled, satisfying the reciprocal constraint, which allows them to be jointly learned. Based on this constraint, we borrow the concept of adversarial attacks of deep neural networks, which iteratively modifies the input of the network to match the given or forced network output, and develop a new method for network prediction, called reciprocal attack for matched prediction. It further improves the prediction accuracy. Our experimental results on benchmark datasets demonstrate that our new method outperforms the state-of-the-art methods for human trajectory prediction. | 翻訳日:2022-12-15 03:04:36 公開日:2020-04-09 |
# 新規画像合成による自己監督型3次元人物位置推定 Self-Supervised 3D Human Pose Estimation via Part Guided Novel Image Synthesis ( http://arxiv.org/abs/2004.04400v1 ) ライセンス: Link先を確認 | Jogendra Nath Kundu, Siddharth Seth, Varun Jampani, Mugalodi Rakesh, R. Venkatesh Babu, Anirban Chakraborty | (参考訳) カメラが捉えた人間のポーズは、いくつかの変化源の結果である。
教師付き3次元ポーズ推定手法の性能は、他の関連するタスクを解決するのに役立つ形状や外観などのバリエーションを不要にするコストがかかる。
結果として、学習されたモデルはタスクバイアスだけでなく、注釈付きサンプルに依存しており、弱い教師付きモデルにも当てはまります。
そこで本稿では,ラベルのないビデオフレームからこのようなバリエーションを分離する自己教師型学習フレームワークを提案する。
我々は、人間の骨格に関する以前の知識を活用し、単一のパートベースの2Dパペットモデル、人間のポーズの調音制約、不対の3Dポーズのセットの形式でポーズする。
我々の微分可能な形式化は、3Dポーズと空間部分マップの表現ギャップを埋めるだけでなく、解釈可能なポーズのゆがみの発見を促進するだけでなく、多様なカメラの動きを持つビデオでも操作できる。
in-the-wildデータセットの定性的な結果は、3dポーズ推定と部分セグメンテーションのプライマリタスクを超えて、複数のタスクにまたがる優れた一般化を確立します。
さらに,Human3.6MとMPI-INF-3DHPのデータセットを用いて,最先端の3Dポーズ推定性能を示す。 Camera captured human pose is an outcome of several sources of variation. Performance of supervised 3D pose estimation approaches comes at the cost of dispensing with variations, such as shape and appearance, that may be useful for solving other related tasks. As a result, the learned model not only inculcates task-bias but also dataset-bias because of its strong reliance on the annotated samples, which also holds true for weakly-supervised models. Acknowledging this, we propose a self-supervised learning framework to disentangle such variations from unlabeled video frames. We leverage the prior knowledge on human skeleton and poses in the form of a single part-based 2D puppet model, human pose articulation constraints, and a set of unpaired 3D poses. Our differentiable formalization, bridging the representation gap between the 3D pose and spatial part maps, not only facilitates discovery of interpretable pose disentanglement but also allows us to operate on videos with diverse camera movements. Qualitative results on unseen in-the-wild datasets establish our superior generalization across multiple tasks beyond the primary tasks of 3D pose estimation and part segmentation. Furthermore, we demonstrate state-of-the-art weakly-supervised 3D pose estimation performance on both Human3.6M and MPI-INF-3DHP datasets. | 翻訳日:2022-12-15 03:04:23 公開日:2020-04-09 |
# 弱教師付きセマンティックセグメンテーションのための自己教師付き同変注意機構 Self-supervised Equivariant Attention Mechanism for Weakly Supervised Semantic Segmentation ( http://arxiv.org/abs/2004.04581v1 ) ライセンス: Link先を確認 | Yude Wang, Jie Zhang, Meina Kan, Shiguang Shan, Xilin Chen | (参考訳) 画像レベルの弱教師付きセマンティックセグメンテーションは近年深く研究されている課題である。
高度なソリューションのほとんどはクラスアクティベーションマップ(CAM)を利用している。
しかし、完全な監視と弱い監視の間にあるため、カムはオブジェクトマスクとして機能することができない。
本稿では,自己監督同変注意機構(SEAM)を提案する。
本手法は,全教師付き意味セグメンテーションにおける等価性が暗黙の制約であり,そのピクセルレベルラベルはデータ拡張中に入力画像と同じ空間変換を行うという観察に基づく。
しかし、この制約は画像レベルの監督によって訓練されたCAMで失われる。
そこで本研究では,様々な変換画像から予測されたCAMの整合性正規化を提案する。
さらに,文脈情報を活用した画素相関モジュール(pcm)を提案し,その類似した近傍による現在の画素の予測を洗練し,camsの一貫性をさらに向上させる。
PASCAL VOC 2012データセットの大規模な実験は、我々の手法が同じレベルの監督レベルを用いて最先端の手法より優れていることを示した。
コードはオンラインで公開されている。 Image-level weakly supervised semantic segmentation is a challenging problem that has been deeply studied in recent years. Most of advanced solutions exploit class activation map (CAM). However, CAMs can hardly serve as the object mask due to the gap between full and weak supervisions. In this paper, we propose a self-supervised equivariant attention mechanism (SEAM) to discover additional supervision and narrow the gap. Our method is based on the observation that equivariance is an implicit constraint in fully supervised semantic segmentation, whose pixel-level labels take the same spatial transformation as the input images during data augmentation. However, this constraint is lost on the CAMs trained by image-level supervision. Therefore, we propose consistency regularization on predicted CAMs from various transformed images to provide self-supervision for network learning. Moreover, we propose a pixel correlation module (PCM), which exploits context appearance information and refines the prediction of current pixel by its similar neighbors, leading to further improvement on CAMs consistency. Extensive experiments on PASCAL VOC 2012 dataset demonstrate our method outperforms state-of-the-art methods using the same level of supervision. The code is released online. | 翻訳日:2022-12-15 03:03:06 公開日:2020-04-09 |
# オブジェクト検出のためのスケーラブル能動学習 Scalable Active Learning for Object Detection ( http://arxiv.org/abs/2004.04699v1 ) ライセンス: Link先を確認 | Elmar Haussmann, Michele Fenzi, Kashyap Chitta, Jan Ivanecky, Hanson Xu, Donna Roy, Akshita Mittel, Nicolas Koumchatzky, Clement Farabet, Jose M. Alvarez | (参考訳) 完全に監督された方法で訓練されたディープニューラルネットワークは、知覚ベースの自動運転システムにおいて支配的な技術である。
大量のラベルのないデータを収集することは、すでに大きな仕事だが、高品質なアノテーションに必要な労力のために、そのサブセットだけが人間によってラベル付けされる。
したがって、ラベルに適切なデータを見つけることが重要な課題となっている。
アクティブラーニングは、必要なパフォーマンスに達する最小のトレーニングセットを選択することを目的として、教師付き学習方法のデータ効率を向上させる強力な技術である。
自動運転分野におけるアクティブな学習のためのスケーラブルな生産システムを構築しました。
本稿では,ハイレベル設計の結果を概説し,課題とその解決策をスケッチし,現在の結果を大規模に提示し,オープンな問題と今後の方向性を簡潔に述べる。 Deep Neural Networks trained in a fully supervised fashion are the dominant technology in perception-based autonomous driving systems. While collecting large amounts of unlabeled data is already a major undertaking, only a subset of it can be labeled by humans due to the effort needed for high-quality annotation. Therefore, finding the right data to label has become a key challenge. Active learning is a powerful technique to improve data efficiency for supervised learning methods, as it aims at selecting the smallest possible training set to reach a required performance. We have built a scalable production system for active learning in the domain of autonomous driving. In this paper, we describe the resulting high-level design, sketch some of the challenges and their solutions, present our current results at scale, and briefly describe the open problems and future directions. | 翻訳日:2022-12-15 03:02:18 公開日:2020-04-09 |
# 言語モデルへの数値推論スキルの注入 Injecting Numerical Reasoning Skills into Language Models ( http://arxiv.org/abs/2004.04487v1 ) ライセンス: Link先を確認 | Mor Geva, Ankit Gupta, Jonathan Berant | (参考訳) 大規模な事前訓練言語モデル(LM)は、かなりの量の言語情報を符号化することが知られている。
しかし、数値推論のような高度な推論スキルは、言語モデリングの目的のみから学ぶことは困難である。
したがって、数値推論のための既存のモデルは柔軟性に乏しい特殊なアーキテクチャを用いている。
本研究は, 数値推論が自動データ生成に有効であることを示し, 大量のデータを生成し, マルチタスクでトレーニングすることで, 予め訓練したLMにこの技術を注入できることを示す。
当社のモデルであるgenbertをこのデータで事前トレーニングすることで、ドロップ時のパフォーマンスが劇的に向上する(49.3$\rightarrow$ 72.3 f1)ことを示し、シンプルで汎用的なエンコーダ-デコーダアーキテクチャを使用して、同等サイズの最先端モデルに匹敵するパフォーマンスを実現しています。
さらに、GenBERTは、標準的なRCタスクで高いパフォーマンスを維持しながら、数学語問題データセットを一般化する。
提案手法は,自動データ拡張に適応可能なスキルを,事前学習した大規模lmsに注入するための一般的なレシピを提供する。 Large pre-trained language models (LMs) are known to encode substantial amounts of linguistic information. However, high-level reasoning skills, such as numerical reasoning, are difficult to learn from a language-modeling objective only. Consequently, existing models for numerical reasoning have used specialized architectures with limited flexibility. In this work, we show that numerical reasoning is amenable to automatic data generation, and thus one can inject this skill into pre-trained LMs, by generating large amounts of data, and training in a multi-task setup. We show that pre-training our model, GenBERT, on this data, dramatically improves performance on DROP (49.3 $\rightarrow$ 72.3 F1), reaching performance that matches state-of-the-art models of comparable size, while using a simple and general-purpose encoder-decoder architecture. Moreover, GenBERT generalizes well to math word problem datasets, while maintaining high performance on standard RC tasks. Our approach provides a general recipe for injecting skills into large pre-trained LMs, whenever the skill is amenable to automatic data augmentation. | 翻訳日:2022-12-15 02:56:29 公開日:2020-04-09 |
# MuTual:マルチターン対話推論のためのデータセット MuTual: A Dataset for Multi-Turn Dialogue Reasoning ( http://arxiv.org/abs/2004.04494v1 ) ライセンス: Link先を確認 | Leyang Cui, Yu Wu, Shujie Liu, Yue Zhang, Ming Zhou | (参考訳) 近年,非タスク指向対話システムは,会話データと深層学習技術の発展により,大きな成功を収めている。
状況によっては、現在のシステムは関連性があり流動的な応答を得られるが、弱い推論能力のために論理的な誤りを犯すこともある。
会話推論研究を容易にするために,中国語の学生英語聴取試験に基づく8,860の注釈付き対話からなる,多言語対話推論のための新しいデータセットであるMuTualを紹介した。
非タスク指向の対話システムに対する以前のベンチマークと比較すると、様々な推論問題に対処できるモデルを必要とするため、MuTualの方がはるかに難しい。
実験の結果、最先端の手法は71%に留まり、94%の人間性能よりもはるかに遅れており、推論能力を向上させる余地が十分にあることが示された。
MuTualはhttps://github.com/Nealcly/MuTualで入手できる。 Non-task oriented dialogue systems have achieved great success in recent years due to largely accessible conversation data and the development of deep learning techniques. Given a context, current systems are able to yield a relevant and fluent response, but sometimes make logical mistakes because of weak reasoning capabilities. To facilitate the conversation reasoning research, we introduce MuTual, a novel dataset for Multi-Turn dialogue Reasoning, consisting of 8,860 manually annotated dialogues based on Chinese student English listening comprehension exams. Compared to previous benchmarks for non-task oriented dialogue systems, MuTual is much more challenging since it requires a model that can handle various reasoning problems. Empirical results show that state-of-the-art methods only reach 71%, which is far behind the human performance of 94%, indicating that there is ample room for improving reasoning ability. MuTual is available at https://github.com/Nealcly/MuTual. | 翻訳日:2022-12-15 02:55:57 公開日:2020-04-09 |
# GSA-DenseNet121-COVID-19: 重力探索最適化アルゴリズムに基づく新型コロナウイルスの診断のためのハイブリッドディープラーニングアーキテクチャ GSA-DenseNet121-COVID-19: a Hybrid Deep Learning Architecture for the Diagnosis of COVID-19 Disease based on Gravitational Search Optimization Algorithm ( http://arxiv.org/abs/2004.05084v1 ) ライセンス: Link先を確認 | Dalia Ezzat, Aboul ell Hassanien, Hassan Aboul Ella (Scientific Research Group in Egypt) | (参考訳) 本稿では,ハイブリッド畳み込みニューラルネットワーク(CNN)アーキテクチャに基づくGSA-DenseNet121-COVID-19と呼ばれる新しいアプローチを提案する。
使われたcnnアーキテクチャは densenet121 と呼ばれ、使われた最適化アルゴリズムは gravitational search algorithm (gsa) と呼ばれる。
GSAは、DenseNet121アーキテクチャのハイパーパラメーターの最良の値を決定するために適応され、胸部X線画像解析により、COVID-19病の診断における高いレベルの精度を達成する。
その結果,提案手法はテストセットの98%を正しく分類できることがわかった。
DenseNet121のハイパーパラメータの最適値を設定する際のGSAの有効性をテストするため、ソーシャルスキードライバ(SSD)と呼ばれる別の最適化アルゴリズムと比較した。
比較の結果、gsa-densenet121-covid-19の有効性と、ssd-densenet121よりも高い診断能力が示された。
また,提案手法をinception-v3と呼ばれるcnnアーキテクチャに基づくアプローチと,ハイパーパラメータの値を決定するための手動探索法と比較した。
比較の結果、GSA-DenseNet121はテストセットの95%しか分類できなかったため、他のアプローチに勝ることができた。 In this paper, a novel approach called GSA-DenseNet121-COVID-19 based on a hybrid convolutional neural network (CNN) architecture is proposed using an optimization algorithm. The CNN architecture that was used is called DenseNet121 and the optimization algorithm that was used is called the gravitational search algorithm (GSA). The GSA is adapted to determine the best values for the hyperparameters of the DenseNet121 architecture, and to achieve a high level of accuracy in diagnosing COVID-19 disease through chest x-ray image analysis. The obtained results showed that the proposed approach was able to correctly classify 98% of the test set. To test the efficacy of the GSA in setting the optimum values for the hyperparameters of DenseNet121, it was compared to another optimization algorithm called social ski driver (SSD). The comparison results demonstrated the efficacy of the proposed GSA-DenseNet121-COVID-19 and its ability to better diagnose COVID-19 disease than the SSD-DenseNet121 as the second was able to diagnose only 94% of the test set. As well as, the proposed approach was compared to an approach based on a CNN architecture called Inception-v3 and the manual search method for determining the values of the hyperparameters. The results of the comparison showed that the GSA-DenseNet121 was able to beat the other approach, as the second was able to classify only 95% of the test set samples. | 翻訳日:2022-12-15 02:53:51 公開日:2020-04-09 |
# 線形確率近似に就て : 微細なポリアークラッパートと非漸近濃度 On Linear Stochastic Approximation: Fine-grained Polyak-Ruppert and Non-Asymptotic Concentration ( http://arxiv.org/abs/2004.04719v1 ) ライセンス: Link先を確認 | Wenlong Mou, Chris Junchi Li, Martin J. Wainwright, Peter L. Bartlett, Michael I. Jordan | (参考訳) 我々は、線形系 $\bar{A} \theta = \bar{b}$ を解くために、Polyak-Ruppert平均化を用いた確率近似法の漸近的および非漸近的特性を正確に研究する。
行列 $\bar{A}$ が Hurwitz であるとき、固定されたステップサイズと無限大となる反復数を持つ平均化された反復に対する中心極限定理 (CLT) を証明する。
cltは、古典的なpolyak-ruppert共分散の和である厳密な漸近共分散行列と、ステップサイズでスケールする補正項を特徴付ける。
雑音分布の尾について仮定すると、主項が任意の方向におけるCLTの共分散に一致する非漸近濃度不等式を普遍定数まで証明する。
行列 $\bar{A}$ がHurwitz ではなく、その固有値に非負の実部分しか持たないとき、平均化 LSA の手順が平均二乗誤差で実際に$O(1/T)$レートを達成できることを証明する。
この結果は漸近的および非漸近的設定の両方において線形確率近似をよりよく理解する。
また,強化学習における時間差アルゴリズムと同様に,運動量に基づく確率的勾配法の研究を含む,主な結果の様々な応用を示す。 We undertake a precise study of the asymptotic and non-asymptotic properties of stochastic approximation procedures with Polyak-Ruppert averaging for solving a linear system $\bar{A} \theta = \bar{b}$. When the matrix $\bar{A}$ is Hurwitz, we prove a central limit theorem (CLT) for the averaged iterates with fixed step size and number of iterations going to infinity. The CLT characterizes the exact asymptotic covariance matrix, which is the sum of the classical Polyak-Ruppert covariance and a correction term that scales with the step size. Under assumptions on the tail of the noise distribution, we prove a non-asymptotic concentration inequality whose main term matches the covariance in CLT in any direction, up to universal constants. When the matrix $\bar{A}$ is not Hurwitz but only has non-negative real parts in its eigenvalues, we prove that the averaged LSA procedure actually achieves an $O(1/T)$ rate in mean-squared error. Our results provide a more refined understanding of linear stochastic approximation in both the asymptotic and non-asymptotic settings. We also show various applications of the main results, including the study of momentum-based stochastic gradient methods as well as temporal difference algorithms in reinforcement learning. | 翻訳日:2022-12-15 02:45:46 公開日:2020-04-09 |
# 弱微分を用いた強化学習のための政策勾配 Policy Gradient using Weak Derivatives for Reinforcement Learning ( http://arxiv.org/abs/2004.04843v1 ) ライセンス: Link先を確認 | Sujay Bhatt, Alec Koppel, Vikram Krishnamurthy | (参考訳) 本稿では,連続状態動作強化学習問題におけるポリシー探索について考察する。
典型的には、政策勾配定理と呼ばれる政策勾配の古典的な表現を用いて探索方向を計算し、値関数の勾配をスコア関数とq関数の2つの因子に分解する。
本稿は以下の4つの結果を示す。
(i)スコア関数の代わりに弱(測定値)導関数を用いる代替方針勾配定理が確立される。
(ii)このような確率的勾配推定は、偏りがなく、強化学習問題の非凸値関数の定常点にほぼ確実に収束するアルゴリズムであることが示される。
(iii)アルゴリズムのサンプル複雑性は導出され、$O(1/\sqrt(k))$;であることが示されている。
(iv)最終的に,弱微分を用いて得られる勾配推定の期待値のばらつきが,人気のスコア関数法で得られた値よりも低いことが示される。
OpenAI体育館の振り子環境実験は,提案アルゴリズムの優れた性能を示す。 This paper considers policy search in continuous state-action reinforcement learning problems. Typically, one computes search directions using a classic expression for the policy gradient called the Policy Gradient Theorem, which decomposes the gradient of the value function into two factors: the score function and the Q-function. This paper presents four results:(i) an alternative policy gradient theorem using weak (measure-valued) derivatives instead of score-function is established; (ii) the stochastic gradient estimates thus derived are shown to be unbiased and to yield algorithms that converge almost surely to stationary points of the non-convex value function of the reinforcement learning problem; (iii) the sample complexity of the algorithm is derived and is shown to be $O(1/\sqrt(k))$; (iv) finally, the expected variance of the gradient estimates obtained using weak derivatives is shown to be lower than those obtained using the popular score-function approach. Experiments on OpenAI gym pendulum environment show superior performance of the proposed algorithm. | 翻訳日:2022-12-15 02:45:24 公開日:2020-04-09 |
# 音声認識転写の可読性向上 Improving Readability for Automatic Speech Recognition Transcription ( http://arxiv.org/abs/2004.04438v1 ) ライセンス: Link先を確認 | Junwei Liao, Sefik Emre Eskimez, Liyang Lu, Yu Shi, Ming Gong, Linjun Shou, Hong Qu, Michael Zeng | (参考訳) 現代の音声認識(ASR)システムは、認識精度の点で高い性能を達成することができる。
しかし, 音声通信に共通する文法的誤り, 拡散性, その他のエラタにより, 完全に正確な書き起こしは読めない場合がある。
多くの下流タスクとヒューマンリーダーは、ASRシステムの出力に依存しているため、スピーカーとASRシステムによってもたらされたエラーは、パイプライン内の次のタスクに伝達される。
本稿では,話者の意味的意味を維持しつつ,人間と下流タスクの可読性テキストに変換することを目的とした,asr post-process for readability(apr)と呼ばれる新しいnlpタスクを提案する。
さらに,文法的誤り訂正(GEC)とテキスト音声合成(TTS)とASRで収集したデータセットを用いて,APRタスクの例を合成することにより,タスク固有のデータ不足に対処する手法について述べる。
さらに,APRタスクのパフォーマンスを評価するために,類似タスクから借用したメトリクスを提案する。
いくつかのオープンソースモデルと適応型事前学習モデルに基づく微調整モデルと従来のパイプライン法を比較した。
以上の結果から,微調整モデルによりAPRタスクの性能が大幅に向上し,APRシステムの利用による潜在的なメリットが示唆された。
私たちの仕事の読み書き、理解、書き直しのアプローチが、多くのnlpタスクと人間の読者が恩恵を受けられる基盤となることを願っています。 Modern Automatic Speech Recognition (ASR) systems can achieve high performance in terms of recognition accuracy. However, a perfectly accurate transcript still can be challenging to read due to grammatical errors, disfluency, and other errata common in spoken communication. Many downstream tasks and human readers rely on the output of the ASR system; therefore, errors introduced by the speaker and ASR system alike will be propagated to the next task in the pipeline. In this work, we propose a novel NLP task called ASR post-processing for readability (APR) that aims to transform the noisy ASR output into a readable text for humans and downstream tasks while maintaining the semantic meaning of the speaker. In addition, we describe a method to address the lack of task-specific data by synthesizing examples for the APR task using the datasets collected for Grammatical Error Correction (GEC) followed by text-to-speech (TTS) and ASR. Furthermore, we propose metrics borrowed from similar tasks to evaluate performance on the APR task. We compare fine-tuned models based on several open-sourced and adapted pre-trained models with the traditional pipeline method. Our results suggest that finetuned models improve the performance on the APR task significantly, hinting at the potential benefits of using APR systems. We hope that the read, understand, and rewrite approach of our work can serve as a basis that many NLP tasks and human readers can benefit from. | 翻訳日:2022-12-15 02:45:09 公開日:2020-04-09 |
# 単語頂点ラベルグラフと整数線形計画を用いた多節圧縮の多言語研究 A Multilingual Study of Multi-Sentence Compression using Word Vertex-Labeled Graphs and Integer Linear Programming ( http://arxiv.org/abs/2004.04468v1 ) ライセンス: Link先を確認 | Elvys Linhares Pontes, St\'ephane Huet, Juan-Manuel Torres-Moreno, Thiago G. da Silva, and Andr\'ea Carneiro Linhares | (参考訳) Multi-Sentence Compression (MSC) は、類似した文のクラスタからキー情報を持つ短い文を生成することを目的としている。
MSCは1つまたは複数の文書から完全に形成された文を組み合わせた出力を生成することができる。
本稿では, 頂点ラベル付きグラフを用いて, 文法性を維持しつつ, より意味のある文を生成することを目的とした, MSCの整数線形計画法について述べる。
私たちのシステムは品質が良く、フランス語、ポルトガル語、スペイン語の3つの言語で、ニュースデータセットに基づく評価で最先端の技術を上回っています。
各データセットに対する圧縮のインフォマティリティと文法性を決定するために,自動評価と手動評価の両方を指導した。
圧縮長を変調できるという利点を生かした追加試験では, ROUGEスコアを短い出力文で改善する。 Multi-Sentence Compression (MSC) aims to generate a short sentence with the key information from a cluster of similar sentences. MSC enables summarization and question-answering systems to generate outputs combining fully formed sentences from one or several documents. This paper describes an Integer Linear Programming method for MSC using a vertex-labeled graph to select different keywords, with the goal of generating more informative sentences while maintaining their grammaticality. Our system is of good quality and outperforms the state of the art for evaluations led on news datasets in three languages: French, Portuguese and Spanish. We led both automatic and manual evaluations to determine the informativeness and the grammaticality of compressions for each dataset. In additional tests, which take advantage of the fact that the length of compressions can be modulated, we still improve ROUGE scores with shorter output sentences. | 翻訳日:2022-12-15 02:44:43 公開日:2020-04-09 |
# クロスドメイン感性分析のためのドメインの勧告チャート:20のドメインスタディの考察 Recommendation Chart of Domains for Cross-Domain Sentiment Analysis:Findings of A 20 Domain Study ( http://arxiv.org/abs/2004.04478v1 ) ライセンス: Link先を確認 | Akash Sheoran, Diptesh Kanojia, Aditya Joshi, Pushpak Bhattacharyya | (参考訳) クロスドメイン感情分析(CDSA)は、ドメイン(ターゲットドメインとして知られる)のラベル付きデータが利用できない、あるいは不十分なシナリオにおいて、データの不足の問題に対処するのに役立つ。
しかし、そこから活用するドメイン(ソースドメインとして知られる)を選択する決定は、せいぜい直感的である。
本稿では,CDSAのソース領域選択を容易にするためのテキスト類似度指標について検討する。
11の類似度指標を用いて20のドメイン(全ペア)について結果を報告する。
具体的には、CDSAのパフォーマンスと異なるドメインペアのメトリクスを比較して、対象ドメインを指定した適切なソースドメインの選択を可能にする。
これらのメトリクスには、ラベル付きデータのドメイン選択を支援するためにドメイン適応性を評価するための2つの新しいメトリクスが含まれ、ラベル付きデータのメトリクスとして単語と文に基づく埋め込みを利用する。
私たちの実験の目標は、特定のターゲットドメインに対してcdsaのk個のベストソースドメインを提供する推奨チャートです。
類似度測定値によって返される最良のKソースドメインは、Kの異なる値に対して50%以上の精度を持つことを示す。 Cross-domain sentiment analysis (CDSA) helps to address the problem of data scarcity in scenarios where labelled data for a domain (known as the target domain) is unavailable or insufficient. However, the decision to choose a domain (known as the source domain) to leverage from is, at best, intuitive. In this paper, we investigate text similarity metrics to facilitate source domain selection for CDSA. We report results on 20 domains (all possible pairs) using 11 similarity metrics. Specifically, we compare CDSA performance with these metrics for different domain-pairs to enable the selection of a suitable source domain, given a target domain. These metrics include two novel metrics for evaluating domain adaptability to help source domain selection of labelled data and utilize word and sentence-based embeddings as metrics for unlabelled data. The goal of our experiments is a recommendation chart that gives the K best source domains for CDSA for a given target domain. We show that the best K source domains returned by our similarity metrics have a precision of over 50%, for varying values of K. | 翻訳日:2022-12-15 02:44:30 公開日:2020-04-09 |
# リモートセンシングシーン分類のための多粒度正準外観プール Multi-Granularity Canonical Appearance Pooling for Remote Sensing Scene Classification ( http://arxiv.org/abs/2004.04491v1 ) ライセンス: Link先を確認 | S. Wang, Y. Guan, L. Shao | (参考訳) リモートセンシングシーン画像の認識は、大きな視覚的セマンティックな違いのため、依然として困難である。
これらは主に、ピクセルレベルの表現と高レベルのセマンティックラベルの整合に使用できる詳細なアノテーションが欠如していることに起因する。
タギングのプロセスは労働集約的で主観的であるため,遠隔センシングデータセットの潜在的存在構造を自動的に把握する,新しいMG-CAP(Multi-Granularity Canonical Appearance Pooling)を提案する。
入力画像を段階的にトリミングして多粒な特徴を学習することのできる,粒度のフレームワークを設計する。
それぞれの特定の粒度に対して,事前定義された変換の集合から標準的外観を発見し,最大化に基づくシームズスタイルアーキテクチャを用いて対応するCNN特徴を学習する。
次に、標準cnn特徴をガウス共分散行列に置き換え、特徴の判別力を改善するために適切な行列正規化を採用する。
さらに,GPUの固有値分解関数(EIG)を学習するための安定解を提供し,行列計算を用いて対応するバックプロパゲーションを示す。
大規模な実験により、我々のフレームワークは公共のリモートセンシングシーンデータセットで有望な結果が得られることが示された。 Recognising remote sensing scene images remains challenging due to large visual-semantic discrepancies. These mainly arise due to the lack of detailed annotations that can be employed to align pixel-level representations with high-level semantic labels. As the tagging process is labour-intensive and subjective, we hereby propose a novel Multi-Granularity Canonical Appearance Pooling (MG-CAP) to automatically capture the latent ontological structure of remote sensing datasets. We design a granular framework that allows progressively cropping the input image to learn multi-grained features. For each specific granularity, we discover the canonical appearance from a set of pre-defined transformations and learn the corresponding CNN features through a maxout-based Siamese style architecture. Then, we replace the standard CNN features with Gaussian covariance matrices and adopt the proper matrix normalisations for improving the discriminative power of features. Besides, we provide a stable solution for training the eigenvalue-decomposition function (EIG) in a GPU and demonstrate the corresponding back-propagation using matrix calculus. Extensive experiments have shown that our framework can achieve promising results in public remote sensing scene datasets. | 翻訳日:2022-12-15 02:37:15 公開日:2020-04-09 |
# オンボードカメラとスパースエアリアル画像を用いた非構造環境における平地道路の走行学習 Learning to Drive Off Road on Smooth Terrain in Unstructured Environments Using an On-Board Camera and Sparse Aerial Images ( http://arxiv.org/abs/2004.04697v1 ) ライセンス: Link先を確認 | Travis Manderson, Stefan Wapnick, David Meger, and Gregory Dudek | (参考訳) 本稿では,視覚入力のみを用いて,オフロード環境と非構造化屋外環境の衝突を回避しつつ,滑らかな地形上での運転を学習する手法を提案する。
本手法では, 地形の粗さや衝突のラベル付けに完全に自己制御されたモデルベースおよびモデルフリー強化学習手法を適用する。
特に,1対1と1対1の航空画像入力の両方をモデルに提供する。
これらの相補的な入力の融合は、計画の見通しを改善し、そのモデルを視覚障害に対して堅牢にする。
本研究は,植生が豊富で,岩質や砂質の道が多様である環境に一般化できることを示す。
評価中,90%の平滑な地形横断を達成し,一対一のイメージのみを用いたモデルと比較して6.1倍の粗地移動率を低下させた。 We present a method for learning to drive on smooth terrain while simultaneously avoiding collisions in challenging off-road and unstructured outdoor environments using only visual inputs. Our approach applies a hybrid model-based and model-free reinforcement learning method that is entirely self-supervised in labeling terrain roughness and collisions using on-board sensors. Notably, we provide both first-person and overhead aerial image inputs to our model. We find that the fusion of these complementary inputs improves planning foresight and makes the model robust to visual obstructions. Our results show the ability to generalize to environments with plentiful vegetation, various types of rock, and sandy trails. During evaluation, our policy attained 90% smooth terrain traversal and reduced the proportion of rough terrain driven over by 6.1 times compared to a model using only first-person imagery. | 翻訳日:2022-12-15 02:35:33 公開日:2020-04-09 |
# 強化学習に基づく交通信号制御における非定常性の影響の定量化 Quantifying the Impact of Non-Stationarity in Reinforcement Learning-Based Traffic Signal Control ( http://arxiv.org/abs/2004.04778v1 ) ライセンス: Link先を確認 | Lucas N. Alegre, Ana L. C. Bazzan, Bruno C. da Silva | (参考訳) 強化学習(RL)では、非定常性を扱うことは難しい問題である。
しかしながら、トラフィック最適化のようないくつかのドメインは本質的に非定常である。
この原因と影響は多様体である。
特に、交通信号制御を扱う場合、交通条件が時間とともに変化し、ネットワークの他の部分で行われる交通制御決定の関数として非定常性に対処することが重要である。
本稿では,各信号が学習エージェントとしてモデル化される交通信号ネットワークにおいて,異なる非定常源が持つ影響を解析する。
より正確には、エージェントが学習する \textit{context} を変更する効果(例えば、それによる流量の変化)と、真の環境状態のエージェント可観測性を減らす効果の両方について研究する。
部分的可観測性は、トラフィック信号エージェントによって異なる状態(個別のアクションが最適である)を同一視する可能性がある。
これは逆に、準最適パフォーマンスにつながる可能性がある。
実況を代表的に観測するに適したセンサがないことは,基盤となる交通パターンの変化よりも性能に大きく影響していると考えられる。 In reinforcement learning (RL), dealing with non-stationarity is a challenging issue. However, some domains such as traffic optimization are inherently non-stationary. Causes for and effects of this are manifold. In particular, when dealing with traffic signal controls, addressing non-stationarity is key since traffic conditions change over time and as a function of traffic control decisions taken in other parts of a network. In this paper we analyze the effects that different sources of non-stationarity have in a network of traffic signals, in which each signal is modeled as a learning agent. More precisely, we study both the effects of changing the \textit{context} in which an agent learns (e.g., a change in flow rates experienced by it), as well as the effects of reducing agent observability of the true environment state. Partial observability may cause distinct states (in which distinct actions are optimal) to be seen as the same by the traffic signal agents. This, in turn, may lead to sub-optimal performance. We show that the lack of suitable sensors to provide a representative observation of the real state seems to affect the performance more drastically than the changes to the underlying traffic patterns. | 翻訳日:2022-12-15 02:29:17 公開日:2020-04-09 |
# 土木構造物の振動による損傷検出の概観:従来の手法から機械学習・深層学習への応用へ A Review of Vibration-Based Damage Detection in Civil Structures: From Traditional Methods to Machine Learning and Deep Learning Applications ( http://arxiv.org/abs/2004.04373v1 ) ライセンス: Link先を確認 | Onur Avci, Osama Abdeljaber, Serkan Kiranyaz, Mohammed Hussein, Moncef Gabbouj, Daniel J. Inman | (参考訳) 構造物の寿命維持と維持には, 構造物の損傷モニタリングが極めて重要である。
モニタリングが成功すると、健康、サービス性、整合性、構造物の安全性などの情報が得られるが、構造物の継続的な性能維持は損傷の発生、発生、伝播の監視に大きく依存する。
環境や人為的な要因の異なる構造に損傷が蓄積することがある。
多くのモニタリングと検出手法が開発され、構造的損傷やあらゆる種類の異常に対して早期に警告する実用的な手段を提供している。
観測された構造物の振動応答を利用して、その状態を評価し、構造物の損傷を識別する振動に基づく手法が検討されている。
一方、近年のコンピューティングパワーとセンシング技術により、機械学習(ML)や特にディープラーニング(DL)アルゴリズムは、エレガントなパフォーマンスと厳密な精度を備えた振動に基づく構造的損傷検出において、より実現可能で広範囲に使用されている。
振動による構造損傷検出に関する複数のレビュー研究が報告されているが、従来の手法からMLおよびDL手法への移行について記述し議論する研究は行われていない。
本稿では,従来の手法のハイライトを提示することにより,このギャップを埋めることを目的としており,振動による土木構造物の構造損傷検出に利用したMLおよびDLアルゴリズムの最近の応用を包括的にレビューする。 Monitoring structural damage is extremely important for sustaining and preserving the service life of civil structures. While successful monitoring provides resolute and staunch information on the health, serviceability, integrity and safety of structures; maintaining continuous performance of a structure depends highly on monitoring the occurrence, formation and propagation of damage. Damage may accumulate on structures due to different environmental and human-induced factors. Numerous monitoring and detection approaches have been developed to provide practical means for early warning against structural damage or any type of anomaly. Considerable effort has been put into vibration-based methods, which utilize the vibration response of the monitored structure to assess its condition and identify structural damage. Meanwhile, with emerging computing power and sensing technology in the last decade, Machine Learning (ML) and especially Deep Learning (DL) algorithms have become more feasible and extensively used in vibration-based structural damage detection with elegant performance and often with rigorous accuracy. While there have been multiple review studies published on vibration-based structural damage detection, there has not been a study where the transition from traditional methods to ML and DL methods are described and discussed. This paper aims to fulfill this gap by presenting the highlights of the traditional methods and provide a comprehensive review of the most recent applications of ML and DL algorithms utilized for vibration-based structural damage detection in civil structures. | 翻訳日:2022-12-15 02:28:53 公開日:2020-04-09 |
# deep reinforcement learning (drl: unsupervised wireless localizationのもう1つの展望 Deep Reinforcement Learning (DRL): Another Perspective for Unsupervised Wireless Localization ( http://arxiv.org/abs/2004.04618v1 ) ライセンス: Link先を確認 | You Li, Xin Hu, Yuan Zhuang, Zhouzheng Gao, Peng Zhang, Naser El-Sheimy | (参考訳) ロケーションはIoT(Internet-of-things)データを空間化するための鍵である。
しかしながら、ロバストな教師なしローカライゼーション(つまり、既知のロケーションラベルを持つトレーニングデータなしでローカライゼーション)のために、低コストのIoTデバイスを使用することは困難である。
そこで本研究では,DRLに基づく非教師付き無線位置決め方式を提案する。
主な貢献は以下の通りである。
本研究では,連続的な無線局所化プロセスをマルコフ決定プロセス(MDP)としてモデル化し,DRLフレームワーク内で処理する方法を提案する。
2)未ラベルデータ(例えば,日々のクラウドソースデータ)を使用する場合の報酬獲得の課題を軽減するため,未ラベルの無線受信信号強度(RSS)からロバストなランドマークデータを抽出する報奨設定機構を提案する。
ローカライゼーションに DRL を使用する場合のモデル再訓練の要件を緩和するため,本論文では RSS 測定とエージェント位置を併用して DRL 入力を構築する。
提案手法は,複数のBluetooth 5スマートイヤータグのフィールドテストデータを用いて,牧草地での試験を行った。
一方、実験的な検証プロセスは、DRLを無線ローカライゼーションに使用する際の利点と課題を反映している。 Location is key to spatialize internet-of-things (IoT) data. However, it is challenging to use low-cost IoT devices for robust unsupervised localization (i.e., localization without training data that have known location labels). Thus, this paper proposes a deep reinforcement learning (DRL) based unsupervised wireless-localization method. The main contributions are as follows. (1) This paper proposes an approach to model a continuous wireless-localization process as a Markov decision process (MDP) and process it within a DRL framework. (2) To alleviate the challenge of obtaining rewards when using unlabeled data (e.g., daily-life crowdsourced data), this paper presents a reward-setting mechanism, which extracts robust landmark data from unlabeled wireless received signal strengths (RSS). (3) To ease requirements for model re-training when using DRL for localization, this paper uses RSS measurements together with agent location to construct DRL inputs. The proposed method was tested by using field testing data from multiple Bluetooth 5 smart ear tags in a pasture. Meanwhile, the experimental verification process reflected the advantages and challenges for using DRL in wireless localization. | 翻訳日:2022-12-15 02:28:11 公開日:2020-04-09 |
# 多重ネットワークにおけるリンク予測のヒューリスティックス Heuristics for Link Prediction in Multiplex Networks ( http://arxiv.org/abs/2004.04704v1 ) ライセンス: Link先を確認 | Robert E. Tillman, Vamsi K. Potluru, Jiahao Chen, Prashant Reddy, Manuela Veloso | (参考訳) リンク予測(リンク予測、英: Link prediction)は、ネットワーク分析においてよく研究されている問題である。
単一の種類の接続を持つ通常のネットワークにおけるリンク予測には、多数のヒューリスティックが存在する。
しかし、多重ネットワークや複数種類の接続を持つネットワークにおけるリンク予測は、よく理解されていない問題である。
本稿では,多くの実世界ネットワークに存在するリッチな接続型相関構造を利用した,単純で解釈可能な多重ネットワークリンク予測のための新しい汎用フレームワークと3種類のヒューリスティックスを提案する。
さらに、Erdos-Renyiランダムグラフと重複するリンク数に基づいて、異なる接続タイプをいつ使うかを決定するための理論的しきい値を導出する。
シミュレーションおよび実世界の科学コラボレーション,輸送,グローバルトレードネットワークを用いた実験により,提案するヒューリスティックスは接続型相関構造の豊かさとともに性能が向上し,単一の接続型を持つ通常のネットワークのベースラインヒューリスティックを大幅に上回ることを示した。 Link prediction, or the inference of future or missing connections between entities, is a well-studied problem in network analysis. A multitude of heuristics exist for link prediction in ordinary networks with a single type of connection. However, link prediction in multiplex networks, or networks with multiple types of connections, is not a well understood problem. We propose a novel general framework and three families of heuristics for multiplex network link prediction that are simple, interpretable, and take advantage of the rich connection type correlation structure that exists in many real world networks. We further derive a theoretical threshold for determining when to use a different connection type based on the number of links that overlap with an Erdos-Renyi random graph. Through experiments with simulated and real world scientific collaboration, transportation and global trade networks, we demonstrate that the proposed heuristics show increased performance with the richness of connection type correlation structure and significantly outperform their baseline heuristics for ordinary networks with a single connection type. | 翻訳日:2022-12-15 02:27:09 公開日:2020-04-09 |
# ランダム化脳波試験からの物体分類 Object classification from randomized EEG trials ( http://arxiv.org/abs/2004.06046v1 ) ライセンス: Link先を確認 | Hamad Ahmed, Ronnie B Wilbur, Hari M Bharadwaj, and Jeffrey Mark Siskind | (参考訳) 画像刺激から誘発されるヒト脳活動の脳波による分類の可能性に強い限界があることが示唆された。
適切な事前作業は、刺激クラスと実験開始以来の時間との相違に悩まされる。
ランダム化試行を用いたこの矛盾を避ける以前の試みは、データセットが元の実験と同じ大きさであった場合、統計的に重要な方法で結果を得ることができなかった。
ここでは、40のクラスの1000の刺激提示からなる、はるかに大きな(20倍)データセット上で、それぞれ1つの主題からランダムに実験を再現しようと試みます。
私たちの知る限り、これは単一の主題から得られる脳波データ収集における最大の取り組みであり、実現可能性の限界にあります。
統計的に有意な方法での確率と確率をわずかに上回る分類精度を得るとともに、使用する分類器、使用するトレーニングデータ、クラス数にどの程度依存しているかをさらに評価する。
分類精度の大幅な向上なしにデータ収集の限界に達することは、この企業の実現可能性の限界を示唆する。 New results suggest strong limits to the feasibility of classifying human brain activity evoked from image stimuli, as measured through EEG. Considerable prior work suffers from a confound between the stimulus class and the time since the start of the experiment. A prior attempt to avoid this confound using randomized trials was unable to achieve results above chance in a statistically significant fashion when the data sets were of the same size as the original experiments. Here, we again attempt to replicate these experiments with randomized trials on a far larger (20x) dataset of 1,000 stimulus presentations of each of forty classes, all from a single subject. To our knowledge, this is the largest such EEG data collection effort from a single subject and is at the bounds of feasibility. We obtain classification accuracy that is marginally above chance and above chance in a statistically significant fashion, and further assess how accuracy depends on the classifier used, the amount of training data used, and the number of classes. Reaching the limits of data collection without substantial improvement in classification accuracy suggests limits to the feasibility of this enterprise. | 翻訳日:2022-12-15 02:26:26 公開日:2020-04-09 |
# オープンセット領域適応のための継承可能なモデルに向けて Towards Inheritable Models for Open-Set Domain Adaptation ( http://arxiv.org/abs/2004.04388v1 ) ライセンス: Link先を確認 | Jogendra Nath Kundu, Naveen Venkat, Ambareesh Revanur, Rahul M V, R. Venkatesh Babu | (参考訳) 視覚認識タスクのためのドメイン適応(DA)は、非常に進歩しています。
特にオープンセットDAは、ターゲットドメインが追加の未確認カテゴリを含むという大きな注目を集めている。
既存のオープンセットDAアプローチでは、ラベル付きソースデータセットとラベルなしターゲットインスタンスへのアクセスが要求される。
しかし、データ共有がプロプライエタリな性質やプライバシ上の懸念のために制限されるシナリオでは、既存のソースとターゲットデータへの依存は非常に現実的ではない。
そこで本研究では,ソーストレーニングモデルを用いて,将来的なソースデータセットの欠如への適応を容易にする,実用的なDAパラダイムを提案する。
そこで我々は,知識継承可能性を新しい概念として定式化し,上記の実践的パラダイムに適した継承可能なモデルを実現するための,シンプルで効果的なソリューションを提案する。
さらに,ソースデータがない場合でも,対象領域に対して最適なソースモデルの選択を可能にするために,継承可能性の定量化を目的とする手法を提案する。
提案手法は,最先端のオープンセットドメイン適応性能を示す実験的な評価を伴う。 There has been a tremendous progress in Domain Adaptation (DA) for visual recognition tasks. Particularly, open-set DA has gained considerable attention wherein the target domain contains additional unseen categories. Existing open-set DA approaches demand access to a labeled source dataset along with unlabeled target instances. However, this reliance on co-existing source and target data is highly impractical in scenarios where data-sharing is restricted due to its proprietary nature or privacy concerns. Addressing this, we introduce a practical DA paradigm where a source-trained model is used to facilitate adaptation in the absence of the source dataset in future. To this end, we formalize knowledge inheritability as a novel concept and propose a simple yet effective solution to realize inheritable models suitable for the above practical paradigm. Further, we present an objective way to quantify inheritability to enable the selection of the most suitable source model for a given target domain, even in the absence of the source data. We provide theoretical insights followed by a thorough empirical evaluation demonstrating state-of-the-art open-set domain adaptation performance. | 翻訳日:2022-12-15 02:20:39 公開日:2020-04-09 |
# ユニバーサルソースフリードメイン適応 Universal Source-Free Domain Adaptation ( http://arxiv.org/abs/2004.04393v1 ) ライセンス: Link先を確認 | Jogendra Nath Kundu, Naveen Venkat, Rahul M V, R. Venkatesh Babu | (参考訳) ドメインシフトが存在する場合、ラベル付きソースドメインからラベルなしターゲットドメインにクラスセパビリティの知識を移行できる汎用的な学習技術を開発するための強力なインセンティブがある。
既存のドメイン適応(DA)アプローチは、ソース・ターゲット・ラベル・セット関係(クローズド・セット、オープン・セット、部分DAなど)の知識に依存しているため、実践的なDAシナリオには対応していない。
さらに、以前の教師なしのdaワークのほとんどすべてが、デプロイ中にもソースとターゲットのサンプルの共存を必要とするため、リアルタイム適応には適さない。
このような非現実的仮定を欠いた2段階学習プロセスを提案する。
1)調達段階では,今後のカテゴリギャップやドメインシフトに関する事前知識を前提とせず,将来的なソースフリーデプロイメントのためのモデルの提供を目指している。
これを実現するために,新しい生成型分類器フレームワークにおいて,利用可能なソースデータを活用することにより,アウト・オブ・ソースの分布サンプルを拒否するモデルの能力を高める。
2)デプロイ段階では,これまで見てきたソースサンプルにアクセスせずに,幅広いカテゴリギャップをまたいで動作可能な統一適応アルゴリズムを設計することが目的である。
この目的のために、複雑な対向的訓練体制の使用とは対照的に、新しいインスタンスレベルの重み付け機構(Source similarity Metric (SSM))を活用して、シンプルで効果的なソースフリー適応目標を定義する。
より詳細な評価は,最先端のソース依存アプローチよりも優れたDA性能を有する学習フレームワークの実用性を示している。 There is a strong incentive to develop versatile learning techniques that can transfer the knowledge of class-separability from a labeled source domain to an unlabeled target domain in the presence of a domain-shift. Existing domain adaptation (DA) approaches are not equipped for practical DA scenarios as a result of their reliance on the knowledge of source-target label-set relationship (e.g. Closed-set, Open-set or Partial DA). Furthermore, almost all prior unsupervised DA works require coexistence of source and target samples even during deployment, making them unsuitable for real-time adaptation. Devoid of such impractical assumptions, we propose a novel two-stage learning process. 1) In the Procurement stage, we aim to equip the model for future source-free deployment, assuming no prior knowledge of the upcoming category-gap and domain-shift. To achieve this, we enhance the model's ability to reject out-of-source distribution samples by leveraging the available source data, in a novel generative classifier framework. 2) In the Deployment stage, the goal is to design a unified adaptation algorithm capable of operating across a wide range of category-gaps, with no access to the previously seen source samples. To this end, in contrast to the usage of complex adversarial training regimes, we define a simple yet effective source-free adaptation objective by utilizing a novel instance-level weighting mechanism, named as Source Similarity Metric (SSM). A thorough evaluation shows the practical usability of the proposed learning framework with superior DA performance even over state-of-the-art source-dependent approaches. | 翻訳日:2022-12-15 02:20:23 公開日:2020-04-09 |
# ディープ畳み込みニューラルネットワークのための階層群スパース正規化 Hierarchical Group Sparse Regularization for Deep Convolutional Neural Networks ( http://arxiv.org/abs/2004.04394v1 ) ライセンス: Link先を確認 | Kakeru Mitsuno, Junichi Miyao and Takio Kurita | (参考訳) ディープニューラルネットワーク(DNN)では、パラメータの数は通常、高い学習性能を得るために膨大である。
そのため、多くのメモリとかなりの計算リソースがかかり、また過剰に適合する原因となる。
いくつかのパラメータは冗長であり、性能を低下させることなくネットワークから削除できることが知られている。
多くのスパース正規化基準がこの問題を解決するために提案されている。
畳み込みニューラルネットワーク(CNN)では、フィルタやチャネルなどの余分な重みのサブセットを取り除くために、群スパース正規化がしばしば使用される。
ニューロンに連結された重みに対する群スパース正規化を群として適用すると、各畳み込みフィルタは正規化において対象群として扱われない。
本稿では,この問題を解決するために階層的グループ化の概念を導入し,cnnの階層的グループスパース正規化基準を提案する。
提案する階層群スパース正規化は、入力ニューロンまたは出力ニューロンの重みを群として、畳み込みフィルタを同じ群の群として扱い、重みの不要な部分集合を損なうことができる。
その結果、ネットワークの構造や高い性能を維持するチャネル数によって、より適切に重み付けを行うことができる。
本実験では,複数のネットワークアーキテクチャを持つ公開データセットを対象とした集中的な比較実験により,スパース正規化の有効性を検討した。
コードはgithubで入手できる。 "https://github.com/k-mitsuno/hierarchical-group-sparse-regularization" In a deep neural network (DNN), the number of the parameters is usually huge to get high learning performances. For that reason, it costs a lot of memory and substantial computational resources, and also causes overfitting. It is known that some parameters are redundant and can be removed from the network without decreasing performance. Many sparse regularization criteria have been proposed to solve this problem. In a convolutional neural network (CNN), group sparse regularizations are often used to remove unnecessary subsets of the weights, such as filters or channels. When we apply a group sparse regularization for the weights connected to a neuron as a group, each convolution filter is not treated as a target group in the regularization. In this paper, we introduce the concept of hierarchical grouping to solve this problem, and we propose several hierarchical group sparse regularization criteria for CNNs. Our proposed the hierarchical group sparse regularization can treat the weight for the input-neuron or the output-neuron as a group and convolutional filter as a group in the same group to prune the unnecessary subsets of weights. As a result, we can prune the weights more adequately depending on the structure of the network and the number of channels keeping high performance. In the experiment, we investigate the effectiveness of the proposed sparse regularizations through intensive comparison experiments on public datasets with several network architectures. Code is available on GitHub: "https://github.com/K-Mitsuno/hierarchical-group-sparse-regularization" | 翻訳日:2022-12-15 02:19:58 公開日:2020-04-09 |
# 逆潜在オートエンコーダ Adversarial Latent Autoencoders ( http://arxiv.org/abs/2004.04467v1 ) ライセンス: Link先を確認 | Stanislav Pidhorskyi, Donald Adjeroh, Gianfranco Doretto | (参考訳) オートエンコーダネットワークは、エンコーダ・ジェネレータマップを同時に学習することにより、生成特性と表現特性を組み合わせることを目的とした教師なしアプローチである。
広範に研究されているが、それらがGANの同じ生成力を持つか、あるいは非絡み合った表現を学ぶかという問題は、完全には解決されていない。
我々はこれらの問題に共同で取り組むオートエンコーダを導入し、それをAdversarial Latent Autoencoder (ALAE) と呼ぶ。
これはganトレーニング手順の最近の改善を活用できる一般的なアーキテクチャである。
MLPエンコーダをベースとしたオートエンコーダと,StyleGANジェネレータをベースとした「StyleALAE」という2つのオートエンコーダを設計した。
両アーキテクチャの絡み合い特性を検証する。
StyleALAEはStyleGANに匹敵する品質の1024×1024の顔画像を生成するだけでなく、同じ解像度で実際の画像に基づいて顔の再構成や操作を生成できることを示す。
これにより、alaeは、ジェネレータのみのアーキテクチャの能力を超えて、比較可能な最初のオートエンコーダになります。 Autoencoder networks are unsupervised approaches aiming at combining generative and representational properties by learning simultaneously an encoder-generator map. Although studied extensively, the issues of whether they have the same generative power of GANs, or learn disentangled representations, have not been fully addressed. We introduce an autoencoder that tackles these issues jointly, which we call Adversarial Latent Autoencoder (ALAE). It is a general architecture that can leverage recent improvements on GAN training procedures. We designed two autoencoders: one based on a MLP encoder, and another based on a StyleGAN generator, which we call StyleALAE. We verify the disentanglement properties of both architectures. We show that StyleALAE can not only generate 1024x1024 face images with comparable quality of StyleGAN, but at the same resolution can also produce face reconstructions and manipulations based on real images. This makes ALAE the first autoencoder able to compare with, and go beyond the capabilities of a generator-only type of architecture. | 翻訳日:2022-12-15 02:18:55 公開日:2020-04-09 |
# グローバル変異演算子を用いた探索ヒューリスティックのためのアルゴリズム構成器の性能解析 Analysis of the Performance of Algorithm Configurators for Search Heuristics with Global Mutation Operators ( http://arxiv.org/abs/2004.04519v1 ) ライセンス: Link先を確認 | George T. Hall, Pietro Simone Oliveto, Dirk Sudholt | (参考訳) 近年,paramrlsと呼ばれる単純なアルゴリズム構成器が,確率的局所探索で使用する最適近傍サイズを効率的に同定し,2つの標準ベンチマーク問題クラスを最適化できることが実証されている。
本稿では、標準進化アルゴリズムで使用されるより洗練されたグローバル変異演算子をチューニングするためのアルゴリズム構成器の性能を解析し、n$のビットを確率$\chi/n$で独立に反転させ、$\chi$の最適値を特定する。
遮断時間$\kappa$の最適適合値を用いて、2つの標準ベンチマーク問題クラスである Ridge と LeadingOnes の実際の最適化時間と比較した場合のコンフィグレータの性能を比較した。
性能指標として最適化時間を利用するアルゴリズム構成者は、最適化時間を最適化時間と同等以上のカットオフ時間を必要とすることを厳格に証明する。
適合度指標を使用する場合、問題はかなり異なる。
これを示すために、ParamRLS-F設定器は、両方の問題クラスに対して最適なパラメータ値の期待値よりもかなり小さいカットオフ時間を用いても、最適な突然変異率を識別できることを示した。 Recently it has been proved that a simple algorithm configurator called ParamRLS can efficiently identify the optimal neighbourhood size to be used by stochastic local search to optimise two standard benchmark problem classes. In this paper we analyse the performance of algorithm configurators for tuning the more sophisticated global mutation operator used in standard evolutionary algorithms, which flips each of the $n$ bits independently with probability $\chi/n$ and the best value for $\chi$ has to be identified. We compare the performance of configurators when the best-found fitness values within the cutoff time $\kappa$ are used to compare configurations against the actual optimisation time for two standard benchmark problem classes, Ridge and LeadingOnes. We rigorously prove that all algorithm configurators that use optimisation time as performance metric require cutoff times that are at least as large as the expected optimisation time to identify the optimal configuration. Matters are considerably different if the fitness metric is used. To show this we prove that the simple ParamRLS-F configurator can identify the optimal mutation rates even when using cutoff times that are considerably smaller than the expected optimisation time of the best parameter value for both problem classes. | 翻訳日:2022-12-15 02:18:36 公開日:2020-04-09 |
# 強化学習を伴う付加区間における自動走行のリスク対応高レベル決定 Risk-Aware High-level Decisions for Automated Driving at Occluded Intersections with Reinforcement Learning ( http://arxiv.org/abs/2004.04450v1 ) ライセンス: Link先を確認 | Danial Kamran, Carlos Fernandez Lopez, Martin Lauer, Christoph Stiller | (参考訳) 強化学習は現在、自動運転におけるさまざまな意思決定問題を解決するためのフレームワークとして人気がある。
しかし、より信頼できるポリシーを提供するために対処すべき重要な課題が残っている。
本稿では,信号のない交差点を走行するための高レベル動作を学習するために,一般的なリスク対応DQNアプローチを提案する。
提案された状態表現はレーンベースの情報を提供し、マルチレーンシナリオに使用できる。
さらに,衝突失敗のみでなく,リスクのある状況を罰するリスクベースの報酬関数を提案する。
このような報奨的なアプローチは、リスク予測を私たちのディープQネットワークに組み込んで、より安全なより信頼性の高いポリシを学ぶ上で有効です。
提案手法の効率は,従来の衝突に基づく報酬方式で学習したdqnと,規則に基づく交差点案内方式と比較した。
評価の結果,提案手法はどちらの手法よりも優れていた。
衝突認識dqnアプローチよりも安全なアクションを提供し、ルールベースのポリシーよりも過度に注意を払わない。 Reinforcement learning is nowadays a popular framework for solving different decision making problems in automated driving. However, there are still some remaining crucial challenges that need to be addressed for providing more reliable policies. In this paper, we propose a generic risk-aware DQN approach in order to learn high level actions for driving through unsignalized occluded intersections. The proposed state representation provides lane based information which allows to be used for multi-lane scenarios. Moreover, we propose a risk based reward function which punishes risky situations instead of only collision failures. Such rewarding approach helps to incorporate risk prediction into our deep Q network and learn more reliable policies which are safer in challenging situations. The efficiency of the proposed approach is compared with a DQN learned with conventional collision based rewarding scheme and also with a rule-based intersection navigation policy. Evaluation results show that the proposed approach outperforms both of these methods. It provides safer actions than collision-aware DQN approach and is less overcautious than the rule-based policy. | 翻訳日:2022-12-15 02:17:39 公開日:2020-04-09 |
# 人工知能システムにおける敵対的事例とステルス攻撃について On Adversarial Examples and Stealth Attacks in Artificial Intelligence Systems ( http://arxiv.org/abs/2004.04479v1 ) ライセンス: Link先を確認 | Ivan Y. Tyukin, Desmond J. Higham, and Alexander N. Gorban | (参考訳) 本研究では,汎用人工知能(AI)システムに対する2種類の多元性行動の評価と解析のための公式な理論的枠組みを提案する。
この結果は、入力空間から決定空間にマッピングする一般的な多クラス分類器に適用される。
攻撃には2種類ある。
最初のクラスは、逆例と、誤分類を引き起こす入力データの小さな摂動の導入に関するものである。
第2のクラスは、ここで初めて導入され、ステルス攻撃と名付けられたもので、AIシステム自体に対する小さな摂動を伴う。
ここで、摂動システムは攻撃者が望む任意の出力を特定の小さなデータセット、おそらくは1つの入力で生成するが、検証セット上では正常に実行する(攻撃者には未知)。
いずれの場合も、敵の例に基づく攻撃の場合と、ステルス攻撃の場合において、aiの意思決定空間の次元性が、aiの感受性の主要な要因であることを示している。
2つ目の重要なパラメータは、データ確率分布における局所的な濃度の欠如であり、これはSmeared Absolute Continuityと呼ばれる性質である。
以上の結果から,敵対例に対するロバスト性はいずれかが要求される。
(a)AIの特徴空間内のデータ分布が集中確率密度関数を持つか
b)AIの決定変数の次元性は十分小さい。
また,検証セットを指数関数的に大きくしない限り検出しにくい高次元aiシステムに対して,ステルス攻撃を構築する方法を示す。 In this work we present a formal theoretical framework for assessing and analyzing two classes of malevolent action towards generic Artificial Intelligence (AI) systems. Our results apply to general multi-class classifiers that map from an input space into a decision space, including artificial neural networks used in deep learning applications. Two classes of attacks are considered. The first class involves adversarial examples and concerns the introduction of small perturbations of the input data that cause misclassification. The second class, introduced here for the first time and named stealth attacks, involves small perturbations to the AI system itself. Here the perturbed system produces whatever output is desired by the attacker on a specific small data set, perhaps even a single input, but performs as normal on a validation set (which is unknown to the attacker). We show that in both cases, i.e., in the case of an attack based on adversarial examples and in the case of a stealth attack, the dimensionality of the AI's decision-making space is a major contributor to the AI's susceptibility. For attacks based on adversarial examples, a second crucial parameter is the absence of local concentrations in the data probability distribution, a property known as Smeared Absolute Continuity. According to our findings, robustness to adversarial examples requires either (a) the data distributions in the AI's feature space to have concentrated probability density functions or (b) the dimensionality of the AI's decision variables to be sufficiently small. We also show how to construct stealth attacks on high-dimensional AI systems that are hard to spot unless the validation set is made exponentially large. | 翻訳日:2022-12-15 02:11:53 公開日:2020-04-09 |
# HopGAT: 疎ラベルグラフのためのホップ対応スーパービジョングラフアテンションネットワーク HopGAT: Hop-aware Supervision Graph Attention Networks for Sparsely Labeled Graphs ( http://arxiv.org/abs/2004.04333v1 ) ライセンス: Link先を確認 | Chaojie Ji, Ruxin Wang, Rongxiang Zhu, Yunpeng Cai, Hongyan Wu | (参考訳) ノードのラベル付けコストのため、少ないラベル付きグラフ内のノードを分類し、予測精度を維持しながら、注意に値する。
キーポイントは、アルゴリズムがホップ距離の異なる多くの隣人から十分な情報を学習する方法である。
本研究ではまず,ノード分類タスクに対するホップ認識型注意監視機構を提案する。
次に、学習時間軸に沿ってノード分類とホップ認識注意係数という2つの学習タスクのバランスをとるためにシミュレーションアニーリング学習戦略を採用する。
その結果,提案したHop-aware Supervision Graph Attention Networks (HopGAT)モデルの有効性が示された。
特にタンパク質-タンパク質相互作用ネットワークにおいて、40%のラベル付きグラフでは、完全なラベル付きグラフと比較して、パフォーマンス損失は98.5%から94.6%までわずか3.9%である。
集中的な実験は、監視された注意係数と学習戦略の有効性を示す。 Due to the cost of labeling nodes, classifying a node in a sparsely labeled graph while maintaining the prediction accuracy deserves attention. The key point is how the algorithm learns sufficient information from more neighbors with different hop distances. This study first proposes a hop-aware attention supervision mechanism for the node classification task. A simulated annealing learning strategy is then adopted to balance two learning tasks, node classification and the hop-aware attention coefficients, along the training timeline. Compared with state-of-the-art models, the experimental results proved the superior effectiveness of the proposed Hop-aware Supervision Graph Attention Networks (HopGAT) model. Especially, for the protein-protein interaction network, in a 40% labeled graph, the performance loss is only 3.9%, from 98.5% to 94.6%, compared to the fully labeled graph. Extensive experiments also demonstrate the effectiveness of supervised attention coefficient and learning strategies. | 翻訳日:2022-12-15 02:11:29 公開日:2020-04-09 |
# SDAEによる異常検出 Anomaly Detection with SDAE ( http://arxiv.org/abs/2004.04391v1 ) ライセンス: Link先を確認 | Benjamin Smith, Kevin Cant, Gloria Wang | (参考訳) 異常検出は、異常データの修正および/または除去のための学習における顕著なデータ前処理ステップである。
このデータ型をオートエンコーダを使って自動化することは、手動または基本的な統計分析によって見逃された異常を分離することで、データセットの品質を高めることができる。
アシュレービルディングエネルギーデータセット上での異常検出のために、単純で深層で教師ありの深いオートエンコーダを訓練し、比較した。
モデルがトレーニングされた制限されたパラメータを考慮すれば、Deep Autoencoderは最善を尽くすが、Supervised Deep Autoencoderは、テストデータセットに対する考慮が与えられたときに検出された全異常において、他のモデルよりも優れる。 Anomaly detection is a prominent data preprocessing step in learning applications for correction and/or removal of faulty data. Automating this data type with the use of autoencoders could increase the quality of the dataset by isolating anomalies that were missed through manual or basic statistical analysis. A Simple, Deep, and Supervised Deep Autoencoder were trained and compared for anomaly detection over the ASHRAE building energy dataset. Given the restricted parameters under which the models were trained, the Deep Autoencoder perfoms the best, however, the Supervised Deep Autoencoder outperforms the other models in total anomalies detected when considerations for the test datasets are given. | 翻訳日:2022-12-15 02:10:54 公開日:2020-04-09 |
# グラフハイウェイネットワーク Graph Highway Networks ( http://arxiv.org/abs/2004.04635v1 ) ライセンス: Link先を確認 | Xin Xin, Alexandros Karatzoglou, Ioannis Arapakis, Joemon M.Jose | (参考訳) グラフ畳み込みネットワーク(GCN)はグラフ表現の有効性と効率性から広く用いられている。
しかし、多くの(>3)グラフ畳み込み層が積み重ねられたときに、密結合されたノードの学習された表現が類似のベクトルに収束する、悪名高い過剰スムーシング問題に苦しむ。
本稿では,GCNにおける正規化手法が,過度に均質な情報伝達をもたらすことを論じる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフを自動的にバランスさせるため,ゲーティングユニットを用いたグラフハイウェイネットワーク(GHNet)を提案する。
ゲーティングユニットは、特徴伝播後にノード自身から異種情報を維持するための直接ハイウェイとして機能する。
この設計により、GHNetはオーバースムーシングなしでノード毎の受信フィールドをはるかに大きくすることができ、グラフ接続情報にアクセスできるようになる。
ベンチマークデータセットの実験結果は、GCNおよび関連するモデルよりもGHNetの方が優れた性能を示す。 Graph Convolution Networks (GCN) are widely used in learning graph representations due to their effectiveness and efficiency. However, they suffer from the notorious over-smoothing problem, in which the learned representations of densely connected nodes converge to alike vectors when many (>3) graph convolutional layers are stacked. In this paper, we argue that there-normalization trick used in GCN leads to overly homogeneous information propagation, which is the source of over-smoothing. To address this problem, we propose Graph Highway Networks(GHNet) which utilize gating units to automatically balance the trade-off between homogeneity and heterogeneity in the GCN learning process. The gating units serve as direct highways to maintain heterogeneous information from the node itself after feature propagation. This design enables GHNet to achieve much larger receptive fields per node without over-smoothing and thus access to more of the graph connectivity information. Experimental results on benchmark datasets demonstrate the superior performance of GHNet over GCN and related models. | 翻訳日:2022-12-15 02:10:26 公開日:2020-04-09 |
# 知識グラフ補完のためのボトムアップルール学習の強化 Reinforced Anytime Bottom Up Rule Learning for Knowledge Graph Completion ( http://arxiv.org/abs/2004.04412v1 ) ライセンス: Link先を確認 | Christian Meilicke, Melisachew Wudage Chekol, Manuel Fink, Heiner Stuckenschmidt | (参考訳) 今日のナレッジグラフ補完の研究のほとんどは、与えられたグラフを低次元ベクトル空間に埋め込むという概念に焦点を当てた部分記号的アプローチに関するものである。
この傾向に対して,我々は記号空間に根ざしたanyburlと呼ばれるアプローチを提案する。
その核となるアルゴリズムは、ホーン規則に一般化されたサンプリングパスに基づいている。
これまでに公表された結果から,AnyBURLの予測品質は現在の技術水準と同等であり,予測事実の説明を提供することによるメリットが示された。
本稿では,anyburlの2つの拡張について述べる。
まず、anyburlsのルール解釈を、オブジェクトidの下で$\theta$-subsumptionから$\theta$-subsumptionに変更します。
第2に,サンプリングプロセスの指針となる強化学習を導入する。
強化学習は、検索プロセスの早い段階でより価値のあるルールを見つけるのに役立つことがわかった。
両方の拡張の影響を測定し、その結果のアプローチと現在のアートアプローチを比較します。
その結果,AnyBURLはサブシンボリックな手法よりも優れていた。 Most of todays work on knowledge graph completion is concerned with sub-symbolic approaches that focus on the concept of embedding a given graph in a low dimensional vector space. Against this trend, we propose an approach called AnyBURL that is rooted in the symbolic space. Its core algorithm is based on sampling paths, which are generalized into Horn rules. Previously published results show that the prediction quality of AnyBURL is on the same level as current state of the art with the additional benefit of offering an explanation for the predicted fact. In this paper, we are concerned with two extensions of AnyBURL. Firstly, we change AnyBURLs interpretation of rules from $\Theta$-subsumption into $\Theta$-subsumption under Object Identity. Secondly, we introduce reinforcement learning to better guide the sampling process. We found out that reinforcement learning helps finding more valuable rules earlier in the search process. We measure the impact of both extensions and compare the resulting approach with current state of the art approaches. Our results show that AnyBURL outperforms most sub-symbolic methods. | 翻訳日:2022-12-15 01:59:38 公開日:2020-04-09 |
# rdf2vec組込み改善のための暗黙の人間フィードバック活用に向けて Towards Exploiting Implicit Human Feedback for Improving RDF2vec Embeddings ( http://arxiv.org/abs/2004.04423v1 ) ライセンス: Link先を確認 | Ahmad Al Taweel and Heiko Paulheim | (参考訳) rdf2vec は rdf 知識グラフからベクトル空間を埋め込み、すなわちグラフの各エンティティをベクトルとして表現する手法である。
グラフ上でランダムウォークを実行することで、まずノードのシーケンスを生成する。
第2のステップでは、これらのシーケンスは、実際の埋め込みを生成するワード2vecアルゴリズムによって処理される。
本稿では,ランダムウォークを誘導するための外縁重みの利用について検討する。
エッジの重み付けとして、wikipediaのページ間の遷移確率は、エッジの重要性に対する人間のフィードバックのプロキシとして使用される。
いくつかのシナリオでは、遷移確率を利用したrdf2vecがランダムウォークに基づくrdf2vecとグラフ内部エッジウエイトの使用の両方を上回っていることが示されている。 RDF2vec is a technique for creating vector space embeddings from an RDF knowledge graph, i.e., representing each entity in the graph as a vector. It first creates sequences of nodes by performing random walks on the graph. In a second step, those sequences are processed by the word2vec algorithm for creating the actual embeddings. In this paper, we explore the use of external edge weights for guiding the random walks. As edge weights, transition probabilities between pages in Wikipedia are used as a proxy for the human feedback for the importance of an edge. We show that in some scenarios, RDF2vec utilizing those transition probabilities can outperform both RDF2vec based on random walks as well as the usage of graph internal edge weights. | 翻訳日:2022-12-15 01:53:17 公開日:2020-04-09 |
# マルチエージェント強化学習フレームワークにおける言語ゲームパラダイムの再概念化 Re-conceptualising the Language Game Paradigm in the Framework of Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2004.04722v1 ) ライセンス: Link先を確認 | Paul Van Eecke (1 and 2), Katrien Beuls (1) ((1) Artificial Intelligence Laboratory, Vrije Universiteit Brussel, Brussels, Belgium, (2) ITEC, imec research group at KU Leuven, Kortrijk, Belgium) | (参考訳) 本稿では,マルチエージェント強化学習(MARL)の枠組みにおいて,言語ゲーム実験パラダイムの再概念化の課題を定式化する。
もし成功したら、将来の言語ゲーム実験は、MARLコミュニティの迅速かつ有望な方法論的進歩の恩恵を受けるだろう。
このクロスポリン化は、マルチエージェントシステムにおいて、人間のような言語がどのように出現し進化するかのモデリングにおいて、大きなブレークスルーをもたらす可能性があると強く信じている。 In this paper, we formulate the challenge of re-conceptualising the language game experimental paradigm in the framework of multi-agent reinforcement learning (MARL). If successful, future language game experiments will benefit from the rapid and promising methodological advances in the MARL community, while future MARL experiments on learning emergent communication will benefit from the insights and results gained from language game experiments. We strongly believe that this cross-pollination has the potential to lead to major breakthroughs in the modelling of how human-like languages can emerge and evolve in multi-agent systems. | 翻訳日:2022-12-15 01:53:04 公開日:2020-04-09 |
# シャプリー値による異常解釈について On Anomaly Interpretation via Shapley Values ( http://arxiv.org/abs/2004.04464v1 ) ライセンス: Link先を確認 | Naoya Takeishi and Yoshinobu Kawahara | (参考訳) 異常局在は異常検出と同様に重要な問題である。
厳密なローカライゼーションは対象システムの因果モデルを必要とするため、実際、私たちはしばしば異常解釈の緩和された問題に頼り、入力特徴に対する異常スコアの有意義な帰属を得る。
本稿では,Shapley値の異常解釈への応用について検討する。
本稿では,半教師付き異常検出に着目し,特に異常スコアについて,Shapley値が計算される特徴関数を提案する。
提案手法の考え方は, 異常スコアを最小化することにより, 特徴の欠如を近似することである。
本稿では,提案手法の性能と,異常値の解釈におけるShapley値の計算方法について検討する。
本稿では,複数のデータセットと異常検出法について実験を行い,shapleyに基づく異常検出手法の有用性を示した。 Anomaly localization is an essential problem as anomaly detection is. Because a rigorous localization requires a causal model of a target system, practically we often resort to a relaxed problem of anomaly interpretation, for which we are to obtain meaningful attribution of anomaly scores to input features. In this paper, we investigate the use of the Shapley value for anomaly interpretation. We focus on the semi-supervised anomaly detection and newly propose a characteristic function, on which the Shapley value is computed, specifically for anomaly scores. The idea of the proposed method is approximating the absence of some features by minimizing an anomaly score with regard to them. We examine the performance of the proposed method as well as other general approaches to computing the Shapley value in interpreting anomaly scores. We show the results of experiments on multiple datasets and anomaly detection methods, which indicate the usefulness of the Shapley-based anomaly interpretation toward anomaly localization. | 翻訳日:2022-12-15 01:52:31 公開日:2020-04-09 |
# 人間と物体の相互作用検出のための空間的プライミング Spatial Priming for Detecting Human-Object Interactions ( http://arxiv.org/abs/2004.04851v1 ) ライセンス: Link先を確認 | Ankan Bansal, Sai Saketh Rambhatla, Abhinav Shrivastava, Rama Chellappa | (参考訳) 人間と物体の相対的な空間配置は、それらの相互作用を決定する上で重要な手がかりである。
しかし、これまで空間レイアウトは、人間と物体の相互作用(hois)を検出するためのサイド情報として使われてきた。
本稿では,この空間配置情報を利用して画像中のHOIを検出する手法を提案する。
提案手法は,人間とオブジェクトとのインタラクションのタイプを予測するビジュアルモジュールを提示するレイアウトモジュールで構成されている。
ビジュアルモジュールとレイアウトモジュールは、複数の段階で横接続を通して情報を共有する。
モデルは、レイアウトモジュールからの予測をビジュアルモジュールの先行として使用し、ビジュアルモジュールからの予測を最終的な出力として与える。
また、Word2vecベクトルを使ってオブジェクトのセマンティック情報を組み込む。
提案したモデルでは、HICO-DetデータセットのmAPが24.79%に達し、これは現在の最先端よりも約2.8%高い。 The relative spatial layout of a human and an object is an important cue for determining how they interact. However, until now, spatial layout has been used just as side-information for detecting human-object interactions (HOIs). In this paper, we present a method for exploiting this spatial layout information for detecting HOIs in images. The proposed method consists of a layout module which primes a visual module to predict the type of interaction between a human and an object. The visual and layout modules share information through lateral connections at several stages. The model uses predictions from the layout module as a prior to the visual module and the prediction from the visual module is given as the final output. It also incorporates semantic information about the object using word2vec vectors. The proposed model reaches an mAP of 24.79% for HICO-Det dataset which is about 2.8% absolute points higher than the current state-of-the-art. | 翻訳日:2022-12-15 01:51:53 公開日:2020-04-09 |
# TOG:リアルタイム物体検出システムにおける対向的対象度勾配攻撃 TOG: Targeted Adversarial Objectness Gradient Attacks on Real-time Object Detection Systems ( http://arxiv.org/abs/2004.04320v1 ) ライセンス: Link先を確認 | Ka-Ho Chow, Ling Liu, Mehmet Emre Gursoy, Stacey Truex, Wenqi Wei, Yanzhao Wu | (参考訳) リアルタイムの巨大なデータキャプチャの急速な成長は、ディープラーニングとデータ分析コンピューティングをエッジシステムへと押し上げた。
エッジ上のリアルタイムオブジェクト認識は、自律運転や拡張現実など、現実のミッションクリティカルなアプリケーションのための代表的ディープニューラルネットワーク(DNN)駆動エッジシステムの1つである。
dnnによる物体検出エッジシステムは、多くのライフエンリッチな機会を祝っているが、悪用や悪用の扉も開けている。
本稿では,対象とする3つの対向的対象性勾配攻撃をtogとして,最先端の深層物体検出ネットワークがオブジェクト破壊,オブジェクト生成,オブジェクトミスラベル攻撃に苦しむ原因について述べる。
また,ブラックボックス攻撃に対する対向的伝達性を利用する汎用的オブジェクト指向勾配攻撃も提案する。これは攻撃時間や人間の知覚能力の低い入力,特に物体検出エッジシステムに対する有害な入力に対して有効である。
2つのベンチマークデータセット(PASCAL VOCとMS COCO)を用いて2つの最先端検出アルゴリズム(YOLOとSSD)について実験を行った。
その結果, 深刻な敵対的脆弱性と, 堅牢な物体検出システムの開発の必要性が示された。 The rapid growth of real-time huge data capturing has pushed the deep learning and data analytic computing to the edge systems. Real-time object recognition on the edge is one of the representative deep neural network (DNN) powered edge systems for real-world mission-critical applications, such as autonomous driving and augmented reality. While DNN powered object detection edge systems celebrate many life-enriching opportunities, they also open doors for misuse and abuse. This paper presents three Targeted adversarial Objectness Gradient attacks, coined as TOG, which can cause the state-of-the-art deep object detection networks to suffer from object-vanishing, object-fabrication, and object-mislabeling attacks. We also present a universal objectness gradient attack to use adversarial transferability for black-box attacks, which is effective on any inputs with negligible attack time cost, low human perceptibility, and particularly detrimental to object detection edge systems. We report our experimental measurements using two benchmark datasets (PASCAL VOC and MS COCO) on two state-of-the-art detection algorithms (YOLO and SSD). The results demonstrate serious adversarial vulnerabilities and the compelling need for developing robust object detection systems. | 翻訳日:2022-12-15 01:51:39 公開日:2020-04-09 |
# ビデオ圧縮のためのフィードバックリカレントオートエンコーダ Feedback Recurrent Autoencoder for Video Compression ( http://arxiv.org/abs/2004.04342v1 ) ライセンス: Link先を確認 | Adam Golinski, Reza Pourreza, Yang Yang, Guillaume Sautiere, Taco S Cohen | (参考訳) 深層生成モデリングの最近の進歩により、高次元データ分布の効率的なモデリングが可能となり、データ圧縮問題を解決する新たな地平が開かれた。
特に、オートエンコーダをベースとした学習画像やビデオ圧縮ソリューションは、従来のアプローチと強い競合関係にある。
本研究では,低レイテンシモードで動作する学習ビデオ圧縮のための,共通かつよく研究されたコンポーネントに基づく新しいネットワークアーキテクチャを提案する。
提案手法は,学習ビデオ圧縮手法と古典ビデオ圧縮手法(H.265とH.264)の双方のうち,高精細なUVGデータセット上でのMS-SSIM/レート性能を,ストリーミングアプリケーションへの関心度の範囲で評価する。
さらに,その基礎となる確率的グラフィカルモデルのレンズを通して,既存のアプローチの分析を行う。
最後に,経験的評価で観察される時間的一貫性と色変化の問題点を指摘し,それらを緩和するための方向性を提案する。 Recent advances in deep generative modeling have enabled efficient modeling of high dimensional data distributions and opened up a new horizon for solving data compression problems. Specifically, autoencoder based learned image or video compression solutions are emerging as strong competitors to traditional approaches. In this work, We propose a new network architecture, based on common and well studied components, for learned video compression operating in low latency mode. Our method yields state of the art MS-SSIM/rate performance on the high-resolution UVG dataset, among both learned video compression approaches and classical video compression methods (H.265 and H.264) in the rate range of interest for streaming applications. Additionally, we provide an analysis of existing approaches through the lens of their underlying probabilistic graphical models. Finally, we point out issues with temporal consistency and color shift observed in empirical evaluation, and suggest directions forward to alleviate those. | 翻訳日:2022-12-15 01:51:16 公開日:2020-04-09 |
# テンソルプロジェクション層:CNNにおけるテンソルベース次元化手法 TensorProjection Layer: A Tensor-Based Dimensionality Reduction Method in CNN ( http://arxiv.org/abs/2004.04454v1 ) ライセンス: Link先を確認 | Toshinari Morimoto, Su-Yun Huang | (参考訳) 本稿では,畳み込みニューラルネットワークにおけるテンソルプロジェクション層(テンソルプロジェクション層)の隠蔽層としてテンソル構造データに適用した次元削減手法を提案する。
提案手法は,入力テンソルを投影によりより小さな次元のものに変換する。
プロジェクションの方向は,提案層に関連するトレーニングパラメータと見なされ,クロスエントロピー損失関数の最小化などの教師あり学習基準によって学習される。
提案する層に関連付けられたパラメータに関して,損失関数の勾配について検討する。
また,テンソル投影層の性能評価のために,簡単な数値実験も実施する。 In this paper, we propose a dimensionality reduction method applied to tensor-structured data as a hidden layer (we call it TensorProjection Layer) in a convolutional neural network. Our proposed method transforms input tensors into ones with a smaller dimension by projection. The directions of projection are viewed as training parameters associated with our proposed layer and trained via a supervised learning criterion such as minimization of the cross-entropy loss function. We discuss the gradients of the loss function with respect to the parameters associated with our proposed layer. We also implement simple numerical experiments to evaluate the performance of the TensorProjection Layer. | 翻訳日:2022-12-15 01:50:59 公開日:2020-04-09 |
# 学習可能なサブスペースクラスタリング Learnable Subspace Clustering ( http://arxiv.org/abs/2004.04520v1 ) ライセンス: Link先を確認 | Jun Li, Hongfu Liu, Zhiqiang Tao, Handong Zhao, and Yun Fu | (参考訳) 本稿では,大規模部分空間クラスタリング(lssc)問題と百万のデータポイントについて検討する。
多くの一般的なサブスペースクラスタリング手法はlssc問題を直接処理することはできないが、小規模データポイントに対する最先端の手法と見なされている。
基本的な理由は、これらの方法が巨大なコーディングモデルを構築するための大きな辞書として、すべてのデータポイントを選択することが多いため、これにより、時間と空間の複雑さが高まるからだ。
本稿では,LSSC問題を効率的に解くための学習可能なサブスペースクラスタリングパラダイムを開発する。
鍵となる考え方は、古典的な符号化モデルのコストではなく、高次元部分空間を下層の低次元部分空間に分割するパラメトリック関数を学ぶことである。
さらに,交互最小化アルゴリズムによって解くことができるパラメトリック関数を学習するための統一ロバスト予測符号化マシン(rpcm)を提案する。
さらに、パラメトリック関数の有界収縮解析も提供する。
我々の知る限り、この論文は、サブスペースクラスタリング手法の中で数百万のデータポイントを効率的にクラスタ化する最初の試みである。
百万規模のデータセットの実験により、我々のパラダイムは、効率と有効性の両方において、関連する最先端手法よりも優れていることが検証された。 This paper studies the large-scale subspace clustering (LSSC) problem with million data points. Many popular subspace clustering methods cannot directly handle the LSSC problem although they have been considered as state-of-the-art methods for small-scale data points. A basic reason is that these methods often choose all data points as a big dictionary to build huge coding models, which results in a high time and space complexity. In this paper, we develop a learnable subspace clustering paradigm to efficiently solve the LSSC problem. The key idea is to learn a parametric function to partition the high-dimensional subspaces into their underlying low-dimensional subspaces instead of the expensive costs of the classical coding models. Moreover, we propose a unified robust predictive coding machine (RPCM) to learn the parametric function, which can be solved by an alternating minimization algorithm. In addition, we provide a bounded contraction analysis of the parametric function. To the best of our knowledge, this paper is the first work to efficiently cluster millions of data points among the subspace clustering methods. Experiments on million-scale datasets verify that our paradigm outperforms the related state-of-the-art methods in both efficiency and effectiveness. | 翻訳日:2022-12-15 01:50:49 公開日:2020-04-09 |