このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200908となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# グラフェン中の$d$-wave超伝導対の長距離伝播と干渉 Long-Range Propagation and Interference of $d$-wave Superconducting Pairs in Graphene ( http://arxiv.org/abs/2002.10173v2 ) ライセンス: Link先を確認 | D. Perconte, K. Seurre, V. Humbert, C. Ulysse, A. Sander, J. Trastoy, V. Zatko, F. Godel, P. R. Kidambi, S. Hofmann, X. P. Zhang, D. Bercioux, F. S. Bergeret, B. Dlubak, P. Seneor and Javier E. Villegas | (参考訳) 最近の実験では、高温超伝導体との近接がグラフェンの非典型的な超伝導相関を引き起こすことが示されている。
ここでは、これらの相関関係が数百ナノメートルを伝播していることを示し、ファブリー・ピエローキャビティとして振る舞うyba$_2$cu$_3$o$_7$-グラフェンデバイスにおけるd$-wave andreev対の干渉をユニークな観察を可能にした。
干渉は、従来の金属-超伝導接合に対するド・ゲンヌ-サン=ジェームスによって予測されたものと類似した一連の顕著な伝導振動を示す。
本研究は, ディラックの常温超伝導に期待されるエキゾチックな方向効果の研究に大きく寄与する。 Recent experiments have shown that proximity with high-temperature superconductors induces unconventional superconducting correlations in graphene. Here we demonstrate that those correlations propagate hundreds of nanometer, allowing for the unique observation of $d$-wave Andreev pair interferences in YBa$_2$Cu$_3$O$_7$-graphene devices that behave as a Fabry-P\'erot cavity. The interferences show as a series of pronounced conductance oscillations analogous to those originally predicted by de Gennes--Saint-James for conventional metal-superconductor junctions. The present work is pivotal to the study of exotic directional effects expected for nodal superconductivity in Dirac materials. | 翻訳日:2023-06-02 05:16:52 公開日:2020-09-08 |
# 純粋定常状態の散逸生成とギャンブラーの破滅問題 Dissipative generation of pure steady states and a gambler's ruin problem ( http://arxiv.org/abs/2003.12149v2 ) ライセンス: Link先を確認 | Vladislav Popkov, Simon Essink, Corinna Kollath, Carlo Presilla | (参考訳) 開放量子系を考えると、散逸はその自由度の一部にのみ適用され、量子マルコフダイナミクスを通じて進化する。
大散逸のゼノ体制において、純粋量子状態への量子系の緩和は、古典マルコフ過程の1つの吸収状態への進化と関係していることを示す。
関連する古典マルコフ過程の速度は、元の量子力学によって決定される。
この対応を吸収状態と内部構造に拡張することで、任意の有限ランクのゼノリミット非平衡定常状態を持つ一般的な基準を確立することができる。
この基準の適用例は、開 XXZ スピン-1/2 鎖がその端で散逸的に結合し、固定された分極と異なる分極を持つ浴槽で示される。
この系では、位数 1 と 2 の正確な非平衡定常解を求める。 We consider an open quantum system, with dissipation applied only to a part of its degrees of freedom, evolving via a quantum Markov dynamics. We demonstrate that, in the Zeno regime of large dissipation, the relaxation of the quantum system towards a pure quantum state is linked to the evolution of a classical Markov process towards a single absorbing state. The rates of the associated classical Markov process are determined by the original quantum dynamics. Extension of this correspondence to absorbing states with internal structure allows us to establish a general criterion for having a Zeno-limit nonequilibrium stationary state of arbitrary finite rank. An application of this criterion is illustrated in the case of an open XXZ spin-1/2 chain dissipatively coupled at its edges to baths with fixed and different polarizations. For this system, we find exact nonequilibrium steady-state solutions of ranks 1 and 2. | 翻訳日:2023-05-27 20:25:47 公開日:2020-09-08 |
# 1次元における無作為量子回路の効率的古典シミュレーション Efficient classical simulation of noisy random quantum circuits in one dimension ( http://arxiv.org/abs/2003.13163v3 ) ライセンス: Link先を確認 | Kyungjoo Noh, Liang Jiang, Bill Fefferman | (参考訳) ノイズの多い中間規模量子(NISQ)デバイスの計算能力を理解することは、量子情報科学の基本的かつ実践的な重要性である。
本稿では,誤り訂正なしの雑音量子コンピュータが古典的コンピュータに対して計算上の優位性を提供できるかどうかという問題に対処する。
具体的には,雑音量子デバイスの計算能力に対するノイズの影響を調べるための簡易モデルとして,一次元(あるいは1次元ノイズrcs)のノイズランダムサンプリングについて検討した。
特に,行列積演算子(MPO)による1Dノイズランダム量子回路のリアルタイムダイナミクスをシミュレーションし,MPOエンタングルメントエントロピーと呼ばれる計量を用いて1Dノイズ量子系の計算パワーを特徴づける。
後者の計量は古典的mpoシミュレーションのコストを決定するため選択される。
1Dノイズシステムの古典的MPOシミュレーションのコストを指数関数的に増加させることなく、より多くの量子ビットを追加するという特性的なシステムサイズが存在することを数値的に示す。
具体的には,mpo絡み合いエントロピーを最大化するシステムサイズとは独立に,特性的なシステムサイズ以上の最適回路深度が存在することを示す。
最も重要なことは、最大達成可能なMPOエンタングルメントエントロピーは、システムサイズではなくゲートエラー率にのみ依存する定数によって制限されることである。
また,最大到達可能なMPOエンタングルメントエントロピーのスケーリングをゲート誤差率の関数として得るためのヒューリスティック解析を行った。
得られたスケーリングは,MPOシミュレーションのコストが特定の特性を持つシステムサイズ以上のシステムサイズで指数関数的に増加することはないが,ゲートエラー率が減少するにつれて指数関数的に増加することを示唆している。 Understanding the computational power of noisy intermediate-scale quantum (NISQ) devices is of both fundamental and practical importance to quantum information science. Here, we address the question of whether error-uncorrected noisy quantum computers can provide computational advantage over classical computers. Specifically, we study noisy random circuit sampling in one dimension (or 1D noisy RCS) as a simple model for exploring the effects of noise on the computational power of a noisy quantum device. In particular, we simulate the real-time dynamics of 1D noisy random quantum circuits via matrix product operators (MPOs) and characterize the computational power of the 1D noisy quantum system by using a metric we call MPO entanglement entropy. The latter metric is chosen because it determines the cost of classical MPO simulation. We numerically demonstrate that for the two-qubit gate error rates we considered, there exists a characteristic system size above which adding more qubits does not bring about an exponential growth of the cost of classical MPO simulation of 1D noisy systems. Specifically, we show that above the characteristic system size, there is an optimal circuit depth, independent of the system size, where the MPO entanglement entropy is maximized. Most importantly, the maximum achievable MPO entanglement entropy is bounded by a constant that depends only on the gate error rate, not on the system size. We also provide a heuristic analysis to get the scaling of the maximum achievable MPO entanglement entropy as a function of the gate error rate. The obtained scaling suggests that although the cost of MPO simulation does not increase exponentially in the system size above a certain characteristic system size, it does increase exponentially as the gate error rate decreases, possibly making classical simulation practically not feasible even with state-of-the-art supercomputers. | 翻訳日:2023-05-27 14:21:58 公開日:2020-09-08 |
# 量子制御のための人間の常識をクラウドソーシングする Crowdsourcing human common sense for quantum control ( http://arxiv.org/abs/2004.03296v2 ) ライセンス: Link先を確認 | Jesper Hasseriis Mohr Jensen, Miroslav Gajdacz, Shaeema Zaman Ahmed, Jakub Herman Czarkowski, Carrie Weidner, Janet Rafner, Jens Jakob S{\o}rensen, Klaus M{\o}lmer, Jacob Friis Sherson | (参考訳) 市民科学の方法論は、非常に複雑な数値的な課題を解決するために、過去10年間に大成功を収めてきた。
ここでは,市民科学ゲームQuantum Moves 2を導入することで,量子物理学分野の初期段階を踏襲し,様々な難易度を持つ3つの量子最適制御問題に対して,異なる最適化手法の性能を比較する。
ゲーム内では、プレイヤーは勾配ベースのアルゴリズム(デバイス上でローカルに実行される)を適用して解を最適化することができ、これらの結果がコンピュータクラスタで実行されるテストされた標準最適化手法とほぼ同等の性能を発揮することが分かる。
さらに、クラスタ最適化プレイヤシードは、3つの課題すべてに対して、ほぼ最適なパフォーマンスを示す唯一の方法であった。
これは将来の量子研究問題の解をクラウドソーシングする可能性を強調している。 Citizen science methodologies have over the past decade been applied with great success to help solve highly complex numerical challenges. Here, we take early steps in the quantum physics arena by introducing a citizen science game, Quantum Moves 2, and compare the performance of different optimization methods across three different quantum optimal control problems of varying difficulty. Inside the game, players can apply a gradient-based algorithm (running locally on their device) to optimize their solutions and we find that these results perform roughly on par with the best of the tested standard optimization methods performed on a computer cluster. In addition, cluster-optimized player seeds was the only method to exhibit roughly optimal performance across all three challenges. This highlights the potential for crowdsourcing the solution of future quantum research problems. | 翻訳日:2023-05-26 04:20:27 公開日:2020-09-08 |
# 3次元の位相次数に富むサブシステム対称性 Subsystem symmetry enriched topological order in three dimensions ( http://arxiv.org/abs/2004.04181v2 ) ライセンス: Link先を確認 | David T. Stephen, Jos\'e Garre-Rubio, Arpit Dua, Dominic J. Williamson | (参考訳) 平面サブシステム対称性に富む3次元トポロジカル秩序のモデルを導入する。
このモデルは、基底状態を2次元(2次元)膜被覆の等重量重ね合わせと見なすことができる3次元トーリックコードから構築される。
次に、これらの膜を、線状サブシステム対称性の下で対称性保護された位相秩序を持つ2次元クラスター状態でデコレートする。
これは、トーリック符号のループ状励起が分数化する平面サブシステム対称性で装飾されたモデルを内包し、単位単位長当たりの広範な縮退をもたらす。
また,トポロジ的絡み合いエントロピーの値は,部分系対称性の富化による部分分割のトーリック符号よりも大きいことを示す。
我々のモデルは、大域的およびサブシステム的対称性の相互作用から生じる対称性が保護された位相秩序を持つ短距離交絡モデルの大域対称性をゲージすることで得られる。
このモデルの境界に対する対称性の非自明な作用について検討し、大域的対称性とサブシステム的対称性の混合境界異常を明らかにする。
この相互作用をさらに研究するために、全対称性のいくつかの異なる部分群を考える。
フラクトントポロジカル秩序を持つモデルを含む結果のモデルネットワークは、3Dで起こりうるサブシステム対称性のリッチ化の可能性を示す。 We introduce a model of three-dimensional (3D) topological order enriched by planar subsystem symmetries. The model is constructed starting from the 3D toric code, whose ground state can be viewed as an equal-weight superposition of two-dimensional (2D) membrane coverings. We then decorate those membranes with 2D cluster states possessing symmetry-protected topological order under line-like subsystem symmetries. This endows the decorated model with planar subsystem symmetries under which the loop-like excitations of the toric code fractionalize, resulting in an extensive degeneracy per unit length of the excitation. We also show that the value of the topological entanglement entropy is larger than that of the toric code for certain bipartitions due to the subsystem symmetry enrichment. Our model can be obtained by gauging the global symmetry of a short-range entangled model which has symmetry-protected topological order coming from an interplay of global and subsystem symmetries. We study the non-trivial action of the symmetries on boundary of this model, uncovering a mixed boundary anomaly between global and subsystem symmetries. To further study this interplay, we consider gauging several different subgroups of the total symmetry. The resulting network of models, which includes models with fracton topological order, showcases more of the possible types of subsystem symmetry enrichment that can occur in 3D. | 翻訳日:2023-05-25 11:22:48 公開日:2020-09-08 |
# 双対性を持つ二次ボソニックハミルトニアンにおける復元数保存 Restoring number conservation in quadratic bosonic Hamiltonians with dualities ( http://arxiv.org/abs/2004.07850v2 ) ライセンス: Link先を確認 | Vincent P. Flynn, Emilio Cobanera, Lorenza Viola | (参考訳) 二次ボソニックハミルトニアンにおける数非保存項は、望ましくない動的不安定を誘導することができる。
これらのハミルトニアンに構築された擬エルミート構造を利用することで、動的安定性が成り立つ限り、常に非自明な双対(単位同値)数保存二次ボソニックハミルトニアンを構成することができることを示す。
我々は、この構成を、ガッピングされたハーモニカ鎖と、キタエフのマヨラナ鎖のボソニック類似物に例示する。
我々の双対性は、パラメトリック増幅を必要とせずに安定なボソニックハミルトニアンを近似する局所的な数保存モデルを特定し、非散逸数保存ボソニアン系において非エルミート的$\mathcal{p}\mathcal{t}$-symmetric dynamicsを実装するのに使うことができる。
トポロジカル不変量を計算することの意味について述べる。 Number-non-conserving terms in quadratic bosonic Hamiltonians can induce unwanted dynamical instabilities. By exploiting the pseudo-Hermitian structure built in to these Hamiltonians, we show that as long as dynamical stability holds, one may always construct a non-trivial dual (unitarily equivalent) number-conserving quadratic bosonic Hamiltonian. We exemplify this construction for a gapped harmonic chain and a bosonic analogue to Kitaev's Majorana chain. Our duality may be used to identify local number-conserving models that approximate stable bosonic Hamiltonians without the need for parametric amplification and to implement non-Hermitian $\mathcal{P}\mathcal{T}$-symmetric dynamics in non-dissipative number-conserving bosonic systems. Implications for computing topological invariants are addressed. | 翻訳日:2023-05-23 06:41:06 公開日:2020-09-08 |
# 選択的耐雑音ゲート Selective Noise Resistant Gate ( http://arxiv.org/abs/2005.04738v2 ) ライセンス: Link先を確認 | Jonatan Zimmermann, Paz London, Yaniv Yirmiyahu, Fedor Jelezko, Aharon Blank, David Gershoni | (参考訳) スピンベースの量子レジスタにおける単一量子ビットの個別制御を実現することは、量子ビット共鳴周波数が近いため、ますます難しくなっている。
現在のスキームは一般的に、忠実度とキュービット選択性の間に固有のトレードオフが伴う。
本稿では,動的疎結合による騒音保護と磁気勾配に基づく選択性を組み合わせた新しい手法について報告する。
ダイヤモンド中の1つの窒素空白中心を用いて、忠実性 = 0.9 $\pm$ 0.02 と50khzのスペクトル帯域を持つ量子ゲートを実験的に示し、これは保護されていない帯域幅よりもほぼ1桁狭い。
本方式では,1mg/nm程度の比較的適度な勾配を用いて,相互作用キュービットアレイ内の個々の窒素空隙量子ビットを選択的に制御する。 Realizing individual control on single qubits in a spin-based quantum register is an ever-increasing challenge due to the close proximity of the qubits resonance frequencies. Current schemes typically suffer from an inherent trade-off between fidelity and qubits selectivity. Here, we report on a new scheme which combines noise protection by dynamical decoupling and magnetic gradient based selectivity, to enhance both the fidelity and the selectivity. With a single nitrogen-vacancy center in diamond, we experimentally demonstrate quantum gates with fidelity = 0.9 $\pm$ 0.02 and a 50 kHz spectral bandwidth, which is almost an order of magnitude narrower than the unprotected bandwidth. Our scheme will enable selective control of an individual nitrogen-vacancy qubit in an interacting qubits array using relatively moderate gradients of about 1 mG/nm. | 翻訳日:2023-05-20 16:08:02 公開日:2020-09-08 |
# 開量子系における分数量子ホール状態の運命:フルリウビリアンの相関位相状態の特徴 Fate of fractional quantum Hall states in open quantum systems: characterization of correlated topological states for the full Liouvillian ( http://arxiv.org/abs/2005.12635v2 ) ライセンス: Link先を確認 | Tsuneya Yoshida, Koji Kudo, Hosho Katsura, and Yasuhiro Hatsugai | (参考訳) リンドブラッド方程式によって記述されたオープン量子系のより広範な解析にもかかわらず、分数量子ホール状態のような相関位相状態がジャンプ項の存在下でも維持されるかどうかは不明である。
本稿では,2重ヒルベルト空間の1つの部分空間に対してのみ境界条件をツイストすることで計算される,リウヴィリアンの擬スピンチャーン数を紹介する。
そのような位相不変量の存在は、有効な非エルミートハミルトニアンのギャップを閉じないジャンプ項(ジャンプ項を無視することによって観察される)が存在するにもかかわらず、位相的性質が変わらないことを解明する。
言い換えれば、トポロジカルな性質は、完全なリウヴィリアンではなく、効果的な非エルミート的ハミルトニアンにエンコードされる。
これは、ジャンプ項が二重ヒルベルト空間における厳密なブロックアップパー(より低い)三角行列として書ける場合に特に有用であり、ジャンプ項の有無がリウヴィリアンのスペクトルに影響を与えない場合は特に有用である。
擬似スピンチャーン数を用いて、二体損失を持つが利得がない分数量子ホール状態の特徴を扱い、ジャンプ項が存在する場合でも非エルミート分数量子ホール状態のトポロジーが保存されていることを解明する。
この数値結果はまた、非エルミートハミルトニアンの使用を支持し、数値コストを大幅に削減する。
同様の位相不変量は、他の空間次元と対称性の相関した位相状態(例えば、逆対称性を持つ1次元開量子系)を扱うために拡張することができる。 Despite previous extensive analysis of open quantum systems described by the Lindblad equation, it is unclear whether correlated topological states, such as fractional quantum Hall states, are maintained even in the presence of the jump term. In this paper, we introduce the pseudo-spin Chern number of the Liouvillian which is computed by twisting the boundary conditions only for one of the subspaces of the doubled Hilbert space. The existence of such a topological invariant elucidates that the topological properties remain unchanged even in the presence of the jump term which does not close the gap of the effective non-Hermitian Hamiltonian (obtained by neglecting the jump term). In other words, the topological properties are encoded into an effective non-Hermitian Hamiltonian rather than the full Liouvillian. This is particularly useful when the jump term can be written as a strictly block-upper (-lower) triangular matrix in the doubled Hilbert space, in which case the presence or absence of the jump term does not affect the spectrum of the Liouvillian. With the pseudo-spin Chern number, we address the characterization of fractional quantum Hall states with two-body loss but without gain, elucidating that the topology of the non-Hermitian fractional quantum Hall states is preserved even in the presence of the jump term. This numerical result also supports the use of the non-Hermitian Hamiltonian which significantly reduces the numerical cost. Similar topological invariants can be extended to treat correlated topological states for other spatial dimensions and symmetry (e.g., one-dimensional open quantum systems with inversion symmetry), indicating the high versatility of our approach. | 翻訳日:2023-05-18 07:54:16 公開日:2020-09-08 |
# 大運動量移動点源原子干渉法による高感度多軸回転センシング High sensitivity multi-axes rotation sensing using large momentum transfer point source atom interferometry ( http://arxiv.org/abs/2006.13442v2 ) ライセンス: Link先を確認 | Jinyang Li, Greg\'orio R. M. da Silva, Wayne C. Huang, Mohamed Fouda, Timothy L. Kovachy, and Selim M. Shahriar | (参考訳) 点源干渉計(英: point source interferometer、psi)は、約1つの点源として働く冷原子の雲の膨張中にラマンパルスの時間列を適用して原子を分割、再結合する装置である。
PSIは感度の高いマルチ軸ジャイロスコープとして機能し、加速度から自動的に信号をフィルタリングする。
回転から生じる位相シフトはラマンパルスから各原子に伝達される運動量に比例する。
したがって、運動量移動を増加させることで、PSIの感度を高めることができる。
そこで本研究では,多数のラマンパルス列を用いた大運動量移動(LMT)によるPSIの増強により達成できる感度向上の度合いについて検討する。
PSIを記述するための典型的なアプローチとは対照的に、各原子の質量の中心の運動を量子力学的に記述するモデルを用いる。
ドップラーシフトの増加が不完全となり、信号縞の視認性が低下する様子を示し、ラマンパルスの2光子ラビ周波数を増加させることで、この効果を抑制する方法を示す。
自発的放出の効果を考慮して、1光子rabi周波数の所定の値に対して、感度の正味増強が減少するパルス数に最適な値が存在することを示す。
例えば、200MHzの1光子ラビ周波数の場合、従来のPSIの約69倍の大きさの運動量移動の場合、感度向上係数のピーク値は39である。
また、このピーク値は1光子rabi周波数として4/5のパワーにスケールする。 A point source interferometer (PSI) is a device where atoms are split and recombined by applying a temporal sequence of Raman pulses during the expansion of a cloud of cold atoms behaving approximately as a point source. The PSI can work as a sensitive multi-axes gyroscope that can automatically filter out the signal from accelerations. The phase shift arising from rotations is proportional to the momentum transferred to each atom from the Raman pulses. Therefore, by increasing the momentum transfer, it should be possibly to enhance the sensitivity of the PSI. Here, we investigate the degree of enhancement in sensitivity that could be achieved by augmenting the PSI with large momentum transfer (LMT) employing a sequence of many Raman pulses with alternating directions. Contrary to typical approaches used for describing a PSI, we employ a model under which the motion of the center of mass of each atom is described quantum mechanically. We show how increasing Doppler shifts lead to imperfections, thereby limiting the visibility of the signal fringes, and identify ways to suppress this effect by increasing the effective, two-photon Rabi frequencies of the Raman pulses. Taking into account the effect of spontaneous emission, we show that, for a given value of the one-photon Rabi frequency, there is an optimum value for the number of pulses employed, beyond which the net enhancement in sensitivity begins to decrease. For a one-photon Rabi frequency of 200 MHz, for example, the peak value of the factor of enhancement in sensitivity is ~39, for a momentum transfer that is ~69 times as large as that for a conventional PSI. We also find that this peak value scales as the one-photon Rabi frequency to the power of 4/5. | 翻訳日:2023-05-12 22:44:36 公開日:2020-09-08 |
# 2モードガウス状態における安定な絡み合い Stabilizing entanglement in two-mode Gaussian states ( http://arxiv.org/abs/2007.04004v2 ) ライセンス: Link先を確認 | Tomasz Linowski, Clemens Gneiting, {\L}ukasz Rudnicki | (参考訳) 局所減衰, 2モードスクイズド状態を保存するための散逸器, カスケード振動子という3つのベンチマーク散逸モデルにおいて, 絡み合う2モードガウス状態の安定性を解析した。
最初の2つのモデルでは、安定可能なエンタングルメント上の主上限を決定するが、最後のモデルでは任意の量のエンタングルメントを安定化することができる。
3つのモデルは全て、エンタングルメントの最大化限界における状態のエンタングルメントと純度の間のトレードオフを示す。
この結果は、ガウス系のハミルトン独立安定化条件から導かれる。
ここでは、これらの条件を適用性に関して研ぎ澄まします。 We analyze the stabilizability of entangled two-mode Gaussian states in three benchmark dissipative models: local damping, dissipators engineered to preserve two-mode squeezed states, and cascaded oscillators. In the first two models, we determine principal upper bounds on the stabilizable entanglement, while in the last model, arbitrary amounts of entanglement can be stabilized. All three models exhibit a tradeoff between state entanglement and purity in the entanglement maximizing limit. Our results are derived from the Hamiltonian-independent stabilizability conditions for Gaussian systems. Here, we sharpen these conditions with respect to their applicability. | 翻訳日:2023-05-10 23:39:26 公開日:2020-09-08 |
# 量子通信用キャパシティアタッチング量子リピータ Capacity-approaching quantum repeaters for quantum communications ( http://arxiv.org/abs/2007.06988v3 ) ライセンス: Link先を確認 | Masoud Ghalaii and Stefano Pirandola | (参考訳) 現在の量子通信において、主要な問題の1つは、高速と長距離を同時に確保できる量子リピータ設計の欠如である。
近年の文献では、量子リピータ連鎖を含む量子ネットワークにおける量子およびプライベート通信の最も一般的なプロトコルによって実現可能なエンドツーエンドの容量を確立している。
しかし、そのような能力にアプローチするための物理的な設計が存在するかどうかはまだ難しい。
このモチベーションによって、本研究では、連続可変量子リピータの設計を提案し、実際にその成果を達成できることを示します。
また、ノイズの多い体制でも、私たちの率はピランドラ=ローレンツァ=オタヴィアーニ=バンチ(PLOB)を上回ります。
我々は,雑音のない線形増幅器,量子メモリ,連続可変ベル測定を用いてリピータ構成を開発した。
さらに,我々が設計に利用する連続変数量子メモリのための非理想モデルを提案する。
量子リンクがノイズが多い場合や低品質の量子メモリやアンプが使用される場合、潜在的な量子通信速度は理論的なキャパシティから逸脱することを示します。 In present-day quantum communications, one of the main problems is the lack of a quantum repeater design that can simultaneously secure high rates and long distances. Recent literature has established the end-to-end capacities that are achievable by the most general protocols for quantum and private communication within a quantum network, encompassing the case of a quantum repeater chain. However, whether or not a physical design exists to approach such capacities remains a challenging objective. Driven by this motivation, in this work, we put forward a design for continuous-variable quantum repeaters and show that it can actually achieve the feat. We also show that even in a noisy regime our rates surpass the Pirandola-Laurenza-Ottaviani-Banchi (PLOB) bound. Our repeater setup is developed upon using noiseless linear amplifiers, quantum memories, and continuous-variable Bell measurements. We, furthermore, propose a non-ideal model for continuous-variable quantum memories that we make use of in our design. We then show that potential quantum communications rates would deviate from the theoretical capacities, as one would expect, if the quantum link is too noisy and/or low-quality quantum memories and amplifiers are employed. | 翻訳日:2023-05-10 02:19:54 公開日:2020-09-08 |
# セシウムD2線と通信Cバンドを接続するための852nmと1560nmの双方向単一光子レベル周波数変換 Two-way single-photon-level frequency conversion between 852nm and 1560nm for connecting cesium D2 line with the telecom C-band ( http://arxiv.org/abs/2007.07756v2 ) ライセンス: Link先を確認 | Kong Zhang, Jun He, and Junmin Wang | (参考訳) セシウムd2線(852nm)と通信用cバンドを接続するバルク結晶(ppmgo:ln)は同じ周期的にポーリングされたマグネシウム酸化物ドープニオブ酸リチウム(ppmgo:ln)を用いて、852nmから1560nmの双方向単光子レベルの周波数変換のためのコンパクトなセットアップを実装した。
1878nmの強い連続波ポンプレーザーと50mmのPPMgO:LNバルク結晶中の単光子レベルの周期信号パルスを混合することにより、822nmから1560nmのダウンコンバージョン(1560nmから822nmのアップコンバージョン)の変換効率を約1.7%(~1.9%)向上した。
我々は, 自発ラマン散乱(SRS)や自発パラメトリックダウンコンバージョン(SPDC)光子, カスケード非線形過程で発生する光子など, 強いポンプレーザビームによって誘起される雑音光子を解析した。
狭帯域フィルタを用いて信号対雑音比(SNR)を著しく改善し,差周波発生(DFG)過程において雑音光子の偏光を変化させた。
バルク結晶の代わりにPPMgO:LN導波路を用いることにより変換効率をさらに向上させることにより、量子ネットワークにおける環状光子変換の基礎を提供することができる。 A compact setup for two-way single-photon-level frequency conversion between 852 nm and 1560 nm has been implemented with the same periodically-poled magnesium-oxide-doped lithium niobate (PPMgO:LN) bulk crystals for connecting cesium D2 line (852 nm) to telecom C-band. By single-pass mixing a strong continuous-wave pump laser at 1878 nm and the single-photon-level periodical signal pulses in a 50-mm-long PPMgO:LN bulk crystal, the conversion efficiency of ~1.7% ( ~1.9%) for 852-nm to 1560-nm down-conversion (1560-nm to 852-nm up-conversion) have been achieved. We analyzed noise photons induced by the strong pump laser beam, including the spontaneous Raman scattering (SRS) and the spontaneous parametric down-conversion (SPDC) photons, and the photons generated in the cascaded nonlinear processes. The signal-to-noise ratio (SNR) has been improved remarkably by using the narrow-band filters and changing polarization of the noise photons in the difference frequency generation (DFG) process. With further improvement of the conversion efficiency by employing PPMgO:LN waveguide, instead of bulk crystal, our study may provide the basics for cyclic photon conversion in quantum network. | 翻訳日:2023-05-10 01:51:25 公開日:2020-09-08 |
# 量子アニールにおけるフェアサンプリングの達成 Achieving fair sampling in quantum annealing ( http://arxiv.org/abs/2007.08487v2 ) ライセンス: Link先を確認 | Vaibhaw Kumar, Casey Tomlin, Curt Nehrkorn, Daniel O'Malley, Joseph Dulny III | (参考訳) ハミルトンのすべての基底状態を同じ確率でサンプリングすることはサンプリングアルゴリズムの望ましい特徴であるが、最近の研究では、横磁場量子アニーリングサンプルの共通変種が基底状態が不公平に部分空間であることを示唆している。
本稿では,逆アニール誘導経路を用いることで,この欠損を補正できることを示す摂動理論の議論を紹介する。
この結論は、以前に研究された縮退性を持つ小さなインスタンスと、量子アニールハードウェア上のより大きなインスタンスのシミュレーションで確認される。 Sampling all ground states of a Hamiltonian with equal probability is a desired feature of a sampling algorithm, but recent studies indicate that common variants of transverse field quantum annealing sample the ground state subspace unfairly. In this note, we present perturbation theory arguments suggesting that this deficiency can be corrected by employing reverse annealing-inspired paths. We confirm that this conclusion holds in simulations of previously studied small instances with degeneracy, as well as larger instances on quantum annealing hardware. | 翻訳日:2023-05-09 07:02:42 公開日:2020-09-08 |
# 量子イマジナリー時間進化を用いたスピン系の有限温度静的及び動的特性の量子計算 Quantum Computation of Finite-Temperature Static and Dynamical Properties of Spin Systems Using Quantum Imaginary Time Evolution ( http://arxiv.org/abs/2009.03542v1 ) ライセンス: Link先を確認 | Shi-Ning Sun, Mario Motta, Ruslan N. Tazhigulov, Adrian T. K. Tan, Garnet Kin-Lic Chan, and Austin J. Minnich | (参考訳) 量子多体系の有限温度物理学を研究するためのスケーラブルな量子アルゴリズムの開発は、量子ハードウェアの最近の進歩によって大きな関心を集めている。
しかし、そのようなアルゴリズムは現在の量子コンピュータの能力を超えるリソースを必要とするが、システムのサイズや観測可能な範囲は限られている。
ここでは,5量子IBM量子デバイス上に最大4箇所のスピンハミルトニアンの励起スペクトル,エネルギー,静的および動的相関関数を含む有限温度特性の計算を報告する。
これらの計算はquantum imaginary time evolution (qite)アルゴリズムを用いて行われ、qiteに必要な量子リソースを減らす対称性を利用する方法、回路の深さを減らす回路最適化手順、生のハードウェアデータの品質を改善するエラー緩和技術など、いくつかのアルゴリズムの改善によって可能となった。
我々の研究は、アンザッツ非依存QITEアルゴリズムが、短期量子デバイス上で様々な有限温度オブザーバブルを計算可能であることを示した。 Developing scalable quantum algorithms to study finite-temperature physics of quantum many-body systems has attracted considerable interest due to recent advancements in quantum hardware. However, such algorithms in their present form require resources that exceed the capabilities of current quantum computers except for a limited range of system sizes and observables. Here, we report calculations of finite-temperature properties including energies, static and dynamical correlation functions, and excitation spectra of spin Hamiltonians with up to four sites on five-qubit IBM Quantum devices. These calculations are performed using the quantum imaginary time evolution (QITE) algorithm and made possible by several algorithmic improvements, including a method to exploit symmetries that reduces the quantum resources required by QITE, circuit optimization procedures to reduce circuit depth, and error mitigation techniques to improve the quality of raw hardware data. Our work demonstrates that the ansatz-independent QITE algorithm is capable of computing diverse finite-temperature observables on near-term quantum devices. | 翻訳日:2023-05-03 05:20:27 公開日:2020-09-08 |
# 拡張型Adiabatic Quantum ComputingにおけるAdiabaticityのショートカット Shortcuts to Adiabaticity in Digitized Adiabatic Quantum Computing ( http://arxiv.org/abs/2009.03539v1 ) ライセンス: Link先を確認 | Narendra N. Hegade, Koushik Paul, Yongcheng Ding, Mikel Sanz, F. Albarr\'an-Arriagada, Enrique Solano, Xi Chen | (参考訳) 断熱性への近道は、断熱基準を超えて量子力学を制御するためのよく知られた方法であり、反断熱性(cd)駆動は、量子多体系を高速化するための有望な手段を提供する。
本研究は,CD駆動の適用性を示し,デジタル化された断熱量子コンピューティングのパラダイムを忠実度と総シミュレーション時間の観点から拡張する。
標準CD駆動のディジタル化版と変分法から派生した変分を用いたイジングスピンチェーンの状態進化について検討した。
非常に浅い量子回路を用いた高忠実度ベルおよびグリーンベルガー・ホーネ・ザイリンガー状態の調製にこの手法を適用した。
我々は、この提案をibm量子コンピュータに実装し、ノイズの多い中間スケール量子デバイスにおける断熱量子コンピューティングの高速化に有用性を証明する。 Shortcuts to adiabaticity are well-known methods for controlling the quantum dynamics beyond the adiabatic criteria, where counter-diabatic (CD) driving provides a promising means to speed up quantum many-body systems. In this work, we show the applicability of CD driving to enhance the digitized adiabatic quantum computing paradigm in terms of fidelity and total simulation time. We study the state evolution of an Ising spin chain using the digitized version of the standard CD driving and its variants derived from the variational approach. We apply this technique in the preparation of Bell and Greenberger-Horne-Zeilinger states with high fidelity using a very shallow quantum circuit. We implement this proposal in the IBM quantum computer, proving its usefulness for the speed up of adiabatic quantum computing in noisy intermediate-scale quantum devices. | 翻訳日:2023-05-03 05:20:08 公開日:2020-09-08 |
# ハミルトニアンの最も低い固有状態の厳密解への収束系列の量子アルゴリズム Quantum Algorithm for a Convergent Series of Approximations towards the Exact Solution of the Lowest Eigenstates of a Hamiltonian ( http://arxiv.org/abs/2009.03537v1 ) ライセンス: Link先を確認 | Zhiyong Zhang | (参考訳) 本稿では,局所ユニタリ作用素の線形結合のハミルトニアンに対して,ハミルトニアン行列-ベクトル積と,対角行列要素のみに寄与するシフト還元ハミルトニアン作用素の逆条件を与える量子アルゴリズムを提案する。
アルゴリズムは完全なCI(Configuration Interaction)問題の正確な解に対する収束した一連の近似を実装している。
アルゴリズムはO(m^5 )でスケールし、mは分子電子構造計算における1電子軌道の数である。
完全なciの結果は、o(nm^5 )のスケーリングで得られ、nは電子の数、10から20のオーダーで前因子を持つ。
ハミルトン行列ベクトル積の低い順序では、様々な摂動理論や異なる励起の順序でのトランケートCIを含む現代の電子構造理論で広く用いられる近似のレパートリーが、ルーチンおよびベンチマーク結果の両方を化学精度で量子コンピューティングに実装することができる。
前提条件付き最小次行列ベクトル積、基本的には二階摂動理論は、最も期待されている実世界の応用の一つであるAb Initioシミュレーションの量子超越性を示す主要なアルゴリズムとして期待されている。
このアルゴリズムはハイブリッド変分量子固有解法にも適用できる。 We present quantum algorithms, for Hamiltonians of linear combinations of local unitary operators, for Hamiltonian matrix-vector products and for preconditioning with the inverse of shifted reduced Hamiltonian operator that contributes to the diagonal matrix elements only. The algorithms implement a convergent series of approximations towards the exact solution of the full CI (configuration interaction) problem. The algorithm scales with O(m^5 ), with m the number of one-electron orbitals in the case of molecular electronic structure calculations. Full CI results can be obtained with a scaling of O(nm^5 ), with n the number of electrons and a prefactor on the order of 10 to 20. With low orders of Hamiltonian matrix-vector products, a whole repertoire of approximations widely used in modern electronic structure theory, including various orders of perturbation theory and/or truncated CI at different orders of excitations can be implemented for quantum computing for both routine and benchmark results at chemical accuracy. The lowest order matrix-vector product with preconditioning, basically the second-order perturbation theory, is expected to be a leading algorithm for demonstrating quantum supremacy for Ab Initio simulations, one of the most anticipated real world applications. The algorithm is also applicable for the hybrid variational quantum eigensolver. | 翻訳日:2023-05-03 05:19:45 公開日:2020-09-08 |
# 古典的雑音をもつ量子力学 Qubit dynamics with classical noise ( http://arxiv.org/abs/2009.03517v1 ) ライセンス: Link先を確認 | Qin Huang, Marco Merkli | (参考訳) 雑音項を含むハミルトニアンを持つschr\"odinger方程式に従って進化する量子ビットの進化をランダム対角行列とオフ対角行列要素によってモデル化した。
ノイズ平均量子ビット密度行列は、t の最大倍の限界で最終状態へと収束することを示す。
収束速度は1/t$の多項式で、ノイズ確率密度とその低周波挙動の規則性に依存する。
我々は最終状態を明確に評価する。
弱対角ノイズと強対角雑音の環境において, プロセスはそれぞれエネルギー(局所化)と非局在(非局在化)のデファスチャネルを実装していることを示す。 We study the evolution of a qubit evolving according to the Schr\"odinger equation with a Hamiltonian containing noise terms, modeled by random diagonal and off-diagonal matrix elements. We show that the noise-averaged qubit density matrix converges to a final state, in the limit of large times $t.$ The convergence speed is polynomial in $1/t$, with a power depending on the regularity of the noise probability density and its low frequency behaviour. We evaluate the final state explicitly. We show that in the regimes of weak and strong off-diagonal noise, the process implements the dephasing channel in the energy- (localized) and the delocalized basis, respectively. | 翻訳日:2023-05-03 05:19:21 公開日:2020-09-08 |
# rydberg原子のメゾスコピックアンサンブルによる最適化幾何量子計算 Optimized Geometric Quantum Computation with mesoscopic ensemble of Rydberg Atoms ( http://arxiv.org/abs/2009.03718v1 ) ライセンス: Link先を確認 | Chen-Yue Guo, L.-L. Yan, Shou Zhang, Shi-Lei Su, Weibin Li | (参考訳) メソスコピックRydberg原子を用いた普遍量子計算を実現するための非断熱的非アベリア幾何量子演算法を提案する。
単一制御原子は、ライドバーグ状態間の長距離相互作用を通じて標的原子のメソスコピックアンサンブルを絡む。
理論上、単一量子ビットと2量子ビットの量子ゲートの両方が理想的状況において99.9%前後で高いフィディティーを達成できることを実証する。
さらに,Rydberg原子とアンサンブルにおけるRabi周波数変動(Rabi誤差)の実験問題に対処するために,動的不変量に基づくゼロシステマティックエラー感度(ZSS)最適制御理論を提案手法に適用する。
シミュレーションにより, ゲートレーザのラビ周波数が10%変動しても, 単一アンサンブル量子ゲートでは99.98%, 2量子ゲートでは99.94%となる可能性が示唆された。
また、最適化されたスキームは、アンサンブル原子のハミルトニアンを導出する高次摂動項による誤差を低減できる。
Rydberg アンサンブルにおける基底状態とRydberg 準位間のデコヒーレンス誤差の実験的問題に対処するために,Rydberg 準位と基底レベルとの分散結合機構を導入する。
数値シミュレーションは量子ゲートが拡張されていることを示す。
強rydberg原子相互作用,非断熱幾何量子計算,動的不変量および最適制御理論を組み合わせることにより,メゾスコピック原子アンサンブルを用いた高速でロバストな量子ゲートを構築する新しい経路を示す。
本研究は、ライドバーグ原子を光学格子またはツイーザーアレイに閉じ込めた量子情報処理の開発に継続する取り組みに寄与する。 We propose a nonadiabatic non-Abelian geometric quantum operation scheme to realize universal quantum computation with mesoscopic Rydberg atoms. A single control atom entangles a mesoscopic ensemble of target atoms through long-range interactions between Rydberg states. We demonstrate theoretically that both the single qubit and two-qubit quantum gates can achieve high fidelities around or above 99.9% in ideal situations. Besides, to address the experimental issue of Rabi frequency fluctuation (Rabi error) in Rydberg atom and ensemble, we apply the dynamical-invariant-based zero systematic-error sensitivity (ZSS) optimal control theory to the proposed scheme. Our numerical simulations show that the average fidelity could be 99.98% for single ensemble qubit gate and 99.94% for two-qubit gate even when the Rabi frequency of the gate laser acquires 10% fluctuations. We also find that the optimized scheme can also reduce errors caused by higher-order perturbation terms in deriving the Hamiltonian of the ensemble atoms. To address the experimental issue of decoherence error between the ground state and Rydberg levels in Rydberg ensemble, we introduce a dispersive coupling regime between Rydberg and ground levels, based on which the Rydberg state is adiabatically discarded. The numerical simulation demonstrate that the quantum gate is enhanced. By combining strong Rydberg atom interactions, nonadiabatic geometric quantum computation, dynamical invariant and optimal control theory together, our scheme shows a new route to construct fast and robust quantum gates with mesoscopic atomic ensembles. Our study contributes to the ongoing effort in developing quantum information processing with Rydberg atoms trapped in optical lattices or tweezer arrays. | 翻訳日:2023-05-03 05:16:15 公開日:2020-09-08 |
# 新型コロナウイルス感染拡大に伴う米ソーシャルメディア上での「黒人の生活」に関する議論 Black Lives Matter discourse on US social media during COVID: polarised positions enacted in a new event ( http://arxiv.org/abs/2009.03619v1 ) ライセンス: Link先を確認 | Gillian Bolsover | (参考訳) ブラック・ライブズ・マターは2014年以来、アメリカにおける社会変革の主要な要因であり、ソーシャルメディアはムーブメントの発展と拡散に中心的な役割を果たしている。
米国史上最大の抗議行動は、ミネアポリス警察がジョージ・フロイドを殺害した後、2020年5月末から6月上旬にかけて起こった。
この事件はBLM運動に対する広範な支持を再燃させた。
抗議活動は、その規模だけでなく、米国が新型コロナウイルス(covid-19)パンデミック(covid-19)の感染拡大の抑制に苦戦している時期に起きたことも注目に値する。
抗議条件や警察の群衆管理戦術が病気の拡散を悪化させ、新型コロナウイルスが少数民族に不釣り合いに影響を及ぼしたことから、抗議活動への参加や支援には、体系的な人種差別と病気の拡散のリスクのバランスをとる行為が含まれると推測された。
しかし、ソーシャルメディアのデータからは、米国のソーシャルメディア上でのCOVID-19の議論に代わるBLM運動の議論は、そうではないことが示唆されている。
BLM運動の支持者や反対派は、新型コロナウイルスを要因として挙げていない。
BLMの支持者による運動のフレームは、以前の研究のフレームを大きく再現し、人種差別や警察の軍事化、ドナルド・トランプ大統領から受けた反対運動を取り巻く新たな枠組みが出現した。
談話は、偏極性、憎しみ、イシビリティ、陰謀の内容を心配し、以前研究された新型コロナウイルスの談話と多くの類似点を示した。
このことは、ジョージ・フロイドの死が、アメリカ警察によって殺害されたアフリカ系アメリカ人の別の例であることを示しているが、この事件に反応し、抗議活動は、進行中のパンデミックとは無関係に確立され、具体化された、確立された、分極化されたアイデンティティのポジションを通して、ほとんど見られていたことを示唆している。 Black Lives Matter has been a major force for social change in the US since 2014, with social media playing a core role in the development and proliferation of the movement. The largest protests in US history occurred in late May and early June 2020, following the death of George Floyd at the hands of Minneapolis police. This incident reignited widespread support for the BLM movement. The protests were notable not only for their size but also that they occurred at a time the US was still struggling to control the spread of the COVID-19 pandemic, with more than 20,000 new cases per day. With protest conditions and police crowd control tactics exacerbating disease spread and with COVID disproportionately affecting minority populations, it was hypothesised that participation in and support for the protests would involve a balancing act between the risks of systemic racism and of disease spread. However, social media data suggest that this was not the case, with discussion of the BLM movement replacing discussion of COVID on US social media. Neither supporters or opposers of the BLM movement or protest action mentioned COVID as a factor. Framings of the movement by BLM supporters largely replicated those of earlier studies, with new frames emerging surrounding the opposition the movement has received from racism, police militarisation and President Donald Trump. Discourse evidenced worrying levels of polarisation, hate, incivility and conspiracy content and bore many similarities to previously studied COVID discourse. This suggests that George Floyd's death, as yet another example of an African American man killed by US police, was largely seen through established, polarised identity positions that made reactions to the incident and resulting protest largely a foregone conclusion, established and articulated without reference to the ongoing pandemic. | 翻訳日:2023-05-03 05:14:48 公開日:2020-09-08 |
# 表面プラズモンによる超低温原子の分散検出と分光 Surface-plasmon based dispersive detection and spectroscopy of ultracold atoms ( http://arxiv.org/abs/2009.03615v1 ) ライセンス: Link先を確認 | Matthias Mildner, Claus Zimmermann, Sebastian Slama | (参考訳) 金表面近傍の超低温原子の光学的検出と分光について報告する。
プローブ光場は表面プラズモンポラリトンを励起するために使用される。
原子ガスの屈折率はプラズモン共鳴をシフトさせ、反射光パワーを変化させる。
これにより、検出感度がプラズモン的に向上する。
エバネッセント波からの光子の吸収は、レーザーを原子共鳴から切り離すことによって回避され、検出スキームは潜在的に非破壊的となる。
信号のスペクトルはファノ共鳴によって決定される。
寒冷原子実験では,単一原子分解能で非破壊的に原子を検出できることを示した。
この方法は、物質波振幅の量子的非劣化測定に適している。
実験では,30個の原子の技術的に制限された感度を測定し,検出スキームを拡張して表面近傍の原子雲を分散的に撮像する。 The paper reports on the optical detection and spectroscopy of ultracold atoms near a gold surface. A probe light field is used to excite surface plasmon polaritons. The refractive index of the atomic gas shifts the plasmon resonance and changes the reflected light power. Thus, the sensitivity of the detection is plasmonically enhanced. Absorption of photons from the evanescent wave is avoided by detuning the laser from atomic resonance which makes the detection scheme potentially nondestructive. The spectrum of the signal is determined by a Fano resonance. We show that atoms can be detected nondestructively with single atom resolution for typical parameters in cold atom experiments. Thus, the method is suitable for quantum nondemolition measurements of matter wave amplitudes. Experimentally, we measure a technically-limited sensitivity of 30 atoms and extend the detection scheme to dispersively image the atom cloud near the surface. | 翻訳日:2023-05-03 05:13:57 公開日:2020-09-08 |
# 虚数交流場によって駆動される二量体鎖の量子相転移 The quantum phase transitions of dimer chain driven by an imaginary ac field ( http://arxiv.org/abs/2009.03590v1 ) ライセンス: Link先を確認 | C. S. Liu | (参考訳) 虚数交流場によって駆動される二量体鎖の量子相転移を研究するために位相同値なタイト結合モデルが提案されている。
私は、パートナーハミルトニアンが$\mathcal{PT}$対称性を満たす類似変換によってどのように構成されるかを示す。
パートナーモデルの$\mathcal{pt}$対称性は、元の非エルミートモデルの位相的性質をエルミート系のブロッホバンドとして研究することができる。
量子相転移は異なる周波数状態で議論される。
このアプローチには、複雑な外部パラメータによって引き起こされる物質のトポロジカルな状態を研究するための潜在的な応用がある。 A topologically equivalent tight binding model is proposed to study the quantum phase transitions of dimer chain driven by an imaginary ac field. I demonstrate how the partner Hamiltonian is constructed by a similarity transformation to fulfil the $\mathcal{PT}$ symmetry. The $\mathcal{PT}$ symmetry of the partner model allows us to study the topological properties of the original non-Hermitian model as the Bloch bands of the Hermitian system. The quantum phase transitions are discussed in different frequency regime. The approach has the potential applications to investigate the topological states of matter driven by the complex external parameters. | 翻訳日:2023-05-03 05:13:07 公開日:2020-09-08 |
# 量子ブラックボックスモデルのアンボックス:非マルコフダイナミクスの学習 Unboxing Quantum Black Box Models: Learning Non-Markovian Dynamics ( http://arxiv.org/abs/2009.03902v1 ) ライセンス: Link先を確認 | Stefan Krastanov, Kade Head-Marsden, Sisi Zhou, Steven T. Flammia, Liang Jiang, Prineha Narang | (参考訳) 環境のメモリ特性を特徴付けることは、量子ビットや他の先進量子システムの高忠実度制御にとって重要になっている。
しかし、現在の非マルコフトモグラフィ技術は離散的なスーパーオペレータに限定されているか、量子システムのダイナミクスに関する物理的洞察を提供しない機械学習手法を採用している。
この制限を回避するため、我々は、完全に正のトレース保存写像の性質のような物理的制約を明示的にエンコードする学習アーキテクチャを設計する。
この方法は、従来のパラメータ推定手法の効率と忠実性を犠牲にすることなく、機械学習アプローチの汎用性を維持する。
私たちのアプローチは、機械学習と不透明なスーパーオペレータが欠落している物理的解釈可能性を提供します。
さらに、スーパーオペレーターベースのトモグラフィーでは無視される基礎となる連続力学も認識している。
このパラダイムはノイズを検知する最適な量子制御への道を開き、バスを制御とエラー緩和のリソースとして利用する道を開く。 Characterizing the memory properties of the environment has become critical for the high-fidelity control of qubits and other advanced quantum systems. However, current non-Markovian tomography techniques are either limited to discrete superoperators, or they employ machine learning methods, neither of which provide physical insight into the dynamics of the quantum system. To circumvent this limitation, we design learning architectures that explicitly encode physical constraints like the properties of completely-positive trace-preserving maps in a differential form. This method preserves the versatility of the machine learning approach without sacrificing the efficiency and fidelity of traditional parameter estimation methods. Our approach provides the physical interpretability that machine learning and opaque superoperators lack. Moreover, it is aware of the underlying continuous dynamics typically disregarded by superoperator-based tomography. This paradigm paves the way to noise-aware optimal quantum control and opens a path to exploiting the bath as a control and error mitigation resource. | 翻訳日:2023-05-03 05:06:48 公開日:2020-09-08 |
# STEMクイズの手続き的生成 Procedural Generation of STEM Quizzes ( http://arxiv.org/abs/2009.03868v1 ) ライセンス: Link先を確認 | Carlos Andujar | (参考訳) 電子キズは要約的および形式的評価に広く使用される。
現在の学習管理システム(LMS)では、インストラクターがグラフィカルユーザインタフェースを通じてクイズを作成することができる。
学習曲線が滑らかであるにもかかわらず、そのようなインタフェースによる質問生成/編集プロセスは遅く、質問変異の生成はランダムパラメータに限られる。
本稿では,STEMクイズのための多種多様な形式的,最新の適応型問合せバンクを作成する作業において,手続き的質問生成が大幅に促進されることを論じる。
我々は,スクリプトベースの質問生成のための概念実証Python APIを提案し,評価し,質問作成を容易にする異なる質問設計パターンを提案する。
このAPIは、数学的公式、動的に生成された画像とビデオ、および3Dモデルビューアのようなインタラクティブなコンテンツを含む質問をサポートする。
出力質問は主要なLMSでインポートできる。
基本的な使い方では、必要なプログラミングスキルは最小限です。
より高度な用途はプログラミングの知識を必要とするが、STEMインストラクターに共通するレベルである。
我々のシステムの副次的な利点は、質問バンクが実際にpythonコードに埋め込まれており、コラボレーション、バージョン管理、メンテナンスタスクがとても簡単であることです。
従来のGUIベースのアプローチよりもスクリプトベースの生成の利点を,質問の豊かさ,オーサリング速度,コンテンツ再使用性の観点から示す。 Electronic quizzes are used extensively for summative and formative assessment. Current Learning Management Systems (LMS) allow instructors to create quizzes through a Graphical User Interface. Despite having a smooth learning curve, question generation/editing process with such interfaces is often slow and the creation of question variants is mostly limited to random parameters. In this paper we argue that procedural question generation greatly facilitates the task of creating varied, formative, up-to-date, adaptive question banks for STEM quizzes. We present and evaluate a proof-of-concept Python API for script-based question generation, and propose different question design patterns that greatly facilitate question authoring. The API supports questions including mathematical formulas, dynamically generated images and videos, as well as interactive content such as 3D model viewers. Output questions can be imported in major LMS. For basic usage, the required programming skills are minimal. More advanced uses do require some programming knowledge, but at a level that is common in STEM instructors. A side advantage of our system is that the question bank is actually embedded in Python code, making collaboration, version control, and maintenance tasks very easy. We demonstrate the benefits of script-based generation over traditional GUI-based approaches, in terms of question richness, authoring speed and content re-usability. | 翻訳日:2023-05-03 05:05:45 公開日:2020-09-08 |
# 大学生の幸福感を高めるためのロボットポジティブ心理学コーチ A Robotic Positive Psychology Coach to Improve College Students' Wellbeing ( http://arxiv.org/abs/2009.03829v1 ) ライセンス: Link先を確認 | Sooyeon Jeong, Sharifa Alghowinem, Laura Aymerich-Franch, Kika Arias, Agata Lapedriza, Rosalind Picard, Hae Won Park and Cynthia Breazeal | (参考訳) かなりの数の大学生が、身体的、社会的、職業的結果に影響を及ぼすメンタルヘルスの問題に苦しむ。
メンタルヘルス障害の負の影響を軽減するために、様々なスケーラブルな技術が提案されている。
しかし,これらの技術の評価は,いずれにせよ,ユーザのメンタルヘルスを改善するための様々な結果を報告していることが多い。
ユーザの属性やニーズを、ポジティブな結果に対するテクノロジベースの介入と一致させる要因をより深く理解する必要があります。
精神療法理論では、セラピストとクライアントのセラピーアライアンスとラプポートが治療の成功の基盤と見なされている。
以前の研究で、ソーシャルロボットは様々な環境でラプポートとユーザーとの連携を構築する可能性を示した。
本研究は,大学寮に在住する大学生に対して,ポジティブな心理学的介入を行うためのソーシャルロボットコーチの利用について検討する。
研究に参加するために35人の大学生を募集し、彼らの部屋に社会ロボットコーチを配置した。
このロボットは、天気予報やリマインダーのスケジューリングなど、毎日のポジティブな心理セッションを、役に立つスキルで提供する。
その結果,被験者の心理的幸福感,気分,行動変化に対する準備が有意に改善され,調査終了後の幸福感が改善した。
さらに,学生の性格特性は介入効果と有意な関連があることが判明した。
研究後のインタビューの分析から,ロボットの同伴性に対する学生の理解とプライバシに対する懸念が明らかになった。 A significant number of college students suffer from mental health issues that impact their physical, social, and occupational outcomes. Various scalable technologies have been proposed in order to mitigate the negative impact of mental health disorders. However, the evaluation for these technologies, if done at all, often reports mixed results on improving users' mental health. We need to better understand the factors that align a user's attributes and needs with technology-based interventions for positive outcomes. In psychotherapy theory, therapeutic alliance and rapport between a therapist and a client is regarded as the basis for therapeutic success. In prior works, social robots have shown the potential to build rapport and a working alliance with users in various settings. In this work, we explore the use of a social robot coach to deliver positive psychology interventions to college students living in on-campus dormitories. We recruited 35 college students to participate in our study and deployed a social robot coach in their room. The robot delivered daily positive psychology sessions among other useful skills like delivering the weather forecast, scheduling reminders, etc. We found a statistically significant improvement in participants' psychological wellbeing, mood, and readiness to change behavior for improved wellbeing after they completed the study. Furthermore, students' personality traits were found to have a significant association with intervention efficacy. Analysis of the post-study interview revealed students' appreciation of the robot's companionship and their concerns for privacy. | 翻訳日:2023-05-03 05:04:22 公開日:2020-09-08 |
# zoombombingを初めて見る A First Look at Zoombombing ( http://arxiv.org/abs/2009.03822v1 ) ライセンス: Link先を確認 | Chen Ling and Utkucan Balc{\i} and Jeremy Blackburn and Gianluca Stringhini | (参考訳) zoomやgoogle meetといったオンラインミーティングツールは、私たちのプロフェッショナル、教育、個人生活の中心になっています。
これにより、大規模なハラスメントの新たな機会が開かれた。
特にズームボーミングと呼ばれる現象が出現し、攻撃者が参加者を混乱させ嫌がらせすることを目的としてオンラインミーティングに参加する。
本稿では,ソーシャルメディア上でのズームボーミング攻撃に関する,最初のデータ駆動分析を行う。
我々は、人気のあるオンラインミーティングツール10を識別し、これらのプラットフォームへのミーティング招待を含む投稿をメインストリームのソーシャルネットワーク、twitter、およびオンラインユーザに対する協調的な攻撃を組織したフリンジコミュニティ、4chanから抽出する。
次に、zoombombing攻撃を呼びかけているポストを特定するための手動アノテーションを実行し、zoombombingの呼び出しに関する議論をよりよく特徴付けるためのコードブックの開発にthematic analysisを適用します。
2020年の最初の7ヶ月の間に、Twitterと4chanの間で200件以上のズームボベリングの呼び出しを特定し、これらの呼び出しを定量的かつ質的に分析します。
以上の結果から,zoombombingの要求の大部分は,招待状やミーティングidを乱用する攻撃者ではなく,これらの会議,特に高校生や大学生の正統なアクセス権を持つインサイダーによるものであることが示唆された。
これは、パスワード保護などのzoombombingに対する共通の保護が無効であるため、重要なセキュリティ上の影響がある。
また,攻撃者に対して,検出を避けるためにクラス内の正当な参加者の名前を採用するように指示するインサイダーの事例も見出され,待合室の設置や参加者の審査の効率化といった対策がなされた。
これらの観察に基づいて、ズームボーミングに対する効果的な防御は、参加者ごとに独自の結合リンクを作成することであると論じる。 Online meeting tools like Zoom and Google Meet have become central to our professional, educational, and personal lives. This has opened up new opportunities for large scale harassment. In particular, a phenomenon known as zoombombing has emerged, in which aggressors join online meetings with the goal of disrupting them and harassing their participants. In this paper, we conduct the first data-driven analysis of calls for zoombombing attacks on social media. We identify ten popular online meeting tools and extract posts containing meeting invitations to these platforms on a mainstream social network, Twitter, and on a fringe community known for organizing coordinated attacks against online users, 4chan. We then perform manual annotation to identify posts that are calling for zoombombing attacks, and apply thematic analysis to develop a codebook to better characterize the discussion surrounding calls for zoombombing. During the first seven months of 2020, we identify over 200 calls for zoombombing between Twitter and 4chan, and analyze these calls both quantitatively and qualitatively. Our findings indicate that the vast majority of calls for zoombombing are not made by attackers stumbling upon meeting invitations or bruteforcing their meeting ID, but rather by insiders who have legitimate access to these meetings, particularly students in high school and college classes. This has important security implications, because it makes common protections against zoombombing, such as password protection, ineffective. We also find instances of insiders instructing attackers to adopt the names of legitimate participants in the class to avoid detection, making countermeasures like setting up a waiting room and vetting participants less effective. Based on these observations, we argue that the only effective defense against zoombombing is creating unique join links for each participant. | 翻訳日:2023-05-03 05:03:59 公開日:2020-09-08 |
# 任意の局所ヒルベルト空間次元を持つエルゴードおよび非エルゴード双対量子回路 Ergodic and non-ergodic dual-unitary quantum circuits with arbitrary local Hilbert space dimension ( http://arxiv.org/abs/2009.03791v1 ) ライセンス: Link先を確認 | Pieter W. Claeys, Austen Lamacraft | (参考訳) 双対ユニタリ量子回路は、局所観測可能性の動的相関を明示的に計算できる1+1次元格子モデルを構築するのに使うことができる。
局所ヒルベルト空間の任意の次元に対して任意の所望の(非)エルゴード性を持つ双対単位回路のクラスを解析的に構築する方法を示し、無限温度ギブス状態(エルゴード)と一般化ギブスアンサンブル(非エルゴード)への熱化の解析結果を示す。
非エルゴード回路に調整可能なエルゴード性誘導摂動が二重ユニタリ性を損なうことなく付加できることが示され, 局所観測対象の予熱プレートが出現した。 Dual-unitary quantum circuits can be used to construct 1+1 dimensional lattice models for which dynamical correlations of local observables can be explicitly calculated. We show how to analytically construct classes of dual-unitary circuits with any desired level of (non-)ergodicity for any dimension of the local Hilbert space, and present analytical results for thermalization to an infinite-temperature Gibbs state (ergodic) and a generalized Gibbs ensemble (non-ergodic). It is shown how a tunable ergodicity-inducing perturbation can be added to a non-ergodic circuit without breaking dual-unitarity, leading to the appearance of prethermalization plateaux for local observables. | 翻訳日:2023-05-03 05:03:29 公開日:2020-09-08 |
# teedaを用いたコロナ関連混乱における観測不能事象データ設計のためのデータ要求とシナリオ Data Requests and Scenarios for Data Design of Unobserved Events in Corona-related Confusion Using TEEDA ( http://arxiv.org/abs/2009.04035v1 ) ライセンス: Link先を確認 | Teruaki Hayashi, Nao Uehara, Daisuke Hase, Yukio Ohsawa | (参考訳) 新型コロナウイルスの世界的な暴力により、さまざまな産業が影響を受け、システム間の崩壊が明らかになっている。
新型コロナウイルス感染症(COVID-19)によるこの前例のない危機にまつわる現象を理解し克服するため、フィールド間のデータ交換や共有の重要性が社会的な注目を集めている。
本研究では,データユーザからのデータ要求を外部化する上で,データに対する要求だけでなく,データに対する要求,ユーザが望むデータ,目的のデータを交換するためのツールとして,TEEDAという対話型プラットフォームを利用する。
さらに,本研究で得られたデータ要求と予測可能なデータの両方から生じるコロナ関連混乱における欠落データの特徴を分析する。
また、変数に焦点を当てた観測されないイベントのデータ設計のための3つのシナリオを作成しました。 Due to the global violence of the novel coronavirus, various industries have been affected and the breakdown between systems has been apparent. To understand and overcome the phenomenon related to this unprecedented crisis caused by the coronavirus infectious disease (COVID-19), the importance of data exchange and sharing across fields has gained social attention. In this study, we use the interactive platform called treasuring every encounter of data affairs (TEEDA) to externalize data requests from data users, which is a tool to exchange not only the information on data that can be provided but also the call for data, what data users want and for what purpose. Further, we analyze the characteristics of missing data in the corona-related confusion stemming from both the data requests and the providable data obtained in the workshop. We also create three scenarios for the data design of unobserved events focusing on variables. | 翻訳日:2023-05-03 04:56:56 公開日:2020-09-08 |
# コソボ教育システムのためのICTにおけるPhDプログラムの開発と実装 The development and implementation of a PhD Program in ICT for the Kosovo Education System ( http://arxiv.org/abs/2009.03997v1 ) ライセンス: Link先を確認 | Anita Mirijamdotter, Krenare Pireva Nuci, Michele Gibney, Patrik Elm | (参考訳) 技術アクセスの急速な拡大や情報通信システムの改善など、職場の変化が加速したにもかかわらず、コソボの教育システムは、情報通信技術における高品質な研究ベースの教育を提供するほど十分には開発されていない。
コソボは人口200万人、国家予算はわずか230億ドルの小さな国であり、教育制度の質を根本的に変えるために必要な投資を欠いている。
資金提供されたICTの博士課程は、今日の労働の優先順位と要求に対処する。
コソボでは、西バルカン半島の地域教育システムや国家経済における競争力を確保するため、ICTにおける国家博士号プログラムの設計と提供が不可欠である。
本稿では,PhDプログラムの必要性を論じ,提案プロジェクトに対する洞察を提供するとともに,ICT分野におけるPhDの提供により,コソボを地図上に配置することを目的とする。 Despite ever accelerating workplace changes, including rapidly expanding technological access and fast improving information and communication systems, the education system in Kosovo is not fully developed enough to provide a high-quality research-based education in Information and Communication Technology. Coping simultaneously with varied national priorities, Kosovo, a small country with 2 million inhabitants and a national budget of only 2.3 billion, lacks the needed investments to fundamentally transform the quality of the education system. A funded ICT doctoral program would address todays workforce priorities and requirements. The design and delivery of a national PhD program in ICT is crucial for Kosovo in order to ensure competitive readiness within the regional education systems and national economies of the West Balkans, and beyond. This paper argues the need for PhD programs and offers insights into a proposed project, the aim of which is to put Kosovo on the map by offering a PhD in the ICT field. | 翻訳日:2023-05-03 04:56:41 公開日:2020-09-08 |
# 反パリティ時対称キャビティ・マグノニクスにおける非慣習特異性 Unconventional Singularity in Anti-Parity-Time Symmetric Cavity Magnonics ( http://arxiv.org/abs/2009.03950v1 ) ライセンス: Link先を確認 | Y. Yang, Yi-Pu Wang, J.W. Rao, Y.S. Gui, B.M. Yao, W. Lu, and C.-M. Hu | (参考訳) 高精度な固有空間制御性を持つ反パリティ時間(反PT)対称空洞マグノニクス系を設計することにより、同一系の2つの異なる特異点を観測する。
1種類の特異点、例外点(EP)はマグノン減衰をチューニングすることによって生成される。
2つのEPの間には、光子とマグノン状態の最大コヒーレント重ね合わせが保存された反PT対称性によって強く維持される。
他のタイプの特異性は、2つの反共振の散逸結合から生じ、連続体(bic)の非典型的な結合状態である。
BICの設定では、結合システムは群遅延において無限の不連続を示す。
どちらの特異点もブロッホ球の赤道に共存し、最大コヒーレント重ね合わせと遅い光の能力を同時に示す独特のハイブリッド状態を示す。 By engineering an anti-parity-time (anti-PT) symmetric cavity magnonics system with precise eigenspace controllability, we observe two different singularities in the same system. One type of singularity, the exceptional point (EP), is produced by tuning the magnon damping. Between two EPs, the maximal coherent superposition of photon and magnon states is robustly sustained by the preserved anti-PT symmetry. The other type of singularity, arising from the dissipative coupling of two anti-resonances, is an unconventional bound state in the continuum (BIC). At the settings of BICs, the coupled system exhibits infinite discontinuities in the group delay. We find that both singularities co-exist at the equator of the Bloch sphere, which reveals a unique hybrid state that simultaneously exhibits the maximal coherent superposition and slow light capability. | 翻訳日:2023-05-03 04:56:04 公開日:2020-09-08 |
# 乗法ベル不等式の実験実験 Experimental tests of Multiplicative Bell Inequalities ( http://arxiv.org/abs/2009.03930v1 ) ライセンス: Link先を確認 | Dilip Paneru, Amit Te'eni, Bar Y. Peled, James Hubble, Yingwen Zhang, Avishy Carmi, Eliahu Cohen, Ebrahim Karimi | (参考訳) ベルの不等式 (bell inequality) は、量子物理学と古典物理学の境界を定義する数学的構成物である。
体積最大化ゲーム(二成分系内の相関子の積に基づく)に由来する新しい乗法ベル不等式が最近提案されている。
これらの新しいベルパラメータに対して、古典的および量子的、すなわちツィレルソン極限を見つけることは比較的容易である。
ここでは、偏光束縛された光子を用いて、これらの不等式の境界値(n$)を実験的に検証し、各パーティが実行可能であることを示す。
n=2, 3, 4$ に対し,局所隠れ変数理論の実験的違反を報告する。
さらに, 完全な決定論的戦略から得られたパラメータと実験により比較し, 比の予測特性を観察する。
最後に,不確実性関係の局所性を包含する「相対論的独立性」の原理を用いて,乗法と加法ベルパラメータの両方に対する新しいリッチ境界を理論的に導出し,実験的に検証する。
本研究は, 局所相関と非局所相関の対応性を強化し, 非効率検出システムによる量子力学的境界の実証試験の道を開く可能性がある。 Bell inequalities are mathematical constructs that demarcate the boundary between quantum and classical physics. A new class of multiplicative Bell inequalities originating from a volume maximization game (based on products of correlators within bipartite systems) has been recently proposed. For these new Bell parameters, it is relatively easy to find the classical and quantum, i.e. Tsirelson, limits. Here, we experimentally test the Tsirelson bounds of these inequalities using polarisation-entangled photons for different number of measurements ($n$), each party can perform. For $n=2, 3, 4$, we report the experimental violation of local hidden variable theories. In addition, we experimentally compare the results with the parameters obtained from a fully deterministic strategy, and observe the conjectured nature of the ratio. Finally, utilizing the principle of "relativistic independence" encapsulating the locality of uncertainty relations, we theoretically derive and experimentally test new richer bounds for both the multiplicative and the additive Bell parameters for $n=2$. Our findings strengthen the correspondence between local and nonlocal correlations, and may pave the way for empirical tests of quantum mechanical bounds with inefficient detection systems. | 翻訳日:2023-05-03 04:55:34 公開日:2020-09-08 |
# PoWER-BERT:進行語ベクトル除去によるBERT推論の高速化 PoWER-BERT: Accelerating BERT Inference via Progressive Word-vector Elimination ( http://arxiv.org/abs/2001.08950v5 ) ライセンス: Link先を確認 | Saurabh Goyal, Anamitra R. Choudhury, Saurabh M. Raje, Venkatesan T. Chakaravarthy, Yogish Sabharwal, Ashish Verma | (参考訳) 我々は,POWER-BERTと呼ばれる新しい手法を開発し,その精度を維持しつつ,人気のあるBERTモデルの推論時間を改善する。
動作します。
a)ワードベクトル(中間エンコーダ出力)に係る冗長性を活用し、冗長ベクトルを排除すること。
ロ 自己着脱機構に基づき、その重要性を測定する戦略を発達させることにより、どの単語ベクトルを排除すべきかを決定すること。
c)BERTモデルと損失関数を増強することにより、ワードベクターを除去する回数を学習すること。
標準GLUEベンチマークの実験では、PoWER-BERTはBERTよりも最大4.5倍の推論時間を短縮し、精度は1%低下した。
本稿では,POWER-BERTが従来の手法に比べて精度と推定時間とのトレードオフを著しく向上することを示す。
本研究では,高度に圧縮された BERT 版である ALBERT に印加した場合,最大6.8倍の精度で推定時間を削減できることを実証した。
PoWER-BERTのコードはhttps://github.com/IBM/PoWER-BERTで公開されている。 We develop a novel method, called PoWER-BERT, for improving the inference time of the popular BERT model, while maintaining the accuracy. It works by: a) exploiting redundancy pertaining to word-vectors (intermediate encoder outputs) and eliminating the redundant vectors. b) determining which word-vectors to eliminate by developing a strategy for measuring their significance, based on the self-attention mechanism. c) learning how many word-vectors to eliminate by augmenting the BERT model and the loss function. Experiments on the standard GLUE benchmark shows that PoWER-BERT achieves up to 4.5x reduction in inference time over BERT with <1% loss in accuracy. We show that PoWER-BERT offers significantly better trade-off between accuracy and inference time compared to prior methods. We demonstrate that our method attains up to 6.8x reduction in inference time with <1% loss in accuracy when applied over ALBERT, a highly compressed version of BERT. The code for PoWER-BERT is publicly available at https://github.com/IBM/PoWER-BERT. | 翻訳日:2023-01-07 04:39:46 公開日:2020-09-08 |
# ベイズ非パラメトリック費用効果分析:因果推定と適応サブグループ発見 Bayesian Nonparametric Cost-Effectiveness Analyses: Causal Estimation and Adaptive Subgroup Discovery ( http://arxiv.org/abs/2002.04706v2 ) ライセンス: Link先を確認 | Arman Oganisian, Nandita Mitra, Jason Roy | (参考訳) コスト効率分析(CEA)は、健康経済の意思決定の中心である。
これらの分析は、政策アナリストや経済学者がカバレッジを判断し、政策を通知し、資源配分を導くのに役立つが、いくつかの理由から統計的に困難である。
コストと有効性は相関し、パラメトリックな捕獲が難しい複雑な関節分布に従う。
有効性(しばしば生存時間の増加と測定される)と累積コストは、多くのアプリケーションで右検閲される傾向がある。
さらに、CEAは非ランダムな治療課題を伴う観察データを用いて行われることが多い。
したがって、政策関連因果推定はロバストな結合制御を必要とする。
最後に、現在のCEA法は、しばしば人口平均推定値を示すが、大きな効果のある不均一性が存在する可能性がある。
これらの課題に触発され、検閲の有無で共同コスト-生存分布の非パラメトリックベイズモデルを開発した。
本手法では,コストと生存時間の共変量効果に先行する合同濃縮ジリクレ法と,生存時間のベースラインハザードに先行するガンマ法を用いる。
政策関連解釈を伴う因果性CEA推定はベイズ非パラメトリックg-計算法によって同定され、推定される。
最後に,リッチ化ディリクレプロセスの誘導的クラスタリングを用いて,コスト効率の異なるサブグループの存在を適応的に検出する方法について概説する。
完全後部推論のためのMCMC手順の概要とシミュレーションによる頻繁性の評価を行った。
本モデルを用いて,seer-medicareデータベースにおける子宮内膜癌に対する化学療法と放射線補助療法の費用効果を評価する。 Cost-effectiveness analyses (CEAs) are at the center of health economic decision making. While these analyses help policy analysts and economists determine coverage, inform policy, and guide resource allocation, they are statistically challenging for several reasons. Cost and effectiveness are correlated and follow complex joint distributions which are difficult to capture parametrically. Effectiveness (often measured as increased survival time) and accumulated cost tends to be right-censored in many applications. Moreover, CEAs are often conducted using observational data with non-random treatment assignment. Policy-relevant causal estimation therefore requires robust confounding control. Finally, current CEA methods do not address cost-effectiveness heterogeneity in a principled way - often presenting population-averaged estimates even though significant effect heterogeneity may exist. Motivated by these challenges, we develop a nonparametric Bayesian model for joint cost-survival distributions in the presence of censoring. Our approach utilizes a joint Enriched Dirichlet Process prior on the covariate effects of cost and survival time, while using a Gamma Process prior on the baseline survival time hazard. Causal CEA estimands, with policy-relevant interpretations, are identified and estimated via a Bayesian nonparametric g-computation procedure. Finally, we outline how the induced clustering of the Enriched Dirichlet Process can be used to adaptively detect presence of subgroups with different cost-effectiveness profiles. We outline an MCMC procedure for full posterior inference and evaluate frequentist properties via simulations. We use our model to assess the cost-efficacy of chemotherapy versus radiation adjuvant therapy for treating endometrial cancer in the SEER-Medicare database. | 翻訳日:2023-01-02 02:30:36 公開日:2020-09-08 |
# 識別可能な画像圧縮 Discernible Image Compression ( http://arxiv.org/abs/2002.06810v3 ) ライセンス: Link先を確認 | Zhaohui Yang, Yunhe Wang, Chang Xu, Peng Du, Chao Xu, Chunjing Xu, Qi Tian | (参考訳) 低レベルの画像処理タスクの1つである画像圧縮は、コンピュータビジョンにとって非常に重要である。
トレメンダスコンピューティングとストレージリソースは、自明な量の視覚情報で保存することができる。
従来の画像圧縮法では、その外観差を対応する原画像と最小化することで圧縮画像を得る傾向にあるが、画像認識や物体検出などの下流認識タスクにおいて、その効果にはほとんど注意を払わない。
したがって、圧縮された画像のいくつかはバイアスで認識できる。
対照的に,本論文は外観と知覚の整合性の両方を追求し,圧縮画像を作成することを目的としている。
エンコーダ・デコーダ・フレームワークに基づき、プリトレーニングされたcnnを用いて、オリジナル画像と圧縮画像の特徴を抽出し、類似させる。
したがって、圧縮された画像はその後のタスクに識別可能であり、本手法を識別可能画像圧縮(DIC)と呼ぶ。
さらに,特徴分布の差を最小限に抑えるために,最大平均誤差(MMD)を用いる。
得られた圧縮ネットワークは、画像品質の高い画像を生成し、特徴領域における一貫した認識を保ち、これらの画像が事前訓練された機械学習モデルで十分に認識できるようにする。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,後続の視覚認識・検出モデルでもよく認識できることを示した。
例えば、DICによる圧縮画像のmAP値は、従来の方法で圧縮画像を使用するものよりも約0.6%高い。 Image compression, as one of the fundamental low-level image processing tasks, is very essential for computer vision. Tremendous computing and storage resources can be preserved with a trivial amount of visual information. Conventional image compression methods tend to obtain compressed images by minimizing their appearance discrepancy with the corresponding original images, but pay little attention to their efficacy in downstream perception tasks, e.g., image recognition and object detection. Thus, some of compressed images could be recognized with bias. In contrast, this paper aims to produce compressed images by pursuing both appearance and perceptual consistency. Based on the encoder-decoder framework, we propose using a pre-trained CNN to extract features of the original and compressed images, and making them similar. Thus the compressed images are discernible to subsequent tasks, and we name our method as Discernible Image Compression (DIC). In addition, the maximum mean discrepancy (MMD) is employed to minimize the difference between feature distributions. The resulting compression network can generate images with high image quality and preserve the consistent perception in the feature domain, so that these images can be well recognized by pre-trained machine learning models. Experiments on benchmarks demonstrate that images compressed by using the proposed method can also be well recognized by subsequent visual recognition and detection models. For instance, the mAP value of compressed images by DIC is about 0.6% higher than that of using compressed images by conventional methods. | 翻訳日:2022-12-31 12:53:52 公開日:2020-09-08 |
# Facial Expression Phoenix (FePh):手話における表情と感情特定表現のための注釈付きシーケンスデータセット Facial Expression Phoenix (FePh): An Annotated Sequenced Dataset for Facial and Emotion-Specified Expressions in Sign Language ( http://arxiv.org/abs/2003.08759v2 ) ライセンス: Link先を確認 | Marie Alaghband, Niloofar Yousefi, Ivan Garibay | (参考訳) 表情はジェスチャーと手話認識システムにおいて重要な部分である。
両方の分野の最近の進歩にもかかわらず、手話の文脈における注釈付き表情データセットは依然として不足している。
本稿では,公共テレビ局PHOENIXの日報・天気予報から抽出した3000ドル以上の顔画像からなる,手話の文脈における注釈付き表情データセットを紹介する。
現在存在するほとんどの表情データセットとは異なり、FePhは頭ポーズ、向き、動きの異なる半青の顔画像を提供する。
さらに、ほとんどの画像では、アイデンティティーが単語を口にしているため、データはより困難になる。
このデータセットに注釈を付けるために、私たちは「sad」、「surprise」、「fear」、「angry」、「neutral」、「disgust」、「happy」の7つの基本的な感情の1次、2次、および3次的なダイナドを考える。
また、画像の表情が上記の感情のいずれかによって説明できない場合、"None"クラスも検討した。
FePhは手話のシグナーの表情データセットとして提供されるが、ジェスチャー認識やヒューマン・コンピュータ・インタラクション(HCI)システムに広く応用されている。 Facial expressions are important parts of both gesture and sign language recognition systems. Despite the recent advances in both fields, annotated facial expression datasets in the context of sign language are still scarce resources. In this manuscript, we introduce an annotated sequenced facial expression dataset in the context of sign language, comprising over $3000$ facial images extracted from the daily news and weather forecast of the public tv-station PHOENIX. Unlike the majority of currently existing facial expression datasets, FePh provides sequenced semi-blurry facial images with different head poses, orientations, and movements. In addition, in the majority of images, identities are mouthing the words, which makes the data more challenging. To annotate this dataset we consider primary, secondary, and tertiary dyads of seven basic emotions of "sad", "surprise", "fear", "angry", "neutral", "disgust", and "happy". We also considered the "None" class if the image's facial expression could not be described by any of the aforementioned emotions. Although we provide FePh as a facial expression dataset of signers in sign language, it has a wider application in gesture recognition and Human Computer Interaction (HCI) systems. | 翻訳日:2022-12-26 23:00:49 公開日:2020-09-08 |
# グラフ埋め込みを用いた教師付き領域適応 Supervised Domain Adaptation using Graph Embedding ( http://arxiv.org/abs/2003.04063v2 ) ライセンス: Link先を確認 | Lukas Hedegaard Morsing, Omar Ali Sheikh-Omar and Alexandros Iosifidis | (参考訳) 深い畳み込みニューラルネットワークをうまく機能させるためには、大量のトレーニングデータが必要です。
利用可能なラベル付きデータが小さい場合、転送学習を使用して関連するより大きなデータセット(ソース)を活用して、小さなデータセット(ターゲット)のパフォーマンスを改善することは、しばしば有益である。
移行学習手法の中で、ドメイン適応法は2つのドメイン間の分布がシフトし、それを認識しようとすると仮定する。
本稿では,次元性低減の観点からの領域適応問題を考えるとともに,グラフ埋め込みに基づく汎用フレームワークを提案する。
一般化固有値問題を解く代わりに、ニューラルネットワークの損失としてグラフ保存基準を定式化し、エンドツーエンドでドメイン不変の特徴変換を学ぶ。
シンプルなLDAにインスパイアされたフレームワークのインスタンス化は、最も広く使われている2つのドメイン適応ベンチマークであるOffice31とMNISTのUSPSデータセットに対する最先端のパフォーマンスをもたらす。 Getting deep convolutional neural networks to perform well requires a large amount of training data. When the available labelled data is small, it is often beneficial to use transfer learning to leverage a related larger dataset (source) in order to improve the performance on the small dataset (target). Among the transfer learning approaches, domain adaptation methods assume that distributions between the two domains are shifted and attempt to realign them. In this paper, we consider the domain adaptation problem from the perspective of dimensionality reduction and propose a generic framework based on graph embedding. Instead of solving the generalised eigenvalue problem, we formulate the graph-preserving criterion as a loss in the neural network and learn a domain-invariant feature transformation in an end-to-end fashion. We show that the proposed approach leads to a powerful Domain Adaptation framework; a simple LDA-inspired instantiation of the framework leads to state-of-the-art performance on two of the most widely used Domain Adaptation benchmarks, Office31 and MNIST to USPS datasets. | 翻訳日:2022-12-25 08:08:20 公開日:2020-09-08 |
# 条件付きganの最適属性表現の誘導 Inducing Optimal Attribute Representations for Conditional GANs ( http://arxiv.org/abs/2003.06472v2 ) ライセンス: Link先を確認 | Binod Bhattarai and Tae-Kyun Kim | (参考訳) 条件付きGANは、あるカテゴリから別のカテゴリへの画像の変換に広く使用されている。
GANに対する意味のある条件は、ターゲット領域の合成データの性質をより柔軟かつ制御できる。
既存の条件付きGANは、ターゲットドメインラベル情報を0と1の形式でハードコードされたカテゴリベクトルとして符号化する。
このような表現の主な欠点は、対象カテゴリの高次意味情報とその相対的な依存関係をエンコードできないことである。
本稿では,グラフ畳み込みネットワークを用いた新しいエンドツーエンド学習フレームワークを提案する。
ganの損失(すなわち判別器と属性分類の損失)はグラフに返され、結果として合成画像は属性においてより自然で明確になる。
さらに、先行技術は、GANの差別化側ではなく、ジェネレータ側の条件に優先される。
我々は,マルチタスク学習を通じて,この条件を判別者側に適用する。
我々は4つの最先端のcGANアーキテクチャ(Stargan, Stargan-JNT, AttGAN, STGAN)を拡張した。
顔属性操作データセット(CelebA,LFWA,RaFD)の定性的・定量的評価を行ったところ,PSNRやSSIMなどの目標属性認識率と品質指標の両面で,我々の手法により強化されたcGANは,カウンター部や他の条件付手法と比較して大きなマージンで優れていた。 Conditional GANs are widely used in translating an image from one category to another. Meaningful conditions to GANs provide greater flexibility and control over the nature of the target domain synthetic data. Existing conditional GANs commonly encode target domain label information as hard-coded categorical vectors in the form of 0s and 1s. The major drawbacks of such representations are inability to encode the high-order semantic information of target categories and their relative dependencies. We propose a novel end-to-end learning framework with Graph Convolutional Networks to learn the attribute representations to condition on the generator. The GAN losses, i.e. the discriminator and attribute classification losses, are fed back to the Graph resulting in the synthetic images that are more natural and clearer in attributes. Moreover, prior-arts are given priorities to condition on the generator side, not on the discriminator side of GANs. We apply the conditions to the discriminator side as well via multi-task learning. We enhanced the four state-of-the art cGANs architectures: Stargan, Stargan-JNT, AttGAN and STGAN. Our extensive qualitative and quantitative evaluations on challenging face attributes manipulation data set, CelebA, LFWA, and RaFD, show that the cGANs enhanced by our methods outperform by a large margin, compared to their counter-parts and other conditioning methods, in terms of both target attributes recognition rates and quality measures such as PSNR and SSIM. | 翻訳日:2022-12-24 01:58:46 公開日:2020-09-08 |
# データ駆動型サロゲートモデリングとプロセス機器のベンチマーク Data-driven surrogate modelling and benchmarking for process equipment ( http://arxiv.org/abs/2003.07701v2 ) ライセンス: Link先を確認 | Gabriel F. N. Gon\c{c}alves, Assen Batchvarov, Yuyi Liu, Yuxin Liu, Lachlan Mason, Indranil Pan, Omar K. Matar | (参考訳) 化学プロセス工学では、複雑なシステムのサロゲートモデルがドメイン探索、設計パラメータの感度解析、最適化のタスクにしばしば必要となる。
化学プロセス機器モデリングのための一連の計算流体力学(cfd)シミュレーションが開発され、文献からの実験結果とともに検証されている。
有限関数評価予算の制約の下で,これらのCFDシミュレータをループ内での回帰型能動学習戦略について検討した。
具体的には,工業的重要性と複雑さの異なる4つの試験事例を考慮し,5つの異なるサンプリング戦略と5つの回帰手法を比較した。
ガウス過程の回帰は、これらのアプリケーションに対して一貫して優れた性能を有することが観察された。
本研究は,さまざまなテクニックの長所と短所を概説し,導入のベストプラクティスを強調する。
テストケースとツールはオープンソースライセンスで利用可能で、再現性を確保し、より広い研究コミュニティにcfdモデルへのコントリビュートや、この分野に合わせた新しい改良アルゴリズムの開発とベンチマークに関わります。 In chemical process engineering, surrogate models of complex systems are often necessary for tasks of domain exploration, sensitivity analysis of the design parameters, and optimization. A suite of computational fluid dynamics (CFD) simulations geared toward chemical process equipment modeling has been developed and validated with experimental results from the literature. Various regression-based active learning strategies are explored with these CFD simulators in-the-loop under the constraints of a limited function evaluation budget. Specifically, five different sampling strategies and five regression techniques are compared, considering a set of four test cases of industrial significance and varying complexity. Gaussian process regression was observed to have a consistently good performance for these applications. The present quantitative study outlines the pros and cons of the different available techniques and highlights the best practices for their adoption. The test cases and tools are available with an open-source license to ensure reproducibility and engage the wider research community in contributing to both the CFD models and developing and benchmarking new improved algorithms tailored to this field. | 翻訳日:2022-12-24 01:31:15 公開日:2020-09-08 |
# セマンティックセグメンテーションにおける障害と異常の検出 Synthesize then Compare: Detecting Failures and Anomalies for Semantic Segmentation ( http://arxiv.org/abs/2003.08440v2 ) ライセンス: Link先を確認 | Yingda Xia, Yi Zhang, Fengze Liu, Wei Shen, Alan Yuille | (参考訳) 故障や異常を検出する能力は、コンピュータビジョンアプリケーション、特に自律運転や医用画像解析のようなセマンティックセグメンテーションの安全クリティカルな応用のための信頼性の高いシステムを構築するための基本的な要件である。
本稿では,セマンティクスセグメンテーションにおける障害と異常検出を体系的に研究し,これら2つのモジュールからなる統一フレームワークを提案する。
第1のモジュールは、セグメンテーションレイアウトマップから合成画像を生成する画像合成モジュールであり、第2のモジュールは、合成画像と入力画像との差を計算する比較モジュールである。
我々は,3つの挑戦的データセットの枠組みを検証し,大きなマージンによる最先端技術の改善,都市景観におけるAUPR-Errorの6%,MSDにおける膵腫瘍のセグメンテーションに対するPearson相関,StreetHazardsにおけるAUPRの20%などを検討した。 The ability to detect failures and anomalies are fundamental requirements for building reliable systems for computer vision applications, especially safety-critical applications of semantic segmentation, such as autonomous driving and medical image analysis. In this paper, we systematically study failure and anomaly detection for semantic segmentation and propose a unified framework, consisting of two modules, to address these two related problems. The first module is an image synthesis module, which generates a synthesized image from a segmentation layout map, and the second is a comparison module, which computes the difference between the synthesized image and the input image. We validate our framework on three challenging datasets and improve the state-of-the-arts by large margins, \emph{i.e.}, 6% AUPR-Error on Cityscapes, 7% Pearson correlation on pancreatic tumor segmentation in MSD and 20% AUPR on StreetHazards anomaly segmentation. | 翻訳日:2022-12-22 13:00:07 公開日:2020-09-08 |
# 冗長入力ニューラルネットワークを用いた潜在因果構造学習 Learning Latent Causal Structures with a Redundant Input Neural Network ( http://arxiv.org/abs/2003.13135v3 ) ライセンス: Link先を確認 | Jonathan D. Young, Bryan Andrews, Gregory F. Cooper, Xinghua Lu | (参考訳) ほとんどの因果発見アルゴリズムは、観測された変数の集合の中で因果構造を見つける。
潜在変数間の因果構造を学ぶことは、特に高次元データを使用する場合において、重要なオープン問題である。
本稿では、入力が出力を引き起こすことがわかっている問題に対処し、これらの因果関係は未知数の潜在変数の集合の中で因果ネットワークによって符号化される。
我々は,入力変数,隠れ変数,出力変数の因果関係を求めるために,修正アーキテクチャと正規化目的関数を備えた冗長入力ニューラルネットワーク(rinn)と呼ばれるディープラーニングモデルを開発した。
より具体的には、入力変数がニューラルネットワーク内のすべての潜在変数と直接相互作用し、潜在変数がエンコードすべき情報に影響を与えることで、出力変数を正確に生成することができる。
この設定では、入力変数と潜在変数の直接接続により、潜在変数を部分的に解釈することができる。さらに、ニューラルネットワーク内の潜在変数間の接続は、相互および出力変数との潜在的な因果関係をモデル化するのに役立つ。
一連のシミュレーション実験は、rinn法が入力変数と出力変数の間の潜在因果構造を正常に回復することを支援する。 Most causal discovery algorithms find causal structure among a set of observed variables. Learning the causal structure among latent variables remains an important open problem, particularly when using high-dimensional data. In this paper, we address a problem for which it is known that inputs cause outputs, and these causal relationships are encoded by a causal network among a set of an unknown number of latent variables. We developed a deep learning model, which we call a redundant input neural network (RINN), with a modified architecture and a regularized objective function to find causal relationships between input, hidden, and output variables. More specifically, our model allows input variables to directly interact with all latent variables in a neural network to influence what information the latent variables should encode in order to generate the output variables accurately. In this setting, the direct connections between input and latent variables makes the latent variables partially interpretable; furthermore, the connectivity among the latent variables in the neural network serves to model their potential causal relationships to each other and to the output variables. A series of simulation experiments provide support that the RINN method can successfully recover latent causal structure between input and output variables. | 翻訳日:2022-12-18 13:05:54 公開日:2020-09-08 |
# dashcam pay:車内支払いのための顔と音声によるシステム DashCam Pay: A System for In-vehicle Payments Using Face and Voice ( http://arxiv.org/abs/2004.03756v2 ) ライセンス: Link先を確認 | Cori Tymoszek, Sunpreet S. Arora, Kim Wagner, and Anil K. Jain | (参考訳) 我々は、車内支払いをシームレスかつ安全に、顔および音声バイオメトリックスを用いて行うシステムdashcam payの開発について、現在進行中の作業について紹介する。
車両に搭載されたプラグアンドプレイ装置(ダッシュカム)は、乗客の顔画像と音声コマンドをキャプチャするために使用される。
プライバシー保護バイオメトリック比較技術は、ダッシュカムが取得した生体メトリックデータを、無線インターフェース(BluetoothやWi-Fi Directなど)を介してユーザのモバイルデバイスに登録した生体メトリックデータと比較して、支払い先を決定するために使用される。
支払者が特定されると、その支払者のモバイルデバイスに登録された支払資格を用いて支払を行う。
市販のdashcamを用いて収集したデータの予備分析を行い,提案システムの構築可能性を示す。
提案システムのプロトタイプもAndroidで開発されている。
dashcam payは、dashcamまたは車メーカーがopen loop in-vehicle paymentsを有効にするためのソフトウェアソリューションとして統合することができる。 We present our ongoing work on developing a system, called DashCam Pay, that enables in-vehicle payments in a seamless and secure manner using face and voice biometrics. A plug-and-play device (dashcam) mounted in the vehicle is used to capture face images and voice commands of passengers. Privacy-preserving biometric comparison techniques are used to compare the biometric data captured by the dashcam with the biometric data enrolled on the users' mobile devices over a wireless interface (e.g., Bluetooth or Wi-Fi Direct) to determine the payer. Once the payer is identified, payment is conducted using the enrolled payment credential on the mobile device of the payer. We conduct preliminary analysis on data collected using a commercially available dashcam to show the feasibility of building the proposed system. A prototype of the proposed system is also developed in Android. DashCam Pay can be integrated as a software solution by dashcam or vehicle manufacturers to enable open loop in-vehicle payments. | 翻訳日:2022-12-15 09:31:32 公開日:2020-09-08 |
# 非コントラストctと2段階ディープラーニングモデルを用いた急性期脳梗塞の自動検出 Automatic detection of acute ischemic stroke using non-contrast computed tomography and two-stage deep learning model ( http://arxiv.org/abs/2004.04432v2 ) ライセンス: Link先を確認 | Mizuho Nishio, Sho Koyasu, Shunjiro Noguchi, Takao Kiguchi, Kanako Nakatsu, Thai Akasaka, Hiroki Yamada, Kyo Itoh | (参考訳) 背景と目的:我々は2段階ディープラーニングモデルを用いた急性期脳卒中関連自動検出システムの開発と評価を目標とした。
方法: 2つの施設から238例を報告した。
AIS関連所見は, 頭部MRI画像の238セットに対して, CTスキャン後24時間以内にMRI検査を施行した238セットの頭部MRI画像を参照してアノテートした。
これら238例を189例を含む訓練セットと49例を含む試験セットに分けた。
その後、You Only Look Once v3モデルとVisual Geometry Group 16分類モデルを用いて、トレーニングセットから2段階のディープラーニング検出モデルを構築した。
次に, テストセットにおいて2段階モデルがais検出処理を行った。
また, 検出モデルの結果を評価するため, 試験セットの頭部CT画像も, 検出モデルの助けなしに評価した。
テストセット検出結果の評価のためにAIS検出感度と偽陽性数を算出する。
ソフトウェア検出結果に対する放射線科医の感度をmcnemar試験を用いて比較した。
0.05未満のp値は統計的に有意であった。
結果: 2段階のモデルと放射線科医は, ソフトウェアを使わずに37.3%, 33.3%, 41.3%の感度を示し, 1例あたりの偽陽性率は1.265, 0.327, 0.388であった。
2段階検出モデルを用いた場合, 放射線科医の検出感度は有意に向上した(p値 = 0.0313)。
結論: 2段階ディープラーニングモデルを用いた検出システムは,ais検出における放射線科医の感度を著しく改善した。 Background and Purpose: We aimed to develop and evaluate an automatic acute ischemic stroke-related (AIS) detection system involving a two-stage deep learning model. Methods: We included 238 cases from two different institutions. AIS-related findings were annotated on each of the 238 sets of head CT images by referring to head magnetic resonance imaging (MRI) images in which an MRI examination was performed within 24 h following the CT scan. These 238 annotated cases were divided into a training set including 189 cases and test set including 49 cases. Subsequently, a two-stage deep learning detection model was constructed from the training set using the You Only Look Once v3 model and Visual Geometry Group 16 classification model. Then, the two-stage model performed the AIS detection process in the test set. To assess the detection model's results, a board-certified radiologist also evaluated the test set head CT images with and without the aid of the detection model. The sensitivity of AIS detection and number of false positives were calculated for the evaluation of the test set detection results. The sensitivity of the radiologist with and without the software detection results was compared using the McNemar test. A p-value of less than 0.05 was considered statistically significant. Results: For the two-stage model and radiologist without and with the use of the software results, the sensitivity was 37.3%, 33.3%, and 41.3%, respectively, and the number of false positives per one case was 1.265, 0.327, and 0.388, respectively. On using the two-stage detection model's results, the board-certified radiologist's detection sensitivity significantly improved (p-value = 0.0313). Conclusions: Our detection system involving the two-stage deep learning model significantly improved the radiologist's sensitivity in AIS detection. | 翻訳日:2022-12-15 02:37:55 公開日:2020-09-08 |
# インターネットのためのプライバシ保護フェデレーション学習の概観 A Review of Privacy-preserving Federated Learning for the Internet-of-Things ( http://arxiv.org/abs/2004.11794v2 ) ライセンス: Link先を確認 | Christopher Briggs, Zhong Fan, Peter Andras | (参考訳) internet-of-things(iot)は膨大な量のデータを生成し、その多くが個人の行動や行動に起因している。
個人データを集め、中央の場所で機械学習タスクを実行することは、個人に重大なプライバシーリスクをもたらし、このデータをクラウドに通信する上での課題となる。
しかし、機械学習や特にディープラーニングに基づく分析は、大量のデータから大きな恩恵を受け、高性能な予測モデルを開発する。
本稿では,ユーザ生成データのプライバシ保護とデータ転送に関わる通信コストの低減を目標として,分散データ上でマシンラーニングを実行するためのアプローチとして,フェデレート学習をレビューする。
iotのコンテキストにおいて,連合学習に不可欠なコミュニケーション効率,クライアントの不均一性,プライバシ保護手法など,さまざまな論文を調査した。
このレビューを通じて、フェデレーション学習に適用されるさまざまな方法の長所と短所を特定し、最後に、フェデレーション学習研究、特にIoTアプリケーションに焦点を当てた、プライバシー保護のための今後の方向性を概説する。 The Internet-of-Things (IoT) generates vast quantities of data, much of it attributable to individuals' activity and behaviour. Gathering personal data and performing machine learning tasks on this data in a central location presents a significant privacy risk to individuals as well as challenges with communicating this data to the cloud. However, analytics based on machine learning and in particular deep learning benefit greatly from large amounts of data to develop high-performance predictive models. This work reviews federated learning as an approach for performing machine learning on distributed data with the goal of protecting the privacy of user-generated data as well as reducing communication costs associated with data transfer. We survey a wide variety of papers covering communication-efficiency, client heterogeneity and privacy preserving methods that are crucial for federated learning in the context of the IoT. Throughout this review, we identify the strengths and weaknesses of different methods applied to federated learning and finally, we outline future directions for privacy preserving federated learning research, particularly focusing on IoT applications. | 翻訳日:2022-12-10 03:18:19 公開日:2020-09-08 |
# 合成ニューラルネットワークから忠実な解釈を得る Obtaining Faithful Interpretations from Compositional Neural Networks ( http://arxiv.org/abs/2005.00724v2 ) ライセンス: Link先を確認 | Sanjay Subramanian, Ben Bogin, Nitish Gupta, Tomer Wolfson, Sameer Singh, Jonathan Berant, Matt Gardner | (参考訳) ニューラルモジュールネットワーク(nmns)は合成性をモデル化する一般的なアプローチであり、ネットワークアーキテクチャにおける問題の構成構造を反映しながら、言語や視覚の問題に適用することで高い精度を達成する。
しかしながら、事前の作業では、抽象的推論プロセスを記述するネットワークモジュールの構造が、モデルの推論の忠実な説明、すなわち、すべてのモジュールが意図した振る舞いを実行することを暗黙的に仮定している。
本研究では,NLVR2とDROPにおけるNMNの中間出力の系統的評価を行い,複数の推論ステップの合成を必要とする2つのデータセットを提案する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
そこで、我々は補助的な監督でモデルを訓練し、精度を最小限に抑えながら、より優れた忠実性をもたらすモジュールアーキテクチャの特定の選択を提案する。 Neural module networks (NMNs) are a popular approach for modeling compositionality: they achieve high accuracy when applied to problems in language and vision, while reflecting the compositional structure of the problem in the network architecture. However, prior work implicitly assumed that the structure of the network modules, describing the abstract reasoning process, provides a faithful explanation of the model's reasoning; that is, that all modules perform their intended behaviour. In this work, we propose and conduct a systematic evaluation of the intermediate outputs of NMNs on NLVR2 and DROP, two datasets which require composing multiple reasoning steps. We find that the intermediate outputs differ from the expected output, illustrating that the network structure does not provide a faithful explanation of model behaviour. To remedy that, we train the model with auxiliary supervision and propose particular choices for module architecture that yield much better faithfulness, at a minimal cost to accuracy. | 翻訳日:2022-12-07 11:32:41 公開日:2020-09-08 |
# 線拡張によるハイパーグラフ学習 Hypergraph Learning with Line Expansion ( http://arxiv.org/abs/2005.04843v5 ) ライセンス: Link先を確認 | Chaoqi Yang, Ruijie Wang, Shuochao Yao, Tarek Abdelzaher | (参考訳) 従来のハイパーグラフ展開は頂点レベルまたはハイパーエッジレベルでのみ実行されるため、データ共起の対称性が欠如し、情報損失が生じる。
この問題に対処するため,本論文は頂点とハイパーエッジを等しく扱い,ハイパーグラフ学習のための新しいハイパーグラフ定式化である \emph{line expansion (le)" を提案する。
新しい展開は、頂点-ハイパーエッジ対を「ラインノード」として扱うことにより、ハイパーグラフから均質構造を誘導する。
ハイパーグラフを単純なグラフに縮小することによって、提案された \emph{line expansion} は既存のグラフ学習アルゴリズムを高階構造と互換性を持たせ、様々なハイパーグラフ展開の統一フレームワークとして証明されている。
提案手法は,5つのハイパーグラフデータセットのライン拡張を評価した結果,somaベースラインを有意なマージンで上回った。 Previous hypergraph expansions are solely carried out on either vertex level or hyperedge level, thereby missing the symmetric nature of data co-occurrence, and resulting in information loss. To address the problem, this paper treats vertices and hyperedges equally and proposes a new hypergraph formulation named the \emph{line expansion (LE)} for hypergraphs learning. The new expansion bijectively induces a homogeneous structure from the hypergraph by treating vertex-hyperedge pairs as "line nodes". By reducing the hypergraph to a simple graph, the proposed \emph{line expansion} makes existing graph learning algorithms compatible with the higher-order structure and has been proven as a unifying framework for various hypergraph expansions. We evaluate the proposed line expansion on five hypergraph datasets, the results show that our method beats SOTA baselines by a significant margin. | 翻訳日:2022-12-04 19:53:27 公開日:2020-09-08 |
# SCAT: テキストデータのための第2のチャンスオートエンコーダ SCAT: Second Chance Autoencoder for Textual Data ( http://arxiv.org/abs/2005.06632v3 ) ライセンス: Link先を確認 | Somaieh Goudarzvand, Gharib Gharibi, Yugyung Lee | (参考訳) テキスト自動エンコーダのk-competitiveな学習手法としてSecond Chance Autoencoder(SCAT)を提案する。
scatは、勝者ニューロンとして最大かつ最小の正の活性化量k$を選択し、学習プロセス中に敗者ニューロンの活性化値を取得し、トピックに対するよく表現された特徴の検索に集中する。
実験の結果,SCATはLDA,K-Sparse,NVCTM,KATEと比較して,分類,トピックモデリング,文書の可視化に優れていた。 We present a k-competitive learning approach for textual autoencoders named Second Chance Autoencoder (SCAT). SCAT selects the $k$ largest and smallest positive activations as the winner neurons, which gain the activation values of the loser neurons during the learning process, and thus focus on retrieving well-representative features for topics. Our experiments show that SCAT achieves outstanding performance in classification, topic modeling, and document visualization compared to LDA, K-Sparse, NVCTM, and KATE. | 翻訳日:2022-12-04 19:36:17 公開日:2020-09-08 |
# 問題解決のための機械学習の一般化:旅行セールスマン問題の事例研究 Generalization of Machine Learning for Problem Reduction: A Case Study on Travelling Salesman Problems ( http://arxiv.org/abs/2005.05847v2 ) ライセンス: Link先を確認 | Yuan Sun, Andreas Ernst, Xiaodong Li and Jake Weiner | (参考訳) 組合せ最適化は現実世界の問題解決において重要な役割を果たす。
ビッグデータ時代において、組合せ最適化問題の次元性は、通常非常に大きく、既存の解法にとって大きな課題となる。
本稿では,古典的旅行セールスマン問題(TSP)における問題解決のための機械学習モデルの一般化能力について検討する。
提案手法は最適解の一部ではないと予測される最適化問題から決定変数をゆるやかに除去できることを実証する。
具体的には,トレーニング段階では見られなかったテストインスタンスを一般化するモデルの能力について検討する。
トレーニングとテストのインスタンスが異なる3つのシナリオを考えます。
1) 問題の特徴
2)問題のサイズ,及び
3)問題の種類。
実験の結果,この機械学習に基づく手法は,異なる特性やサイズを持つ幅広いTSPテストインスタンスに対して,合理的に一般化可能であることがわかった。
未使用変数の予測精度は、テストインスタンスがトレーニングセットからさらに離れているため、自然に劣化するが、異なるTSP問題変種でテストしても、機械学習モデルは、ソリューションの品質に大きな影響を及ぼすことなく、どの変数を排除できるかを有用な予測を行う。 Combinatorial optimization plays an important role in real-world problem solving. In the big data era, the dimensionality of a combinatorial optimization problem is usually very large, which poses a significant challenge to existing solution methods. In this paper, we examine the generalization capability of a machine learning model for problem reduction on the classic travelling salesman problems (TSP). We demonstrate that our method can greedily remove decision variables from an optimization problem that are predicted not to be part of an optimal solution. More specifically, we investigate our model's capability to generalize on test instances that have not been seen during the training phase. We consider three scenarios where training and test instances are different in terms of: 1) problem characteristics; 2) problem sizes; and 3) problem types. Our experiments show that this machine learning based technique can generalize reasonably well over a wide range of TSP test instances with different characteristics or sizes. While the accuracy of predicting unused variables naturally deteriorates as a test instance is further away from the training set, we observe that even when tested on a different TSP problem variant, the machine learning model still makes useful predictions about which variables can be eliminated without significantly impacting solution quality. | 翻訳日:2022-12-03 18:23:17 公開日:2020-09-08 |
# 潜在コードラベルと特徴を有する変分オートエンコーダに基づく半教師付き神経コード推定 Semi-supervised Neural Chord Estimation Based on a Variational Autoencoder with Latent Chord Labels and Features ( http://arxiv.org/abs/2005.07091v2 ) ライセンス: Link先を確認 | Yiming Wu, Tristan Carsault, Eita Nakamura, Kazuyoshi Yoshii | (参考訳) 本稿では,コードアノテーションの有効性に関わらず,音楽信号の有効活用が可能な,統計的に先導した自動コード推定(ACE)手法について述べる。
ACEの典型的なアプローチは、注釈付き音楽信号のみを使用して、教師付き方法で深い分類モデル(神経コード推定器)を訓練することである。
この識別的アプローチでは、コードラベルシーケンス(モデル出力)に関する事前知識はほとんど考慮されていない。
対照的に、償却変分推論の枠組みにおける統一的生成的・識別的アプローチを提案する。
より具体的には、離散ラベルからのクロマベクトル(観測変数)の生成過程を表す深い生成モデルと、それぞれ自己遷移と標準ガウス分布を好むマルコフモデルに従うと仮定される連続的特徴(相対変数)を定式化する。
観測データとしてクロマベクトルが与えられると、潜在ラベルの後方分布と特徴は、それぞれ深い分類と認識モデルを用いて大まかに計算される。
これら3つのモデルは変分オートエンコーダを形成し、半教師付きで共同で訓練することができる。
実験の結果,コードラベルのマルコフ前の分類モデルの正規化とクロマベクトルの生成モデルにより,教師付き条件下においてもACEの性能が向上した。
追加の非注釈データを用いた半教師付き学習により、さらなる性能向上が期待できる。 This paper describes a statistically-principled semi-supervised method of automatic chord estimation (ACE) that can make effective use of music signals regardless of the availability of chord annotations. The typical approach to ACE is to train a deep classification model (neural chord estimator) in a supervised manner by using only annotated music signals. In this discriminative approach, prior knowledge about chord label sequences (model output) has scarcely been taken into account. In contrast, we propose a unified generative and discriminative approach in the framework of amortized variational inference. More specifically, we formulate a deep generative model that represents the generative process of chroma vectors (observed variables) from discrete labels and continuous features (latent variables), which are assumed to follow a Markov model favoring self-transitions and a standard Gaussian distribution, respectively. Given chroma vectors as observed data, the posterior distributions of the latent labels and features are computed approximately by using deep classification and recognition models, respectively. These three models form a variational autoencoder and can be trained jointly in a semi-supervised manner. The experimental results show that the regularization of the classification model based on the Markov prior of chord labels and the generative model of chroma vectors improved the performance of ACE even under the supervised condition. The semi-supervised learning using additional non-annotated data can further improve the performance. | 翻訳日:2022-12-03 05:38:40 公開日:2020-09-08 |
# パーソナライズランキングにおけるクラス不均衡問題への対処 Addressing Class-Imbalance Problem in Personalized Ranking ( http://arxiv.org/abs/2005.09272v2 ) ライセンス: Link先を確認 | Lu Yu, Shichao Pei, Chuxu Zhang, Shangsong Liang, Xiao Bai, Nitesh Chawla, Xiangliang Zhang | (参考訳) ペアワイズランキングモデルはリコメンデーション問題に対処するために広く使われている。
基本的な考え方は、ユーザとイテムの相互作用が存在する場合、アイテムを \emph{ positive} サンプルと、それ以外は \emph{ negative} サンプルに分離することで、ユーザの好みの項目のランクを学習することである。
観測可能な相互作用の数が限られているため、ペアワイズランキングモデルは深刻な \emph{class-imbalance} 問題に直面している。
理論解析により,現在のサンプリングベース手法は頂点レベルの不均衡問題を引き起こし,学習項目のノルムが一定の訓練イテレーションの後に無限に埋込み,結果として勾配が消失し,モデル推論結果に影響を及ぼすことを示した。
そこで我々は,ペアワイズランキングモデル,特に勾配法に最適化された深層学習モデルにおいて,クラス不均衡問題を緩和するために,効率の良い \emph{\underline{vi}tal \underline{n}egative \underline{s}ampler} (vins) を提案する。
VINSの中核は、与えられた正の項目よりも大きい負の候補を受け入れる傾向にある確率を拒絶するバイアスサンプリングである。
いくつかの実データを用いた評価結果から,提案手法は,トップn項目推薦のランキング結果の質を維持しつつ,浅層から深層までのランキングモデルのトレーニング手順を30\%から50\%に高速化することを示した。 Pairwise ranking models have been widely used to address recommendation problems. The basic idea is to learn the rank of users' preferred items through separating items into \emph{positive} samples if user-item interactions exist, and \emph{negative} samples otherwise. Due to the limited number of observable interactions, pairwise ranking models face serious \emph{class-imbalance} issues. Our theoretical analysis shows that current sampling-based methods cause the vertex-level imbalance problem, which makes the norm of learned item embeddings towards infinite after a certain training iterations, and consequently results in vanishing gradient and affects the model inference results. We thus propose an efficient \emph{\underline{Vi}tal \underline{N}egative \underline{S}ampler} (VINS) to alleviate the class-imbalance issue for pairwise ranking model, in particular for deep learning models optimized by gradient methods. The core of VINS is a bias sampler with reject probability that will tend to accept a negative candidate with a larger degree weight than the given positive item. Evaluation results on several real datasets demonstrate that the proposed sampling method speeds up the training procedure 30\% to 50\% for ranking models ranging from shallow to deep, while maintaining and even improving the quality of ranking results in top-N item recommendation. | 翻訳日:2022-12-01 14:44:08 公開日:2020-09-08 |
# 人工知能対マヤ・アンジェロウ:AI生成と人間の詩を区別できない実験的証拠 Artificial Intelligence versus Maya Angelou: Experimental evidence that people cannot differentiate AI-generated from human-written poetry ( http://arxiv.org/abs/2005.09980v2 ) ライセンス: Link先を確認 | Nils K\"obis, Luca Mossink | (参考訳) オープンソースで堅牢な自然言語生成アルゴリズム(NLG)のリリースは、多くの注目を集め、議論を呼んだ。
一つの理由は、アルゴリズムが様々な領域にまたがって人間のようなテキストを生成する能力を持っているからである。
インセンティブ付きタスクを用いた人格評価の実証的証拠
a)を区別し、区別できる
(b)人間が書いたテキストよりもアルゴリズムが好まれる。
最新の自然言語生成アルゴリズムgpt-2 (ntotal = 830) に対する行動反応を2つの実験で評価した。
GPT-2は人間の詩の開始ラインを同一に使用し、詩のサンプルを作成した。
これらのサンプルから、ランダムな詩(Human-out-of-loop)が選ばれたか、最も良い詩(Human-in-the-loop)が選ばれた。
チューリングテストの新たなインセンティブ版では、被験者はループ内処理においてアルゴリズムによって生成された詩を確実に検出できなかったが、ループ内処理に成功している。
さらに、参加者が詩のアルゴリズム的起源(透明性)について知らされたかどうか(オパシティ)によらず、アルゴリズムが生成した詩に対する若干の嫌悪が露呈する。
これらの結果が人間に似たテキストを生成するためのNLGアルゴリズムの性能にどう影響するかを議論し、そのような学習アルゴリズムを人力実験環境で研究する手法を提案する。 The release of openly available, robust natural language generation algorithms (NLG) has spurred much public attention and debate. One reason lies in the algorithms' purported ability to generate human-like text across various domains. Empirical evidence using incentivized tasks to assess whether people (a) can distinguish and (b) prefer algorithm-generated versus human-written text is lacking. We conducted two experiments assessing behavioral reactions to the state-of-the-art Natural Language Generation algorithm GPT-2 (Ntotal = 830). Using the identical starting lines of human poems, GPT-2 produced samples of poems. From these samples, either a random poem was chosen (Human-out-of-the-loop) or the best one was selected (Human-in-the-loop) and in turn matched with a human-written poem. In a new incentivized version of the Turing Test, participants failed to reliably detect the algorithmically-generated poems in the Human-in-the-loop treatment, yet succeeded in the Human-out-of-the-loop treatment. Further, people reveal a slight aversion to algorithm-generated poetry, independent on whether participants were informed about the algorithmic origin of the poem (Transparency) or not (Opacity). We discuss what these results convey about the performance of NLG algorithms to produce human-like text and propose methodologies to study such learning algorithms in human-agent experimental settings. | 翻訳日:2022-12-01 04:38:09 公開日:2020-09-08 |
# 音声言語理解のための単語混乱ネットワークとbertとの対話コンテキストの協調符号化 Jointly Encoding Word Confusion Network and Dialogue Context with BERT for Spoken Language Understanding ( http://arxiv.org/abs/2005.11640v3 ) ライセンス: Link先を確認 | Chen Liu, Su Zhu, Zijian Zhao, Ruisheng Cao, Lu Chen and Kai Yu | (参考訳) Spoken Language Understanding (SLU)は、自動音声認識(ASR)からの仮説を構造化意味表現に変換する。
ASR認識誤差は、その後のSLUモジュールの性能を著しく低下させることができる。
この問題に対処するために、単語混乱ネットワーク(WCN)は、1-bestやn-bestの仮説リストよりも豊富な情報を含むSLUの入力を符号化するために使用されている。
さらに曖昧さをなくすため、最後の対話コンテキストのシステム行為も追加入力として利用される。
本稿では、WCNと対話コンテキストを共同で符号化するために、新しいBERTベースのSLUモデル(WCN-BERT SLU)を提案する。
WCNの構造情報とASR後部確率の両方をBERTアーキテクチャに組み込むことができる。
SLUのベンチマークであるDSTC2の実験では,提案手法は有効であり,従来の最先端モデルよりも優れていた。 Spoken Language Understanding (SLU) converts hypotheses from automatic speech recognizer (ASR) into structured semantic representations. ASR recognition errors can severely degenerate the performance of the subsequent SLU module. To address this issue, word confusion networks (WCNs) have been used to encode the input for SLU, which contain richer information than 1-best or n-best hypotheses list. To further eliminate ambiguity, the last system act of dialogue context is also utilized as additional input. In this paper, a novel BERT based SLU model (WCN-BERT SLU) is proposed to encode WCNs and the dialogue context jointly. It can integrate both structural information and ASR posterior probabilities of WCNs in the BERT architecture. Experiments on DSTC2, a benchmark of SLU, show that the proposed method is effective and can outperform previous state-of-the-art models significantly. | 翻訳日:2022-11-29 13:14:25 公開日:2020-09-08 |
# 教師なし音声表現学習のための畳み込みDeep Markovモデル A Convolutional Deep Markov Model for Unsupervised Speech Representation Learning ( http://arxiv.org/abs/2006.02547v2 ) ライセンス: Link先を確認 | Sameer Khurana, Antoine Laurent, Wei-Ning Hsu, Jan Chorowski, Adrian Lancucki, Ricard Marxer, James Glass | (参考訳) 確率的潜在変数モデル(LVM)は、言語表現学習のための自己教師付き学習手法の代替となる。
lvmは、潜在構造が信号から抽出された情報を形作る直感的な確率的解釈を許容する。
lvmは最近、変分オートエンコーダ(vaes)の導入によって新たな関心が寄せられているが、その音声表現学習への使用は、ほとんど検討されていない。
本研究では,ニューラルネットによってモデル化された非線形エミッションと遷移関数を持つガウス状態空間モデルconvolutional deep markov model (convdmm)を提案する。
この教師なしモデルはブラックボックス変分推論を用いて訓練される。
構造化変動近似の推論ネットワークとして深部畳み込みニューラルネットワークを用いる。
大規模音声データセット(librispeech)でトレーニングすると、convdmmは、wall street journalデータセットでリニア電話の分類と認識に関して、複数の自己教師あり特徴抽出法を大幅に上回る特徴を生成する。
さらに,ConvDMMは,Wav2VecやPASEなどの自己教師型手法を補完し,いずれかの手法単独で得られた結果を改善した。
最後に、ConvDMM機能によって、ラベル付きトレーニング例がほとんどない極低リソースのシステムにおいて、他のどの機能よりも優れた音声認識器を学習できることがわかった。 Probabilistic Latent Variable Models (LVMs) provide an alternative to self-supervised learning approaches for linguistic representation learning from speech. LVMs admit an intuitive probabilistic interpretation where the latent structure shapes the information extracted from the signal. Even though LVMs have recently seen a renewed interest due to the introduction of Variational Autoencoders (VAEs), their use for speech representation learning remains largely unexplored. In this work, we propose Convolutional Deep Markov Model (ConvDMM), a Gaussian state-space model with non-linear emission and transition functions modelled by deep neural networks. This unsupervised model is trained using black box variational inference. A deep convolutional neural network is used as an inference network for structured variational approximation. When trained on a large scale speech dataset (LibriSpeech), ConvDMM produces features that significantly outperform multiple self-supervised feature extracting methods on linear phone classification and recognition on the Wall Street Journal dataset. Furthermore, we found that ConvDMM complements self-supervised methods like Wav2Vec and PASE, improving on the results achieved with any of the methods alone. Lastly, we find that ConvDMM features enable learning better phone recognizers than any other features in an extreme low-resource regime with few labeled training examples. | 翻訳日:2022-11-25 17:36:29 公開日:2020-09-08 |
# 遠方性非局所ニューラルネットワーク Disentangled Non-Local Neural Networks ( http://arxiv.org/abs/2006.06668v2 ) ライセンス: Link先を確認 | Minghao Yin and Zhuliang Yao and Yue Cao and Xiu Li and Zheng Zhang and Stephen Lin and Han Hu | (参考訳) 非局所ブロックは、通常の畳み込みニューラルネットワークのコンテキストモデリング能力を強化するための一般的なモジュールである。
本稿では,まず非局所ブロックを深く研究し,その注意計算を2つの用語,すなわち2つのピクセル間の関係を記述した白対項と,各ピクセルの塩分を表す不定項とに分割できることを示した。
また、訓練された2つの用語単独で異なる視覚手がかりをモデル化する傾向も観察し、例えば、白くペアワイズされた用語は地域内関係を学習し、ユニタリな用語は突出した境界を学習する。
しかし、この2つの用語は非局所ブロックに密結合しており、それぞれの学習を妨げる。
これらの結果に基づき,両用語を分離し,両用語の学習を容易にする不連続非局所ブロックを提案する。
本研究では,都市景観のセマンティックセグメンテーション,ADE20KとPASCALコンテキスト,COCOのオブジェクト検出,キネティクスのアクション認識など,様々なタスクにおける疎結合設計の有効性を示す。 The non-local block is a popular module for strengthening the context modeling ability of a regular convolutional neural network. This paper first studies the non-local block in depth, where we find that its attention computation can be split into two terms, a whitened pairwise term accounting for the relationship between two pixels and a unary term representing the saliency of every pixel. We also observe that the two terms trained alone tend to model different visual clues, e.g. the whitened pairwise term learns within-region relationships while the unary term learns salient boundaries. However, the two terms are tightly coupled in the non-local block, which hinders the learning of each. Based on these findings, we present the disentangled non-local block, where the two terms are decoupled to facilitate learning for both terms. We demonstrate the effectiveness of the decoupled design on various tasks, such as semantic segmentation on Cityscapes, ADE20K and PASCAL Context, object detection on COCO, and action recognition on Kinetics. | 翻訳日:2022-11-22 09:28:55 公開日:2020-09-08 |
# チャネルネットワークセンサデータを用いた予測洪水警報と状況認識のためのハイブリッド深層学習モデル A Hybrid Deep Learning Model for Predictive Flood Warning and Situation Awareness using Channel Network Sensors Data ( http://arxiv.org/abs/2006.09201v2 ) ライセンス: Link先を確認 | Shangjia Dong, Tianbo Yu, Hamed Farahmand, Ali Mostafavi | (参考訳) 本研究の目的は,ネットワークセンサデータを用いた都市洪水予測と状況認識のためのハイブリッドディープラーニングモデルであるFastGRNN-FCN(Fast, Accurate, Stable and Tiny Gated Recurrent Neural Network-Fully Convolutional Network)の作成とテストである。
この研究はテキサス州ハリス郡を試験場として使用し、ハイブリッドディープラーニングモデルの訓練と検証のために3つの歴史的洪水(2016年税日洪水、2016年メモリアルデイ洪水、2017年ハリケーン・ハービー洪水など)からチャネルセンサーデータを得た。
洪水データは多変量時系列に分割され、モデル入力として使用される。
各入力は、チャネルネットワーク内のチャネルセンサとその前者および後継センサの情報を含む9つの変数からなる。
モデルパラメータの最適セットを特定するために,高精度リコール曲線とF測度を用いる。
重量1と臨界閾値0.59の最適モデルは、異なる重みとしきい値を調べることにより100回の反復で得られる。
試験精度とf測定値はそれぞれ97.8%、0.792である。
このモデルは、2019年のヒューストンのイメルダ洪水を予測するためにテストされ、その結果は経験的な洪水とよく一致している。
その結果,このモデルにより空間-時間的洪水の伝播と不況を正確に予測でき,緊急対応担当者に洪水応答と資源配分戦略を優先する予測洪水警報ツールを提供することができた。 The objective of this study is to create and test a hybrid deep learning model, FastGRNN-FCN (Fast, Accurate, Stable and Tiny Gated Recurrent Neural Network-Fully Convolutional Network), for urban flood prediction and situation awareness using channel network sensors data. The study used Harris County, Texas as the testbed, and obtained channel sensor data from three historical flood events (e.g., 2016 Tax Day Flood, 2016 Memorial Day flood, and 2017 Hurricane Harvey Flood) for training and validating the hybrid deep learning model. The flood data are divided into a multivariate time series and used as the model input. Each input comprises nine variables, including information of the studied channel sensor and its predecessor and successor sensors in the channel network. Precision-recall curve and F-measure are used to identify the optimal set of model parameters. The optimal model with a weight of 1 and a critical threshold of 0.59 are obtained through one hundred iterations based on examining different weights and thresholds. The test accuracy and F-measure eventually reach 97.8% and 0.792, respectively. The model is then tested in predicting the 2019 Imelda flood in Houston and the results show an excellent match with the empirical flood. The results show that the model enables accurate prediction of the spatial-temporal flood propagation and recession and provides emergency response officials with a predictive flood warning tool for prioritizing the flood response and resource allocation strategies. | 翻訳日:2022-11-21 03:59:10 公開日:2020-09-08 |
# 多目的進化アルゴリズムによる分割マトロイド制約下でのサブモジュラーまたはモノトン関数の最大化 Maximizing Submodular or Monotone Functions under Partition Matroid Constraints by Multi-objective Evolutionary Algorithms ( http://arxiv.org/abs/2006.12773v2 ) ライセンス: Link先を確認 | Anh Viet Do, Frank Neumann | (参考訳) 多くの重要な問題は、いくつかの制約の下でサブモジュラー関数を最大化することと見なすことができる。
GSEMOと呼ばれる単純な多目的進化アルゴリズムは、部分モジュラ函数の近似を効率的に行うことが示されている。
この問題については多くの研究がなされているが、既存のGSEMOのランタイム分析のほとんどは単一の濃度制約を仮定している。
本研究では,集合的制約を一般化するmatroid制約を分割する理論結果を拡張し,gsemoが一般的に多項式の期待実行時間内での近似性能を保証できることを示す。
さらに,様々な分割マトロイド制約下でランダムグラフ上の無向グラフカットを最大化するために,ベースライングリーディアルゴリズムに対する実験的比較を行った。
GSEMOは2次実行時間でGREEDYを上回る傾向を示した。 Many important problems can be regarded as maximizing submodular functions under some constraints. A simple multi-objective evolutionary algorithm called GSEMO has been shown to achieve good approximation for submodular functions efficiently. While there have been many studies on the subject, most of existing run-time analyses for GSEMO assume a single cardinality constraint. In this work, we extend the theoretical results to partition matroid constraints which generalize cardinality constraints, and show that GSEMO can generally guarantee good approximation performance within polynomial expected run time. Furthermore, we conducted experimental comparison against a baseline GREEDY algorithm in maximizing undirected graph cuts on random graphs, under various partition matroid constraints. The results show GSEMO tends to outperform GREEDY in quadratic run time. | 翻訳日:2022-11-17 21:40:12 公開日:2020-09-08 |
# 教師なし異常検出のためのID記述自動エンコーダ ID-Conditioned Auto-Encoder for Unsupervised Anomaly Detection ( http://arxiv.org/abs/2007.05314v2 ) ライセンス: Link先を確認 | S{\l}awomir Kapka | (参考訳) 本稿では,教師なし異常検出のためのID-Conditioned Auto-Encoderを提案する。
本手法はオープンセット認識用に設計されたクラスコンディショニングオートエンコーダ(c2ae)の適応である。
非異常サンプルが異なるidからなると仮定すると、条件付きオートエンコーダをこれらのidで提供されるラベルで適用する。
C2AEに対して,本手法は分類サブタスクを省略し,学習プロセスを1回に短縮する。
非マッチングラベルのターゲットとして定数ベクトルを固定することで、学習プロセスをさらに単純化する。
機械状態監視のための音の文脈に本手法を適用した。
我々は,DCASE 2020 Challenge Task 2のToyADMOSおよびMIMIIデータセットについて検討した。
方法のどの段階が結果に最も影響を与えるかを示すため,アブレーション研究を行う。 In this paper, we introduce ID-Conditioned Auto-Encoder for unsupervised anomaly detection. Our method is an adaptation of the Class-Conditioned Auto-Encoder (C2AE) designed for the open-set recognition. Assuming that non-anomalous samples constitute of distinct IDs, we apply Conditioned Auto-Encoder with labels provided by these IDs. Opposed to C2AE, our approach omits the classification subtask and reduces the learning process to the single run. We simplify the learning process further by fixing a constant vector as the target for non-matching labels. We apply our method in the context of sounds for machine condition monitoring. We evaluate our method on the ToyADMOS and MIMII datasets from the DCASE 2020 Challenge Task 2. We conduct an ablation study to indicate which steps of our method influences results the most. | 翻訳日:2022-11-11 22:44:43 公開日:2020-09-08 |
# 深部から浅部へ:カーネルクライン空間と不定支持ベクトルマシンの再現における深部ネットワークの等価形 From deep to Shallow: Equivalent Forms of Deep Networks in Reproducing Kernel Krein Space and Indefinite Support Vector Machines ( http://arxiv.org/abs/2007.07459v2 ) ライセンス: Link先を確認 | Alistair Shilton, Sunil Gupta, Santu Rana, Svetha Venkatesh | (参考訳) 本稿では,カーネルクレイン空間を再現する深層ネットワークと学習との関係について検討する。
すなわち、線形射影上で固定された非線形変換を、固定された非線形変換の出力上の線形射影に変換して、重みを非線形性を通して前進させる。
これを入力からディープネットワークの出力に繰り返し適用すると、重みは徐々に出力層に「プッシュ」され、その結果、固定された非線形写像の形をしたフラットネットワーク(これらの形式はディープネットワークの構造によって決定される)と、重み行列によって決定された線形射影(つまり、ディープネットワークを等価な(無限の)カーネルマシンに変換する。
次に、この変換がキャパシティ制御および均一収束に与える影響について検討し、カーネルKrein空間の再生におけるRadecher複雑性の観点から、ディープネットワーク上のRadecher複雑性を提供する。
最後に,平坦表現のスパーシティ特性を解析し,0<p<1 (ブリッジ回帰) で正規化した(効果的に)lp-"ノルム"であることを示した。 In this paper we explore a connection between deep networks and learning in reproducing kernel Krein space. Our approach is based on the concept of push-forward - that is, taking a fixed non-linear transform on a linear projection and converting it to a linear projection on the output of a fixed non-linear transform, pushing the weights forward through the non-linearity. Applying this repeatedly from the input to the output of a deep network, the weights can be progressively "pushed" to the output layer, resulting in a flat network that has the form of a fixed non-linear map (whose form is determined by the structure of the deep network) followed by a linear projection determined by the weight matrices - that is, we take a deep network and convert it to an equivalent (indefinite) kernel machine. We then investigate the implications of this transformation for capacity control and uniform convergence, and provide a Rademacher complexity bound on the deep network in terms of Rademacher complexity in reproducing kernel Krein space. Finally, we analyse the sparsity properties of the flat representation, showing that the flat weights are (effectively) Lp-"norm" regularised with 0<p<1 (bridge regression). | 翻訳日:2022-11-10 04:42:12 公開日:2020-09-08 |
# Smooth-AP:大規模画像検索への道の平滑化 Smooth-AP: Smoothing the Path Towards Large-Scale Image Retrieval ( http://arxiv.org/abs/2007.12163v2 ) ライセンス: Link先を確認 | Andrew Brown, Weidi Xie, Vicky Kalogeiton, Andrew Zisserman | (参考訳) 平均精度(Average Precision, AAP)のようなランクベースの計量を最適化することは、それが微分不可能であるという事実から、非常に難しいことで知られている。
そこで本研究では,Smooth-APと呼ばれるAPのスムーズな近似を最適化する手法を提案する。
Smooth-APは、シンプルでエレガントな実装でディープネットワークのエンドツーエンドのトレーニングを可能にする、プラグアンドプレイの客観的機能である。
また, apのランキング基準を直接最適化することで, 他の深層学習損失よりもメリットが得られる理由について分析する。
我々はsmooth-apを標準検索ベンチマーク(スタンフォードオンライン製品と vehicleid)に適用し、さらに大規模データセット(細粒度カテゴリ検索のinaturalist、顔検索のvggface2とijb-c)を評価した。
いずれの場合も、最先端、特に大規模データセットのパフォーマンスを改善し、実世界のシナリオに対するSmooth-APの有効性とスケーラビリティを実証する。 Optimising a ranking-based metric, such as Average Precision (AP), is notoriously challenging due to the fact that it is non-differentiable, and hence cannot be optimised directly using gradient-descent methods. To this end, we introduce an objective that optimises instead a smoothed approximation of AP, coined Smooth-AP. Smooth-AP is a plug-and-play objective function that allows for end-to-end training of deep networks with a simple and elegant implementation. We also present an analysis for why directly optimising the ranking based metric of AP offers benefits over other deep metric learning losses. We apply Smooth-AP to standard retrieval benchmarks: Stanford Online products and VehicleID, and also evaluate on larger-scale datasets: INaturalist for fine-grained category retrieval, and VGGFace2 and IJB-C for face retrieval. In all cases, we improve the performance over the state-of-the-art, especially for larger-scale datasets, thus demonstrating the effectiveness and scalability of Smooth-AP to real-world scenarios. | 翻訳日:2022-11-07 12:59:19 公開日:2020-09-08 |
# ロバスト微分幾何学最適化によるブラインド視点-n点問題終端問題の解法 Solving the Blind Perspective-n-Point Problem End-To-End With Robust Differentiable Geometric Optimization ( http://arxiv.org/abs/2007.14628v2 ) ライセンス: Link先を確認 | Dylan Campbell, Liu Liu, Stephen Gould | (参考訳) ブラインド・パースペクティブ・オン・ポイント(Blind Perspective-n-Point, PnP)は、2D-3D対応の事前知識なく、2D画像ポイントと3Dシーンポイントを与えられたシーンに対するカメラの位置と向きを推定する問題である。
探索空間が非常に大きいため,ポーズと対応を同時に解くことは極めて困難である。
幸いなことに、これは結合した問題である: ポーズは対応が与えられ、その逆も容易に見つかる。
既存のアプローチでは、騒がしい対応が提供され、適切な姿勢が先行できる、あるいは問題のサイズが小さいと仮定している。
代わりに、視覚障害者のPnP問題を効率的かつグローバルに解決するための、最初の完全なエンドツーエンドのトレーニング可能なネットワークを提案する。
我々は、Sinkhorn、RANSAC、PnPアルゴリズムを含むエンドツーエンドの学習フレームワークに幾何モデルフィッティングを組み込むために最適化問題を微分する最近の結果を利用する。
提案手法は他の合成法や実データ法を大きく上回っている。 Blind Perspective-n-Point (PnP) is the problem of estimating the position and orientation of a camera relative to a scene, given 2D image points and 3D scene points, without prior knowledge of the 2D-3D correspondences. Solving for pose and correspondences simultaneously is extremely challenging since the search space is very large. Fortunately it is a coupled problem: the pose can be found easily given the correspondences and vice versa. Existing approaches assume that noisy correspondences are provided, that a good pose prior is available, or that the problem size is small. We instead propose the first fully end-to-end trainable network for solving the blind PnP problem efficiently and globally, that is, without the need for pose priors. We make use of recent results in differentiating optimization problems to incorporate geometric model fitting into an end-to-end learning framework, including Sinkhorn, RANSAC and PnP algorithms. Our proposed approach significantly outperforms other methods on synthetic and real data. | 翻訳日:2022-11-05 20:29:06 公開日:2020-09-08 |
# 有限対無限ニューラルネットワーク:実証的研究 Finite Versus Infinite Neural Networks: an Empirical Study ( http://arxiv.org/abs/2007.15801v2 ) ライセンス: Link先を確認 | Jaehoon Lee, Samuel S. Schoenholz, Jeffrey Pennington, Ben Adlam, Lechao Xiao, Roman Novak, Jascha Sohl-Dickstein | (参考訳) 我々は,広域ニューラルネットワークとカーネル手法の対応について,注意深く,徹底的に,大規模に実証研究を行う。
これにより、無限大のニューラルネットワークの研究に関連する様々なオープンな疑問を解決できる。
Our experimental results include: kernel methods outperform fully-connected finite-width networks, but underperform convolutional finite width networks; neural network Gaussian process (NNGP) kernels frequently outperform neural tangent (NT) kernels; centered and ensembled finite networks have reduced posterior variance and behave more similarly to infinite networks; weight decay and the use of a large learning rate break the correspondence between finite and infinite networks; the NTK parameterization outperforms the standard parameterization for finite width networks; diagonal regularization of kernels acts similarly to early stopping; floating point precision limits kernel performance beyond a critical dataset size; regularized ZCA whitening improves accuracy; finite network performance depends non-monotonically on width in ways not captured by double descent phenomena; equivariance of CNNs is only beneficial for narrow networks far from the kernel regime.
また, 有限幅ネットワークの一般化を改善するため, 重み減衰の層間スケーリングも改善した。
最後に, nngp および nt カーネルを用いた予測手法を改良し, 新たな ensembling 手法を考案した。
これらのベストプラクティスを用いて、検討したアーキテクチャクラスに対応するカーネルの CIFAR-10 分類における最先端の結果を得る。 We perform a careful, thorough, and large scale empirical study of the correspondence between wide neural networks and kernel methods. By doing so, we resolve a variety of open questions related to the study of infinitely wide neural networks. Our experimental results include: kernel methods outperform fully-connected finite-width networks, but underperform convolutional finite width networks; neural network Gaussian process (NNGP) kernels frequently outperform neural tangent (NT) kernels; centered and ensembled finite networks have reduced posterior variance and behave more similarly to infinite networks; weight decay and the use of a large learning rate break the correspondence between finite and infinite networks; the NTK parameterization outperforms the standard parameterization for finite width networks; diagonal regularization of kernels acts similarly to early stopping; floating point precision limits kernel performance beyond a critical dataset size; regularized ZCA whitening improves accuracy; finite network performance depends non-monotonically on width in ways not captured by double descent phenomena; equivariance of CNNs is only beneficial for narrow networks far from the kernel regime. Our experiments additionally motivate an improved layer-wise scaling for weight decay which improves generalization in finite-width networks. Finally, we develop improved best practices for using NNGP and NT kernels for prediction, including a novel ensembling technique. Using these best practices we achieve state-of-the-art results on CIFAR-10 classification for kernels corresponding to each architecture class we consider. | 翻訳日:2022-11-04 05:53:53 公開日:2020-09-08 |
# タンパク質コンフォメーション状態:第一原理ベイズ法 Protein Conformational States: A First Principles Bayesian Method ( http://arxiv.org/abs/2008.02353v2 ) ライセンス: Link先を確認 | David M. Rogers | (参考訳) 構造のシミュレーションからタンパク質のコンフォメーション状態の自動同定は、コンピュータに形状の認識を教える必要があるため、難しい問題である。
我々は,原子対原子対接触を利用するために,機械学習コミュニティのベイズ分類器を適用した。
その結果、教師なし学習アルゴリズムは、潜在的な分類スキームに対する'分布'をサンプリングする。
この分類器を一連のテスト構造と1つの実タンパク質に適用し、ほとんどの場合、95%の精度でコンフォメーション転移を同定することを示した。
我々の適応の非自明な特徴は情報エントロピーへの新たな接続であり、分類を損なうことなく構造的詳細のレベルを変更できる。
これは原子数と時間サンプル数を1.5桁以上変化させることで確認される。
さらに、この方法のベイズ解析による原子間接触の集合の導出により、より複雑な場合への理解や拡張が容易になる。 Automated identification of protein conformational states from simulation of an ensemble of structures is a hard problem because it requires teaching a computer to recognize shapes. We adapt the naive Bayes classifier from the machine learning community for use on atom-to-atom pairwise contacts. The result is an unsupervised learning algorithm that samples a `distribution' over potential classification schemes. We apply the classifier to a series of test structures and one real protein, showing that it identifies the conformational transition with > 95% accuracy in most cases. A nontrivial feature of our adaptation is a new connection to information entropy that allows us to vary the level of structural detail without spoiling the categorization. This is confirmed by comparing results as the number of atoms and time-samples are varied over 1.5 orders of magnitude. Further, the method's derivation from Bayesian analysis on the set of inter-atomic contacts makes it easy to understand and extend to more complex cases. | 翻訳日:2022-11-02 19:05:01 公開日:2020-09-08 |
# MIMOをベースとしたグラントフリーランダムアクセスを用いた深層学習による信号の分離と支援 Jointly Sparse Signal Recovery and Support Recovery via Deep Learning with Applications in MIMO-based Grant-Free Random Access ( http://arxiv.org/abs/2008.01992v3 ) ライセンス: Link先を確認 | Ying Cui, Shuaichao Li, Wanqing Zhang | (参考訳) 本稿では,通信や信号処理の多くの応用において,複合信号の多重計測ベクトル(mmv)モデルにおいて,協調的にスパース信号の回復とスパース支持の回復について検討する。
最近の主要な応用としては、IoT(Internet of Things)のための大規模な機械型通信(mMTC)をサポートするために提案されているMIMOベースの無許可ランダムアクセスにおけるチャネル推定とデバイスアクティビティ検出がある。
圧縮センシング,最適化,深層学習の手法を用いて,実数に対する標準オートエンコーダ構造に基づく2つのモデル駆動手法を提案する。
1つは共用測定行列と共用分離信号回収法を共同設計し、もう1つは共用測定行列と共用分離支持回収法を共同設計することを目的とする。
提案するモデル駆動アプローチは,共通の計測行列の設計やモデル駆動デコーダの調整において,スパーシティパターンの特徴を効果的に活用することができる。
これにより、得られた共通測定行列および回収方法が、基礎となる高度な回収方法を大幅に上回ることができる。
提案手法は,MIMOに基づく無許可ランダムアクセスにおけるチャネル推定とデバイスアクティビティ検出に関する広範な数値計算を行う。
シミュレーションの結果,提案手法は,既存の手法よりも短い計算時間で高い推定精度や検出精度を達成できるパイロットシーケンスやチャネル推定,デバイスアクティビティ検出手法を提供することが示された。
さらに,提案手法により得られた成果を数値的に示す。 In this paper, we investigate jointly sparse signal recovery and jointly sparse support recovery in Multiple Measurement Vector (MMV) models for complex signals, which arise in many applications in communications and signal processing. Recent key applications include channel estimation and device activity detection in MIMO-based grant-free random access which is proposed to support massive machine-type communications (mMTC) for Internet of Things (IoT). Utilizing techniques in compressive sensing, optimization and deep learning, we propose two model-driven approaches, based on the standard auto-encoder structure for real numbers. One is to jointly design the common measurement matrix and jointly sparse signal recovery method, and the other aims to jointly design the common measurement matrix and jointly sparse support recovery method. The proposed model-driven approaches can effectively utilize features of sparsity patterns in designing common measurement matrices and adjusting model-driven decoders, and can greatly benefit from the underlying state-of-the-art recovery methods with theoretical guarantee. Hence, the obtained common measurement matrices and recovery methods can significantly outperform the underlying advanced recovery methods. We conduct extensive numerical results on channel estimation and device activity detection in MIMO-based grant-free random access. The numerical results show that the proposed approaches provide pilot sequences and channel estimation or device activity detection methods which can achieve higher estimation or detection accuracy with shorter computation time than existing ones. Furthermore, the numerical results explain how such gains are achieved via the proposed approaches. | 翻訳日:2022-11-02 18:59:14 公開日:2020-09-08 |
# 注意検索による精度の高い画素対象追跡に向けて Towards Accurate Pixel-wise Object Tracking by Attention Retrieval ( http://arxiv.org/abs/2008.02745v3 ) ライセンス: Link先を確認 | Zhipeng Zhang, Bing Li, Weiming Hu, Houwen Peng | (参考訳) オブジェクト追跡におけるターゲットのエンコーディングは、最近、粗い境界ボックスから細粒度のセグメンテーションマップに移行した。
追跡中にマスクを予測できるデファクトリアルタイムアプローチを再検討した結果,彼らは通常,バックボーンネットワークから光分枝を分岐してセグメンテーションを行った。
背景クラッタの負の影響を考慮せずにバックボーンの機能を効率よく融合するが、偽陰性予測を導入し、セグメンテーション精度を低下させる傾向にある。
この問題を軽減するために,バックボーンの特徴にソフトな空間制約を課すアテンション検索ネットワーク(ARN)を提案する。
まず,初期フレームに接地トラスマスクを備えたルックアップテーブル(LUT)を構築し,LUTを検索して空間制約に対するアテンションマップを得る。
さらに,マルチレゾリューションマルチステージセグメンテーションネットワーク(mms)を導入し,予測されたマスクを用いてバックボーン特徴をフィルタすることで背景クラッタの影響をさらに弱める。
私たちのアプローチは、40fpsで動作しながら、最近のpixel-wise object tracking benchmark vot2020に最新技術を設定した。
特に、提案されたモデルは、それぞれVOT2020、DAVIS2016、DAVIS2017で、SiamMaskを11.7/4.2/5.5ポイント上回る。
コードをhttps://github.com/researchmm/TracKit.comでリリースします。 The encoding of the target in object tracking moves from the coarse bounding-box to fine-grained segmentation map recently. Revisiting de facto real-time approaches that are capable of predicting mask during tracking, we observed that they usually fork a light branch from the backbone network for segmentation. Although efficient, directly fusing backbone features without considering the negative influence of background clutter tends to introduce false-negative predictions, lagging the segmentation accuracy. To mitigate this problem, we propose an attention retrieval network (ARN) to perform soft spatial constraints on backbone features. We first build a look-up-table (LUT) with the ground-truth mask in the starting frame, and then retrieves the LUT to obtain an attention map for spatial constraints. Moreover, we introduce a multi-resolution multi-stage segmentation network (MMS) to further weaken the influence of background clutter by reusing the predicted mask to filter backbone features. Our approach set a new state-of-the-art on recent pixel-wise object tracking benchmark VOT2020 while running at 40 fps. Notably, the proposed model surpasses SiamMask by 11.7/4.2/5.5 points on VOT2020, DAVIS2016, and DAVIS2017, respectively. We will release our code at https://github.com/researchmm/TracKit. | 翻訳日:2022-11-02 07:30:31 公開日:2020-09-08 |
# コンピュータビジョンを用いたハリケーンシーズンの緊急対応改善 Improving Emergency Response during Hurricane Season using Computer Vision ( http://arxiv.org/abs/2008.07418v2 ) ライセンス: Link先を確認 | Marc Bosch and Christian Conroy and Benjamin Ortiz and Philip Bogden | (参考訳) 我々は,コンピュータビジョン(cv),内陸洪水予測,被害評価,データ可視化における最新の技術を取り入れた危機対応と管理のためのフレームワークを開発した。
このフレームワークは、危機前後に収集されたデータを使用して、災害対応の全段階において、迅速かつインフォームドな意思決定を可能にする。
コンピュータビジョンモデルでは,宇宙画像や空中画像を分析し,災害時および災害後の関連特徴を検知し,webアクセス可能なマッピングツールによって動作可能な情報に変換されるメタデータを作成する。
特に,水,道路,建物,植生などの特徴を画像から識別するモデル群を設計した。
我々は,OpenStreetMapsなどのオープンソースラベルの追加や,HAND(Height Above Nearest Drainage)などの補完データソースをネットワークの入力のサイドチャネルとして追加することにより,大規模データアノテーションの取り組みへの依存を解消し,視覚的特徴に直交する他の特徴の学習を促す手法を検討した。
モデリングには,(1)セマンティックセグメンテーション,(2)フラッドライン検出,(3)損傷評価のための接続されたU-Netの修正が含まれる。
特に損傷評価の場合には,U-Netに第2エンコーダを追加して,先行画像と後画像の特徴を同時に学習できるようにした。
この手法により,ネットワークは事前画像と事後画像の違いを学習し,より効果的に損傷レベルを分類することができる。
我々は,noaa(national oceanic and atmospheric administration)のリモートセンシング部門(remote sensing division)の公開データを用いて,モザイクタイル画像として都市と街並みの詳細を表示する手法と,xview2チャレンジの一環としてリリースされたデータを用いて検証を行った。 We have developed a framework for crisis response and management that incorporates the latest technologies in computer vision (CV), inland flood prediction, damage assessment and data visualization. The framework uses data collected before, during, and after the crisis to enable rapid and informed decision making during all phases of disaster response. Our computer-vision model analyzes spaceborne and airborne imagery to detect relevant features during and after a natural disaster and creates metadata that is transformed into actionable information through web-accessible mapping tools. In particular, we have designed an ensemble of models to identify features including water, roads, buildings, and vegetation from the imagery. We have investigated techniques to bootstrap and reduce dependency on large data annotation efforts by adding use of open source labels including OpenStreetMaps and adding complementary data sources including Height Above Nearest Drainage (HAND) as a side channel to the network's input to encourage it to learn other features orthogonal to visual characteristics. Modeling efforts include modification of connected U-Nets for (1) semantic segmentation, (2) flood line detection, and (3) for damage assessment. In particular for the case of damage assessment, we added a second encoder to U-Net so that it could learn pre-event and post-event image features simultaneously. Through this method, the network is able to learn the difference between the pre- and post-disaster images, and therefore more effectively classify the level of damage. We have validated our approaches using publicly available data from the National Oceanic and Atmospheric Administration (NOAA)'s Remote Sensing Division, which displays the city and street-level details as mosaic tile images as well as data released as part of the Xview2 challenge. | 翻訳日:2022-10-28 04:19:52 公開日:2020-09-08 |
# 補助情報によるマッピングのためのベイズ深層学習:地球統計学の新しい時代? Bayesian deep learning for mapping via auxiliary information: a new era for geostatistics? ( http://arxiv.org/abs/2008.07320v3 ) ライセンス: Link先を確認 | Charlie Kirkwood, Theo Economou, Nicolas Pugeault | (参考訳) 地理空間モデリングとマッピングのタスクでは、南アフリカの鉱山技術者Danie Krigeによって開発された空間補間技術であるクリグの変種が、確立された統計学的手法とみなされてきた。
しかし、リグレッション・クリッギングとその変種(回帰クリッギングなど、補助変数やそれらの誘導体が共変体として含まれる)は比較的限定的なモデルであり、深層ニューラルネットワークによって過去10年間に我々に与えられた能力の欠如である。
機能学習 - イメージなどのグリッド化されたデータの中で、タスク固有のパターンを認識するフィルタを学習する機能。
ここでは、深層ニューラルネットワークが、ポイントサンプリングされたターゲット変数とグリッド化された補助変数(リモートセンシングによって提供されるものなど)の間の複雑な関係を自動的に学習し、選択されたターゲット変数の詳細なマップを生成する方法を示す。
同時に、適切に調整された確率を必要とする意思決定者のニーズを満たすために、モンテカルロ・ドロップアウトとして知られるベイズ近似による不確実性推定を求める。
この例では,測点データから全国規模の確率的地球化学マップを作成し,地形高度グリッドによる補助情報を得た。
従来の統計手法とは異なり、補助的な可変格子はニューラルネットワークの生に供給される。
深層ニューラルネットワークはこれらを学習でき、予測性能を最大化するために必要に応じて任意に複雑な微分を提供することができるため、地形微分(例えば傾斜角、粗さなど)を提供する必要はない。
我々は,この結果がベイズ深層学習の適合性や,不確実性が問題となる大規模地球統計学応用のための機能学習能力の認知度を高めることを期待している。 For geospatial modelling and mapping tasks, variants of kriging - the spatial interpolation technique developed by South African mining engineer Danie Krige - have long been regarded as the established geostatistical methods. However, kriging and its variants (such as regression kriging, in which auxiliary variables or derivatives of these are included as covariates) are relatively restrictive models and lack capabilities that have been afforded to us in the last decade by deep neural networks. Principal among these is feature learning - the ability to learn filters to recognise task-specific patterns in gridded data such as images. Here we demonstrate the power of feature learning in a geostatistical context, by showing how deep neural networks can automatically learn the complex relationships between point-sampled target variables and gridded auxiliary variables (such as those provided by remote sensing), and in doing so produce detailed maps of chosen target variables. At the same time, in order to cater for the needs of decision makers who require well-calibrated probabilities, we obtain uncertainty estimates via a Bayesian approximation known as Monte Carlo dropout. In our example, we produce a national-scale probabilistic geochemical map from point-sampled assay data, with auxiliary information provided by a terrain elevation grid. Unlike traditional geostatistical approaches, auxiliary variable grids are fed into our deep neural network raw. There is no need to provide terrain derivatives (e.g. slope angles, roughness, etc) because the deep neural network is capable of learning these and arbitrarily more complex derivatives as necessary to maximise predictive performance. We hope our results will raise awareness of the suitability of Bayesian deep learning - and its feature learning capabilities - for large-scale geostatistical applications where uncertainty matters. | 翻訳日:2022-10-28 03:24:58 公開日:2020-09-08 |
# バイオメディカルバイナリ分類のための厳密な機械学習分析パイプライン:膵癌ネストケースコントロール研究への応用とバイアス評価への応用 A Rigorous Machine Learning Analysis Pipeline for Biomedical Binary Classification: Application in Pancreatic Cancer Nested Case-control Studies with Implications for Bias Assessments ( http://arxiv.org/abs/2008.12829v2 ) ライセンス: Link先を確認 | Ryan J. Urbanowicz and Pranshu Suri and Yuhan Cui and Jason H. Moore and Karen Ruth and Rachael Stolzenberg-Solomon and Shannon M. Lynch | (参考訳) 機械学習(ml)は、多くの機能や複雑な関連を持つデータにしばしば適用される、関連の検出とモデリングのための強力なアプローチのコレクションを提供する。
現在、カスタムML分析の実装を容易にするツールが多数存在する(Scikit-learnなど)。
mlパッケージの自動化への関心も高まり、非専門家がmlを適用するのが容易になり、モデルパフォーマンスが向上する可能性がある。
mlは多くの生物医学研究のサブフィールドに浸透し、様々なレベルの厳密さと正しい使用法がある。
MLが提供する膨大な機会は、包括的な分析パイプラインを組み立てることの難しさと、ML誤用の容易さによって、しばしば相殺される。
この作業では、バイナリ分類(ケース/コントロール予測)に焦点を当てた、厳密な厳密なML分析パイプラインのレイアウトと組み立てを行い、シミュレーションと実世界のデータの両方にこのパイプラインを適用しました。
高いレベルでは、この'自動化'だがカスタマイズ可能なパイプラインには、
a) 探索分析,
b) データクリーニング及び変換
c) 特徴の選択
d)9つの確立したmlアルゴリズムによるモデルトレーニング、それぞれのハイパーパラメータ最適化
e) 適切な指標、統計分析及び新規な可視化を含む徹底的な評価
このパイプラインはMLパイプラインアセンブリの多くの微妙な複雑さを整理し、バイアスを避け再現性を確保するためのベストプラクティスを説明する。
さらに、このパイプラインは、確立されたMLアルゴリズムをルールベースのMLアルゴリズムである「ExSTraCS」と比較した最初のものである。
広く応用できるように設計されているが,本パイプラインを膵癌に対する確立された,新たに同定された危険因子の疫学的調査に適用し,MLアルゴリズムによって異なるバイアス源がどのように扱われるかを評価する。 Machine learning (ML) offers a collection of powerful approaches for detecting and modeling associations, often applied to data having a large number of features and/or complex associations. Currently, there are many tools to facilitate implementing custom ML analyses (e.g. scikit-learn). Interest is also increasing in automated ML packages, which can make it easier for non-experts to apply ML and have the potential to improve model performance. ML permeates most subfields of biomedical research with varying levels of rigor and correct usage. Tremendous opportunities offered by ML are frequently offset by the challenge of assembling comprehensive analysis pipelines, and the ease of ML misuse. In this work we have laid out and assembled a complete, rigorous ML analysis pipeline focused on binary classification (i.e. case/control prediction), and applied this pipeline to both simulated and real world data. At a high level, this 'automated' but customizable pipeline includes a) exploratory analysis, b) data cleaning and transformation, c) feature selection, d) model training with 9 established ML algorithms, each with hyperparameter optimization, and e) thorough evaluation, including appropriate metrics, statistical analyses, and novel visualizations. This pipeline organizes the many subtle complexities of ML pipeline assembly to illustrate best practices to avoid bias and ensure reproducibility. Additionally, this pipeline is the first to compare established ML algorithms to 'ExSTraCS', a rule-based ML algorithm with the unique capability of interpretably modeling heterogeneous patterns of association. While designed to be widely applicable we apply this pipeline to an epidemiological investigation of established and newly identified risk factors for pancreatic cancer to evaluate how different sources of bias might be handled by ML algorithms. | 翻訳日:2022-10-24 01:40:07 公開日:2020-09-08 |
# 深層学習と量子回帰を用いた時系列データを用いた計算機モデル校正 Computer Model Calibration with Time Series Data using Deep Learning and Quantile Regression ( http://arxiv.org/abs/2008.13066v2 ) ライセンス: Link先を確認 | Saumya Bhatnagar, Won Chang, Seonjin Kim Jiali Wang | (参考訳) コンピュータモデルは、多くの科学的、工学的問題において重要な役割を担っている。
コンピュータモデル実験における不確実性の主な源は入力パラメータの不確実性である。
コンピュータモデルキャリブレーション(computer model calibration)は、モデル実行と観測データからの情報を組み合わせて入力パラメータを推測する形式的な統計手順である。
既存の標準校正フレームワークは、エミュレータ構築の困難さや、入力パラメータとデータモデル差分の影響の非識別性により、モデル出力と観測データが大時系列などの高次元依存データである場合、推論問題に悩まされる。
これらの課題を克服するために、モデル出力と入力パラメータ間の逆関係を直接エミュレートする長期記憶層を持つディープニューラルネットワーク(DNN)に基づく新しいキャリブレーションフレームワークを提案する。
ノイズによる学習”の概念を採用して、DNNモデルをトレーニングし、入力パラメータの推論に対するデータモデルの不一致からの影響を除去します。
また,入力パラメータ推定の不確かさを定量化するために,量子化回帰を用いたdnnの区間予測手法を提案する。
wrf-hydroモデルを用いたシミュレーション研究と実データ応用により,入力パラメータの正確な点推定と高精度区間推定が得られることを示す。 Computer models play a key role in many scientific and engineering problems. One major source of uncertainty in computer model experiment is input parameter uncertainty. Computer model calibration is a formal statistical procedure to infer input parameters by combining information from model runs and observational data. The existing standard calibration framework suffers from inferential issues when the model output and observational data are high-dimensional dependent data such as large time series due to the difficulty in building an emulator and the non-identifiability between effects from input parameters and data-model discrepancy. To overcome these challenges we propose a new calibration framework based on a deep neural network (DNN) with long-short term memory layers that directly emulates the inverse relationship between the model output and input parameters. Adopting the 'learning with noise' idea we train our DNN model to filter out the effects from data model discrepancy on input parameter inference. We also formulate a new way to construct interval predictions for DNN using quantile regression to quantify the uncertainty in input parameter estimates. Through a simulation study and real data application with WRF-hydro model we show that our approach can yield accurate point estimates and well calibrated interval estimates for input parameters. | 翻訳日:2022-10-23 17:01:51 公開日:2020-09-08 |
# 単純大域的神経談話解析器 A Simple Global Neural Discourse Parser ( http://arxiv.org/abs/2009.01312v2 ) ライセンス: Link先を確認 | Yichu Zhou, Omri Koshorek, Vivek Srikumar and Jonathan Berant | (参考訳) 談話構文解析は、主に手作業で設計した欲望のあるパーサーが中心であるが、グローバルパースはその計算コストのために稀である。
本稿では,手作業による特徴を一切必要とせず,学習したスパン表現のみに基づく簡易なチャートベースのニューラル・ディスコース・パーサを提案する。
計算課題を克服するために,木内のノードに割り当てられたラベルと,その子を分離する分割点との間に独立性の仮定を提案する。
我々は,学習したスパン表現のみを使用して,グローバルパーサの最高の性能と最先端の欲望パーサに匹敵するパフォーマンスを達成できることを実証的に証明した。 Discourse parsing is largely dominated by greedy parsers with manually-designed features, while global parsing is rare due to its computational expense. In this paper, we propose a simple chart-based neural discourse parser that does not require any manually-crafted features and is based on learned span representations only. To overcome the computational challenge, we propose an independence assumption between the label assigned to a node in the tree and the splitting point that separates its children, which results in tractable decoding. We empirically demonstrate that our model achieves the best performance among global parsers, and comparable performance to state-of-art greedy parsers, using only learned span representations. | 翻訳日:2022-10-22 19:11:52 公開日:2020-09-08 |
# なぜ君に従わないのですか。
責任ある推薦システムにおける理由と理由 Why should I not follow you? Reasons For and Reasons Against in Responsible Recommender Systems ( http://arxiv.org/abs/2009.01953v2 ) ライセンス: Link先を確認 | Gustavo Padilha Polleti, Douglas Luan de Souza, Fabio Cozman | (参考訳) いくつかのレコメンダシステム(rs)は、レコメンデーションに対する信頼を高めるために説明に頼っている。
しかし、現在の説明生成技術は、理由と理由の両方を提示するのではなく、推奨製品を強く支持する傾向がある。
我々は,知識グラフを利用したり,スネーデガーの実践的推論理論を適用して,この2つの理由をユーザーに率直に提示することで,RSが全体的な信頼と透明性を高めることができると論じる。
我々は、実装したrsは優れた性能を示し、信頼、関与、説得性が大幅に向上した理由と反対理由を提示する価値を示す人間の被験者による実験を報告した。 A few Recommender Systems (RS) resort to explanations so as to enhance trust in recommendations. However, current techniques for explanation generation tend to strongly uphold the recommended products instead of presenting both reasons for and reasons against them. We argue that an RS can better enhance overall trust and transparency by frankly displaying both kinds of reasons to users.We have developed such an RS by exploiting knowledge graphs and by applying Snedegar's theory of practical reasoning. We show that our implemented RS has excellent performance and we report on an experiment with human subjects that shows the value of presenting both reasons for and against, with significant improvements in trust, engagement, and persuasion. | 翻訳日:2022-10-22 08:00:31 公開日:2020-09-08 |
# LIMEによる意図しない放射能分類の解説 Explanation of Unintended Radiated Emission Classification via LIME ( http://arxiv.org/abs/2009.02418v2 ) ライセンス: Link先を確認 | Tom Grimes, Eric Church, William Pitts, Lynn Wood | (参考訳) 意図しない放射放出は電子機器の使用中に発生する。
これらの排出の影響を識別し緩和することは、現代の電力工学と関連する制御システムの重要な要素である。
電気システムの信号処理は、これらの排出源を識別することができる。
Flaming Moesと呼ばれるデータセットには、消費者電子からの意図しない放射放出が含まれている。
このデータセットは、デバイス識別のための次世代メソッドを構築するために分析された。
この目的のために、ResNet-18画像分類アーキテクチャを短時間で電圧シグネチャの短いセグメントのフーリエ変換に適用したニューラルネットワークを構築した。
この分類器を用いて、18のデバイスクラスとバックグラウンドクラスを100%近い精度で同定した。
この分類器にLIMEを適用し、同じ装置の多くの分類に対して結果を集約することにより、分類器が決定するために使用する周波数帯域を決定できる。
同じ親データ分布から、非常に類似したデータセットでトレーニングされた分類器のアンサンブルを使用して、デバイス出力のロバストな機能セットを識別に役立てることができる。
LIMEの適用によるさらなる理解は、URE分析ネットワークのトレーニング可能性、信頼性、転送可能性を高める。 Unintended radiated emissions arise during the use of electronic devices. Identifying and mitigating the effects of these emissions is a key element of modern power engineering and associated control systems. Signal processing of the electrical system can identify the sources of these emissions. A dataset known as Flaming Moes includes captured unintended radiated emissions from consumer electronics. This dataset was analyzed to construct next-generation methods for device identification. To this end, a neural network based on applying the ResNet-18 image classification architecture to the short time Fourier transforms of short segments of voltage signatures was constructed. Using this classifier, the 18 device classes and background class were identified with close to 100 percent accuracy. By applying LIME to this classifier and aggregating the results over many classifications for the same device, it was possible to determine the frequency bands used by the classifier to make decisions. Using ensembles of classifiers trained on very similar datasets from the same parent data distribution, it was possible to recover robust sets of features of device output useful for identification. The additional understanding provided by the application of LIME enhances the trainability, trustability, and transferability of URE analysis networks. | 翻訳日:2022-10-22 02:00:44 公開日:2020-09-08 |
# bluff: ディープニューラルネットワークの敵攻撃をインタラクティブに解読する Bluff: Interactively Deciphering Adversarial Attacks on Deep Neural Networks ( http://arxiv.org/abs/2009.02608v2 ) ライセンス: Link先を確認 | Nilaksh Das, Haekyu Park, Zijie J. Wang, Fred Hohman, Robert Firstman, Emily Rogers, Duen Horng Chau | (参考訳) ディープニューラルネットワーク(DNN)は現在、多くのドメインで一般的に使用されている。
しかし、それらは敵対的な攻撃に弱い: モデルを騙して誤った予測をする可能性のあるデータ入力の摂動を慎重に構築する。
DNN攻撃と防衛技術の開発に関する重大な研究にもかかわらず、そのような攻撃がモデルの内部をいかに浸透させるかは理解されていない。
視覚に基づくニューラルネットワークに対する敵攻撃を可視化し、特徴付け、解読するインタラクティブシステムであるBluffを提案する。
Bluffは、良心と攻撃された画像の活性化経路を柔軟に視覚化し、比較し、敵の攻撃がモデルに害を与えるメカニズムを明らかにする。
Bluffはオープンソースで、モダンなWebブラウザで動作する。 Deep neural networks (DNNs) are now commonly used in many domains. However, they are vulnerable to adversarial attacks: carefully crafted perturbations on data inputs that can fool a model into making incorrect predictions. Despite significant research on developing DNN attack and defense techniques, people still lack an understanding of how such attacks penetrate a model's internals. We present Bluff, an interactive system for visualizing, characterizing, and deciphering adversarial attacks on vision-based neural networks. Bluff allows people to flexibly visualize and compare the activation pathways for benign and attacked images, revealing mechanisms that adversarial attacks employ to inflict harm on a model. Bluff is open-sourced and runs in modern web browsers. | 翻訳日:2022-10-21 21:09:19 公開日:2020-09-08 |
# グラフ畳み込みネットワークを用いたセグメンテーションによる視覚物体追跡 Visual Object Tracking by Segmentation with Graph Convolutional Network ( http://arxiv.org/abs/2009.02523v2 ) ライセンス: Link先を確認 | Bo Jiang, Panpan Zhang, Lili Huang | (参考訳) セグメンテーションに基づくトラッキングはコンピュータビジョンとマルチメディアで積極的に研究されている。
スーパーピクセルベースのオブジェクトセグメンテーションとトラッキング手法は通常、このタスクのために開発される。
しかし、それらが独立にスーパーピクセルの特徴表現と学習を行い、それが準最適結果につながる可能性がある。
本稿では,スーパーピクセルに基づく物体追跡のためのグラフ畳み込みネットワーク(gcn)モデルを提案する。
提案モデルは、統合する汎用的なエンドツーエンドフレームワークを提供する
一 線形予測のラベル及び
二 各スーパーピクセルの構造認識特徴情報を組み合わせてオブジェクトセグメンテーションを取得し、さらに追跡性能を向上させること。
提案したGCN法の主な利点は2つある。
まず、ターゲットオブジェクトセグメンテーションのための空間的および時間的一貫性の制約を効果的に活用する方法を提供する。
第2に、混合グラフ畳み込みモジュールを使用して、スーパーピクセル表現とラベリングのためのコンテキスト認識および識別機能を学ぶ。
提案モデルの最適化に有効なアルゴリズムが開発された。
5つのデータセットに関する広範囲な実験により、既存の代替手法よりも優れた性能が得られることを示した。 Segmentation-based tracking has been actively studied in computer vision and multimedia. Superpixel based object segmentation and tracking methods are usually developed for this task. However, they independently perform feature representation and learning of superpixels which may lead to sub-optimal results. In this paper, we propose to utilize graph convolutional network (GCN) model for superpixel based object tracking. The proposed model provides a general end-to-end framework which integrates i) label linear prediction, and ii) structure-aware feature information of each superpixel together to obtain object segmentation and further improves the performance of tracking. The main benefits of the proposed GCN method have two main aspects. First, it provides an effective end-to-end way to exploit both spatial and temporal consistency constraint for target object segmentation. Second, it utilizes a mixed graph convolution module to learn a context-aware and discriminative feature for superpixel representation and labeling. An effective algorithm has been developed to optimize the proposed model. Extensive experiments on five datasets demonstrate that our method obtains better performance against existing alternative methods. | 翻訳日:2022-10-21 21:01:12 公開日:2020-09-08 |
# プラズマトモグラフィによる破壊前駆体解析のための深層学習 Deep Learning for the Analysis of Disruption Precursors based on Plasma Tomography ( http://arxiv.org/abs/2009.02708v2 ) ライセンス: Link先を確認 | Diogo R. Ferreira, Pedro J. Carvalho, Carlo Sozzi, Peter J. Lomas, JET Contributors | (参考訳) JETのベースラインシナリオは、高い核融合性能と持続的な核融合力を達成するために開発されている。
しかし、プラズマ電流が高く、入力電力が高くなると、パルス破壊性の増加が観測されている。
破壊の原因は広い範囲にあるが、現在の破壊は不純物蓄積、核放射、放射崩壊などの放射現象と密接に関連しているようである。
本研究では,プラズマ放射プロファイルの再構成を目的としたボロメータトモグラフィーに着目し,その上に異常検出を適用し,破壊に先行する放射線パターンを同定する。
このアプローチは機械学習を広範囲に活用する。
まず,マトリクス乗算に基づくプラズマトモグラフィのサロゲートモデルを訓練し,任意のパルスの全範囲にわたってプラズマ放射プロファイルを高速に計算する手法を提案する。
次に,可変オートエンコーダを訓練し,その放射線プロファイルを潜在分布に符号化し,その後に復号する。
異常検出装置として、変分オートエンコーダは、実際の破壊だけでなく前駆体も含む異常な振る舞いを再現するのに苦労する。
これらの前駆体は、jetにおける最近の2つのキャンペーンにおける全てのベースラインパルスの異常スコアの分析に基づいて同定される。 The JET baseline scenario is being developed to achieve high fusion performance and sustained fusion power. However, with higher plasma current and higher input power, an increase in pulse disruptivity is being observed. Although there is a wide range of possible disruption causes, the present disruptions seem to be closely related to radiative phenomena such as impurity accumulation, core radiation, and radiative collapse. In this work, we focus on bolometer tomography to reconstruct the plasma radiation profile and, on top of it, we apply anomaly detection to identify the radiation patterns that precede major disruptions. The approach makes extensive use of machine learning. First, we train a surrogate model for plasma tomography based on matrix multiplication, which provides a fast method to compute the plasma radiation profiles across the full extent of any given pulse. Then, we train a variational autoencoder to reproduce the radiation profiles by encoding them into a latent distribution and subsequently decoding them. As an anomaly detector, the variational autoencoder struggles to reproduce unusual behaviors, which includes not only the actual disruptions but their precursors as well. These precursors are identified based on an analysis of the anomaly score across all baseline pulses in two recent campaigns at JET. | 翻訳日:2022-10-21 08:39:09 公開日:2020-09-08 |
# CalciumGAN : 神経集団のリアルカルシウムイメージングデータ合成のための生成逆ネットワークモデル CalciumGAN: A Generative Adversarial Network Model for Synthesising Realistic Calcium Imaging Data of Neuronal Populations ( http://arxiv.org/abs/2009.02707v2 ) ライセンス: Link先を確認 | Bryan M. Li, Theoklitos Amvrosiadis, Nathalie Rochefort, Arno Onken | (参考訳) カルシウムイメージングは、生体内で多くのニューロンの活動を監視するために強力で一般的な技術となっている。
しかし、倫理的考察や近年の技術開発にもかかわらず、録音は限られた数の試験と動物に制限されている。
これにより、個々の実験から得られるデータ量が制限され、より現実的なニューロン集団の大きさのための分析技術やモデルの開発が妨げられる。
リアルな神経細胞のカルシウムシグナルを人工的に合成する能力は、試行回数を増やすことでこの問題を大幅に軽減することができる。
本稿では,ニューロンソマタとカルシウムイメージングを併用したリアルなカルシウム信号を生成するGANモデルを提案する。
この目的のために、WaveGANアーキテクチャを適用し、Wasserstein距離でトレーニングする。
既知の基底を持つ人工データを用いて実験を行い,生成された信号の分布が基礎となるデータ分布によく似ていることを示す。
そして,マウスの一次視覚野から記録された実際のカルシウム信号に基づいてモデルを訓練し,その逆転したスパイクトレインが記録されたデータの統計に一致することを確認した。
これらの結果から,本モデルが実際のカルシウムイメージングデータを生成することに成功し,既存のニューロン活動のデータセットを増強し,データ探索とモデリングを強化できることを示した。 Calcium imaging has become a powerful and popular technique to monitor the activity of large populations of neurons in vivo. However, for ethical considerations and despite recent technical developments, recordings are still constrained to a limited number of trials and animals. This limits the amount of data available from individual experiments and hinders the development of analysis techniques and models for more realistic size of neuronal populations. The ability to artificially synthesize realistic neuronal calcium signals could greatly alleviate this problem by scaling up the number of trials. Here we propose a Generative Adversarial Network (GAN) model to generate realistic calcium signals as seen in neuronal somata with calcium imaging. To this end, we adapt the WaveGAN architecture and train it with the Wasserstein distance. We test the model on artificial data with known ground-truth and show that the distribution of the generated signals closely resembles the underlying data distribution. Then, we train the model on real calcium signals recorded from the primary visual cortex of behaving mice and confirm that the deconvolved spike trains match the statistics of the recorded data. Together, these results demonstrate that our model can successfully generate realistic calcium imaging data, thereby providing the means to augment existing datasets of neuronal activity for enhanced data exploration and modeling. | 翻訳日:2022-10-21 08:02:31 公開日:2020-09-08 |
# 信頼できる因果ルールの発見 Discovering Reliable Causal Rules ( http://arxiv.org/abs/2009.02728v2 ) ライセンス: Link先を確認 | Kailash Budhathoki, Mario Boley and Jilles Vreeken | (参考訳) 我々は、複雑なシステムで実行された場合、望ましい結果をもたらすポリシーや規則を導出する問題を調査する。
制御された実験を行う能力がないため、そのようなルールはシステムの振る舞いの過去の観察から推測される必要がある。
これは2つの理由において難しい問題である: 第一に、観察効果は、しばしば、因果効果を表わさない。
第二に、ある規則の効果の単純な経験的推定は高い分散を持ち、従ってそれらの最大化はランダムな結果をもたらす。
これらの問題に対処するために、まず、観察データからルールの因果効果を測定する。
重要なことは、因果規則発見が可能なグラフィカルな基準を提供する。
さらに, サンプルから信頼性の高い因果関係を推定するために, 因果関係の保守的かつ一貫した推定器を提案し, 推定器を最大化する効率的かつ正確なアルゴリズムを導出する。
合成データでは,提案した推定器は実測値よりも地上の真理に早く収束し,小さなサンプルサイズでも関連する因果規則を復元する。
様々な実世界のデータセットに対する大規模な実験は、提案アルゴリズムが効率的で有意義なルールを発見することを示している。 We study the problem of deriving policies, or rules, that when enacted on a complex system, cause a desired outcome. Absent the ability to perform controlled experiments, such rules have to be inferred from past observations of the system's behaviour. This is a challenging problem for two reasons: First, observational effects are often unrepresentative of the underlying causal effect because they are skewed by the presence of confounding factors. Second, naive empirical estimations of a rule's effect have a high variance, and, hence, their maximisation can lead to random results. To address these issues, first we measure the causal effect of a rule from observational data---adjusting for the effect of potential confounders. Importantly, we provide a graphical criteria under which causal rule discovery is possible. Moreover, to discover reliable causal rules from a sample, we propose a conservative and consistent estimator of the causal effect, and derive an efficient and exact algorithm that maximises the estimator. On synthetic data, the proposed estimator converges faster to the ground truth than the naive estimator and recovers relevant causal rules even at small sample sizes. Extensive experiments on a variety of real-world datasets show that the proposed algorithm is efficient and discovers meaningful rules. | 翻訳日:2022-10-21 07:56:29 公開日:2020-09-08 |
# 複数インスタンス学習におけるキーインスタンス検出のためのスパースネットワークインバージョン Sparse Network Inversion for Key Instance Detection in Multiple Instance Learning ( http://arxiv.org/abs/2009.02909v2 ) ライセンス: Link先を確認 | Beomjo Shin, Junsu Cho, Hwanjo Yu, Seungjin Choi | (参考訳) 複数インスタンス学習(MIL)では、トレーニングフェーズで各インスタンスのラベルにアクセスすることなく、バッグレベルで正または負のラベルが与えられたインスタンスの袋の1つのラベルを予測する。
正のバッグには正のインスタンスと負のインスタンスの両方が含まれているため、複数のインスタンスが正のバッグに分類された場合、正のインスタンス(キーのインスタンス)を検出することがしばしば必要となる。
注目に基づくディープMILモデルは、バッグレベルの分類とキーインスタンス検出(KID)の両方において最近の進歩である。
しかし、正の袋の中の正のインスタンスと負のインスタンスが明確に区別できない場合、注意に基づく深部MILモデルは、注意スコアが少数の正のインスタンスにスキューされるため、KID性能が制限される。
本稿では,KIDタスクにおける注意に基づく深層MILモデルの改善手法を提案する。
主なアイデアは、トレーニングされたmilモデルによって生成された袋レベルの予測にどのインスタンスが寄与したかを見つけるためにニューラルネットワークインバージョンを使用することである。
さらに,ニューラルネットワークのインバージョンにはスパース性制約が組み込まれており,近位勾配法によって解かれるスパースネットワークインバージョンが導かれる。
MNISTをベースとした画像MILデータセットと2つの実世界の病理組織学的データセットの数値実験により,本手法の有効性が検証され,バッグレベルの予測性能を維持しつつ,KID性能が著しく向上したことを示す。 Multiple Instance Learning (MIL) involves predicting a single label for a bag of instances, given positive or negative labels at bag-level, without accessing to label for each instance in the training phase. Since a positive bag contains both positive and negative instances, it is often required to detect positive instances (key instances) when a set of instances is categorized as a positive bag. The attention-based deep MIL model is a recent advance in both bag-level classification and key instance detection (KID). However, if the positive and negative instances in a positive bag are not clearly distinguishable, the attention-based deep MIL model has limited KID performance as the attention scores are skewed to few positive instances. In this paper, we present a method to improve the attention-based deep MIL model in the task of KID. The main idea is to use the neural network inversion to find which instances made contribution to the bag-level prediction produced by the trained MIL model. Moreover, we incorporate a sparseness constraint into the neural network inversion, leading to the sparse network inversion which is solved by the proximal gradient method. Numerical experiments on an MNIST-based image MIL dataset and two real-world histopathology datasets verify the validity of our method, demonstrating the KID performance is significantly improved while the performance of bag-level prediction is maintained. | 翻訳日:2022-10-21 02:20:57 公開日:2020-09-08 |
# RETAINを用いた糖尿病患者の深部グルコース予測モデルの解析 Interpreting Deep Glucose Predictive Models for Diabetic People Using RETAIN ( http://arxiv.org/abs/2009.04524v1 ) ライセンス: Link先を確認 | Maxime De Bois, Moun\^im A. El Yacoubi, Mehdi Ammi | (参考訳) 深層学習によるバイオメディカル分野の進歩は、モデルの解釈可能性の欠如によって妨げられている。
本稿では,糖尿病患者に対する将来の血糖値予測のためのRETAINアーキテクチャについて検討する。
2レベルアテンション機構のおかげで、retainモデルは標準的なニューラルネットワークと同じくらい効率的でありながら解釈可能である。
実世界の2型糖尿病患者を対象に,無作為な森林モデルとLSTMをベースとしたリカレントニューラルネットワークとの比較を行った。
以上の結果から, 保持モデルは, 前者より優れており, 共通精度指標と臨床受容度指標では後者と同等であり, グルコースレベル予測の文脈でその正当性が証明された。
さらに,RETAINの解釈可能な性質を活用するツールを提案する。
患者にとって, 患者にとって有益であるように, モデルによる予測の理解を深め, 将来のグルコース予測モデルの設計を改善することができる。 Progress in the biomedical field through the use of deep learning is hindered by the lack of interpretability of the models. In this paper, we study the RETAIN architecture for the forecasting of future glucose values for diabetic people. Thanks to its two-level attention mechanism, the RETAIN model is interpretable while remaining as efficient as standard neural networks. We evaluate the model on a real-world type-2 diabetic population and we compare it to a random forest model and a LSTM-based recurrent neural network. Our results show that the RETAIN model outperforms the former and equals the latter on common accuracy metrics and clinical acceptability metrics, thereby proving its legitimacy in the context of glucose level forecasting. Furthermore, we propose tools to take advantage of the RETAIN interpretable nature. As informative for the patients as for the practitioners, it can enhance the understanding of the predictions made by the model and improve the design of future glucose predictive models. | 翻訳日:2022-10-20 21:46:01 公開日:2020-09-08 |
# 全変分正規化モデルのための残差解とその展開ニューラルネットワーク A Residual Solver and Its Unfolding Neural Network for Total Variation Regularized Models ( http://arxiv.org/abs/2009.03477v1 ) ライセンス: Link先を確認 | Yuanhao Gong | (参考訳) 本稿では,入力と未知最適解の残差を求めることにより,全変動正規化モデルを解くことを提案する。
従来の手法を解析した後、勾配領域のモデルを暗黙的に解いたResidual Solverと呼ばれる新しい反復アルゴリズムを開発した。
アルゴリズムにおける勾配場の一意性を理論的に証明する。
さらに,500個の自然画像の古典的解法と同じ大域的最適解に到達できることを数値的に確認する。
さらに、反復アルゴリズムを畳み込みニューラルネットワーク(Residual Solver Network)に展開する。
このネットワークは教師なしであり、反復アルゴリズムの「拡張版」と見なすことができる。
最後に,提案アルゴリズムとニューラルネットワークを併用して,画像の平滑化,脱雑音化,生医学的画像再構成などの有効性と効率性を示す。
提案するネットワークは汎用的であり、他の全変分正規化モデルの解法にも応用できる。 This paper proposes to solve the Total Variation regularized models by finding the residual between the input and the unknown optimal solution. After analyzing a previous method, we developed a new iterative algorithm, named as Residual Solver, which implicitly solves the model in gradient domain. We theoretically prove the uniqueness of the gradient field in our algorithm. We further numerically confirm that the residual solver can reach the same global optimal solutions as the classical method on 500 natural images. Moreover, we unfold our iterative algorithm into a convolution neural network (named as Residual Solver Network). This network is unsupervised and can be considered as an "enhanced version" of our iterative algorithm. Finally, both the proposed algorithm and neural network are successfully applied on several problems to demonstrate their effectiveness and efficiency, including image smoothing, denoising, and biomedical image reconstruction. The proposed network is general and can be applied to solve other total variation regularized models. | 翻訳日:2022-10-20 21:45:48 公開日:2020-09-08 |
# 粒子加速器のオンライン最適化のための物理式ガウス過程 Physics-informed Gaussian Process for Online Optimization of Particle Accelerators ( http://arxiv.org/abs/2009.03566v1 ) ライセンス: Link先を確認 | Adi Hanuka, X. Huang, J. Shtalenkova, D. Kennedy, A. Edelen, V. R. Lalchand, D. Ratner, and J. Duris | (参考訳) 高次元最適化は大規模科学施設の運用において重要な課題である。
物理インフォームドガウシアンプロセス(GP)を最適化して,効率的な大域探索を行うことで複雑なシステムをチューニングする。
典型的なgpモデルは過去の観測から学び、予測を行うが、アーカイブデータが利用できない新しいシステムへの適用性は低下する。
ここでは,物理シミュレーションによる高速近似モデルを用いてgpモデルの設計を行う。
GPは、システムの最適化のために、シーケンシャルなオンライン観測から推論するために使用される。
ストレージリングのオンライン制御手法を実証するためにシミュレーションおよび実験を行った。
物理に変換されたgpは、収束速度とこのタスクのロバスト性の観点から、現在日常的に使用されているオンラインオプティマイザよりも優れていることを示す。
機械学習モデルに物理学を知らせる能力は、科学に幅広い応用をもたらす可能性がある。 High-dimensional optimization is a critical challenge for operating large-scale scientific facilities. We apply a physics-informed Gaussian process (GP) optimizer to tune a complex system by conducting efficient global search. Typical GP models learn from past observations to make predictions, but this reduces their applicability to new systems where archive data is not available. Instead, here we use a fast approximate model from physics simulations to design the GP model. The GP is then employed to make inferences from sequential online observations in order to optimize the system. Simulation and experimental studies were carried out to demonstrate the method for online control of a storage ring. We show that the physics-informed GP outperforms current routinely used online optimizers in terms of convergence speed, and robustness on this task. The ability to inform the machine-learning model with physics may have wide applications in science. | 翻訳日:2022-10-20 21:45:34 公開日:2020-09-08 |
# ポーズと視線先行を用いた美術史画像の構成構造理解 Understanding Compositional Structures in Art Historical Images using Pose and Gaze Priors ( http://arxiv.org/abs/2009.03807v1 ) ライセンス: Link先を確認 | Prathmesh Madhu, Tilman Marquart, Ronak Kosti, Peter Bell, Andreas Maier and Vincent Christlein | (参考訳) 美術史家にとって、美術品の分析ツールとしてのイメージ構成は極めて重要である。
これらの構成は、アーティストとその作品を研究するために画像内の相互作用を分析するのに有用である。
マックス・イムダール(Max Imdahl)は、イコニク(Ikonik)と呼ばれる作品の中で、20世紀の他の著名な美術史家とともに、画像の構造構成の美的・意味的な重要性を説いた。
画像内の構成構造を理解することは難しく、時間を要する作業である。
コンピュータビジョン技術を用いてこれらの構造を自動生成することは、美術史家にとって、多くの時間を節約し、膨大な画像リポジトリの概観とアクセスを提供し、また、機械による人造画像の理解に向けた重要な一歩となる。
本研究では,既存の最先端の機械学習技術を用いて,トレーニングの形式を伴わずにこのプロセスを自動化しようとする。
マックス・インダールの先駆的作品に触発された我々のアプローチは、イメージ構成の2つの中心的なテーマに焦点を当てている。
(a)作品の動作領域及び動作線の検出及び
(b)前景と背景のポーズに基づくセグメンテーション
現在,本手法は画像中の主人公(人物)からなるアートワークを対象としている。
質的,定量的にアプローチを検証するため,専門家や非専門家によるユーザスタディを実施している。
研究結果は我々のアプローチと非常に相関し、ドメインに依存しない能力を示す。
コードをhttps://github.com/image-compostion-canvas-group/image-compostion-canvasでオープンソース化しました。 Image compositions as a tool for analysis of artworks is of extreme significance for art historians. These compositions are useful in analyzing the interactions in an image to study artists and their artworks. Max Imdahl in his work called Ikonik, along with other prominent art historians of the 20th century, underlined the aesthetic and semantic importance of the structural composition of an image. Understanding underlying compositional structures within images is challenging and a time consuming task. Generating these structures automatically using computer vision techniques (1) can help art historians towards their sophisticated analysis by saving lot of time; providing an overview and access to huge image repositories and (2) also provide an important step towards an understanding of man made imagery by machines. In this work, we attempt to automate this process using the existing state of the art machine learning techniques, without involving any form of training. Our approach, inspired by Max Imdahl's pioneering work, focuses on two central themes of image composition: (a) detection of action regions and action lines of the artwork; and (b) pose-based segmentation of foreground and background. Currently, our approach works for artworks comprising of protagonists (persons) in an image. In order to validate our approach qualitatively and quantitatively, we conduct a user study involving experts and non-experts. The outcome of the study highly correlates with our approach and also demonstrates its domain-agnostic capability. We have open-sourced the code at https://github.com/image-compostion-canvas-group/image-compostion-canvas. | 翻訳日:2022-10-20 21:40:43 公開日:2020-09-08 |
# 畳み込みニューラルネットワークによる大腸癌および肺癌病理像の診断 Convolution Neural Networks for diagnosing colon and lung cancer histopathological images ( http://arxiv.org/abs/2009.03878v1 ) ライセンス: Link先を確認 | Sanidhya Mangal, Aanchal Chaurasia and Ayush Khajanchi | (参考訳) 肺がんと結腸がんは、成人の死亡と死に至る主要な原因の1つである。
病理組織学的診断は癌型を識別する重要な要素の1つである。
本研究の目的は,コンボリューションニューラルネットワークを用いた肺扁平上皮癌,肺腺癌,大腸腺癌を診断するためのコンピュータ診断システムを提案することである。
ここでは、近い将来、人工知能を有用な技術として表現する。
クラス毎に5000の画像を含むlc25000データセットから、合計2500のデジタル画像が取得された。
病理組織学的スライドを肺扁平上皮癌,腺癌,良性癌に分類した。
同様のモデルを用いて大腸腺癌の分類を行った。
肺と結腸の診断精度は97%以上,96%以上であった。 Lung and Colon cancer are one of the leading causes of mortality and morbidity in adults. Histopathological diagnosis is one of the key components to discern cancer type. The aim of the present research is to propose a computer aided diagnosis system for diagnosing squamous cell carcinomas and adenocarcinomas of lung as well as adenocarcinomas of colon using convolutional neural networks by evaluating the digital pathology images for these cancers. Hereby, rendering artificial intelligence as useful technology in the near future. A total of 2500 digital images were acquired from LC25000 dataset containing 5000 images for each class. A shallow neural network architecture was used classify the histopathological slides into squamous cell carcinomas, adenocarcinomas and benign for the lung. Similar model was used to classify adenocarcinomas and benign for colon. The diagnostic accuracy of more than 97% and 96% was recorded for lung and colon respectively. | 翻訳日:2022-10-20 21:40:17 公開日:2020-09-08 |
# task-specific hetero-modal domain-shifted datasetsによる組織と脳病変の学習関節分節化 Learning joint segmentation of tissues and brain lesions from task-specific hetero-modal domain-shifted datasets ( http://arxiv.org/abs/2009.04009v1 ) ライセンス: Link先を確認 | Reuben Dorent, Thomas Booth, Wenqi Li, Carole H. Sudre, Sina Kafiabadi, Jorge Cardoso, Sebastien Ourselin, Tom Vercauteren | (参考訳) マルチモーダルMRIからの脳組織分割は多くの神経画像解析パイプラインの重要な構成要素である。
しかし,白質病変や腫瘍などの病理所見から生じる大きな解剖学的変化に対処するために確立された組織分節法は開発されておらず,これらの症例では失敗することが多い。
一方,深層ニューラルネットワーク(dnn)の出現に伴い,脳病変の分節化が著しく進展している。
しかし、既存のアプローチはほとんどなく、正常な組織と脳病変の関節分割が可能である。
このような共同タスクのためのDNNの開発は、注釈付きデータセットが通常1つの特定のタスクにのみ対応し、タスク固有の画像モダリティセットを含むタスク固有のイメージングプロトコルに依存するという事実によって、現在妨げられている。
本研究では,タスク固有のヘテロモーダルドメインシフトおよび部分注釈付きデータセットから関節組織および病変区分モデルを構築するための新しい手法を提案する。
共同問題の変分的定式化から始めて,期待されるリスクを分解し,経験的に最適化する方法を示す。
リスクの上限を利用して、データセットにまたがる異種画像モダリティに対処します。
潜在的なドメインシフトに対処するために,データ拡張,逆学習,擬似健康生成という3つの手法を統合し,テストを行った。
それぞれのタスクに対して、我々のジョイントアプローチはタスク固有のモデルと完全に教師されたモデルに匹敵するパフォーマンスを達成します。
提案した枠組みは、白質病変とグリオーマの2種類の脳病変で評価されている。
後者では, 定量的評価のための共同基盤構造が欠如しているため, 臨床関連質的評価手法を提案する。 Brain tissue segmentation from multimodal MRI is a key building block of many neuroimaging analysis pipelines. Established tissue segmentation approaches have, however, not been developed to cope with large anatomical changes resulting from pathology, such as white matter lesions or tumours, and often fail in these cases. In the meantime, with the advent of deep neural networks (DNNs), segmentation of brain lesions has matured significantly. However, few existing approaches allow for the joint segmentation of normal tissue and brain lesions. Developing a DNN for such a joint task is currently hampered by the fact that annotated datasets typically address only one specific task and rely on task-specific imaging protocols including a task-specific set of imaging modalities. In this work, we propose a novel approach to build a joint tissue and lesion segmentation model from aggregated task-specific hetero-modal domain-shifted and partially-annotated datasets. Starting from a variational formulation of the joint problem, we show how the expected risk can be decomposed and optimised empirically. We exploit an upper bound of the risk to deal with heterogeneous imaging modalities across datasets. To deal with potential domain shift, we integrated and tested three conventional techniques based on data augmentation, adversarial learning and pseudo-healthy generation. For each individual task, our joint approach reaches comparable performance to task-specific and fully-supervised models. The proposed framework is assessed on two different types of brain lesions: White matter lesions and gliomas. In the latter case, lacking a joint ground-truth for quantitative assessment purposes, we propose and use a novel clinically-relevant qualitative assessment methodology. | 翻訳日:2022-10-20 21:40:05 公開日:2020-09-08 |
# 自然場面における人体部分の自動セグメンテーションのための深層ニューラルネットワークツール A Deep Neural Network Tool for Automatic Segmentation of Human Body Parts in Natural Scenes ( http://arxiv.org/abs/2009.09900v1 ) ライセンス: Link先を確認 | Patrick McClure, Gabrielle Reimann, Michal Ramot and Francisco Pereira | (参考訳) 本稿では,自然の場面で人体部分の自動セグメンテーションを行うために訓練されたディープニューラルネットワークについて述べる。
具体的には、Pascal-Partsデータセットに具体的なドロップアウトでBayesian SegNetをトレーニングし、特定のフレーム内の各ピクセルが人の髪、頭、耳、額、足、腕、口、首、鼻、胴体の一部であったかどうかを予測しました。 This short article describes a deep neural network trained to perform automatic segmentation of human body parts in natural scenes. More specifically, we trained a Bayesian SegNet with concrete dropout on the Pascal-Parts dataset to predict whether each pixel in a given frame was part of a person's hair, head, ear, eyebrows, legs, arms, mouth, neck, nose, or torso. | 翻訳日:2022-10-20 21:39:38 公開日:2020-09-08 |
# CNNPruner:ビジュアル分析による畳み込みニューラルネットワークの実行 CNNPruner: Pruning Convolutional Neural Networks with Visual Analytics ( http://arxiv.org/abs/2009.09940v1 ) ライセンス: Link先を確認 | Guan Li, Junpeng Wang, Han-Wei Shen, Kaixin Chen, Guihua Shan, and Zhonghua Lu | (参考訳) 畳み込みニューラルネットワーク(CNN)は多くのコンピュータビジョンタスクにおいて極めて優れた性能を示している。
しかし、cnnモデルのサイズが大きくなると、モバイル/組み込みデバイスのような限られた計算リソースを持つデバイスに広くデプロイされることがなくなる。
モデルプルーニングの話題は、重要でないニューロンを除去し、プルーニングされたネットワークを微調整することで、精度の損失を最小限に抑えることでこの問題に対処しようとしている。
それでも、既存の自動プルーニングソリューションは、しばしばプルーニング基準の数値しきい値に依存し、モデルサイズと精度の間のトレードオフを最適にバランスする柔軟性に欠ける。
さらに、ニューロンプルーニングの段階とモデル微調整の段階の間の複雑な相互作用は、この過程を不透明にし、最適化が困難になる。
本稿では,CNNPrunerというビジュアル分析手法を用いて,これらの課題に対処する。
不安定性と感度の両方を通じて畳み込みフィルタの重要性を考慮し、モデルサイズや精度の目標に従って、ユーザがインタラクティブにプランニングを作成できるようにする。
また、cnnprunerは最先端のフィルタ可視化技術を統合して、異なるフィルターが果たす役割を理解し、プランを洗練するのに役立つ。
実世界規模CNNの総合ケーススタディを通じて,CNNPrunerの有効性を検証する。 Convolutional neural networks (CNNs) have demonstrated extraordinarily good performance in many computer vision tasks. The increasing size of CNN models, however, prevents them from being widely deployed to devices with limited computational resources, e.g., mobile/embedded devices. The emerging topic of model pruning strives to address this problem by removing less important neurons and fine-tuning the pruned networks to minimize the accuracy loss. Nevertheless, existing automated pruning solutions often rely on a numerical threshold of the pruning criteria, lacking the flexibility to optimally balance the trade-off between model size and accuracy. Moreover, the complicated interplay between the stages of neuron pruning and model fine-tuning makes this process opaque, and therefore becomes difficult to optimize. In this paper, we address these challenges through a visual analytics approach, named CNNPruner. It considers the importance of convolutional filters through both instability and sensitivity, and allows users to interactively create pruning plans according to a desired goal on model size or accuracy. Also, CNNPruner integrates state-of-the-art filter visualization techniques to help users understand the roles that different filters played and refine their pruning plans. Through comprehensive case studies on CNNs with real-world sizes, we validate the effectiveness of CNNPruner. | 翻訳日:2022-10-20 21:39:26 公開日:2020-09-08 |
# TaBooN - Tabu Searchに基づくブールネットワーク合成 TaBooN -- Boolean Network Synthesis Based on Tabu Search ( http://arxiv.org/abs/2009.03587v1 ) ライセンス: Link先を確認 | Sara Sadat Aghamiri, Franck Delaplace | (参考訳) Omics-Technologyの最近の発展は、複数の次元とスケールで分子データを生成することによって生物学の研究に革命をもたらした。
この生物学のブレークスルーは、モデリングに基づく解釈の重要な問題を提起する。
この取り組みにおいて、ネットワークは分子間の相互作用をモデル化するための適切なフレームワークを提供する。
基本的に生物学的ネットワークは、遺伝子やタンパク質などのコンポーネントを参照するノードと、それらの相互作用を形式化するエッジ/弧から構成される。
相互作用の進化は、力学系の定義によってモデル化される。
ネットワークのさまざまなカテゴリのうち、booleanネットワークはモデリングの信頼性の高い定性フレームワークを提供する。
したがって、Booleanネットワークを実験データから自動的に合成することは、必要だが難しい問題である。
本研究では,生物データからブールネットワークを合成する作業フローであるタブーンを提案する。
この手法はブールプロファイルの形でデータを使用し、潜在的な局所的な公式推論をすべて推測する。
それらは結合して、生物の知識と実験に関する最も真正なモデルを見つける必要があるモデル空間を形成する。
タブーンワークフローにおいて、fittestモデルの選択は、タブ探索アルゴリズムによって達成される。
taboonは実験データからブールネットワーク推論を自動化する自動手法であり、さらなるモデリングと予測のための信頼できるプラットフォームを提供する生物学的ネットワークの動的動作の評価と最適化を支援する。 Recent developments in Omics-technologies revolutionized the investigation of biology by producing molecular data in multiple dimensions and scale. This breakthrough in biology raises the crucial issue of their interpretation based on modelling. In this undertaking, network provides a suitable framework for modelling the interactions between molecules. Basically a Biological network is composed of nodes referring to the components such as genes or proteins, and the edges/arcs formalizing interactions between them. The evolution of the interactions is then modelled by the definition of a dynamical system. Among the different categories of network, the Boolean network offers a reliable qualitative framework for the modelling. Automatically synthesizing a Boolean network from experimental data therefore remains a necessary but challenging issue. In this study, we present taboon, an original work-flow for synthesizing Boolean Networks from biological data. The methodology uses the data in the form of Boolean profiles for inferring all the potential local formula inference. They combine to form the model space from which the most truthful model with regards to biological knowledge and experiments must be found. In the taboon work-flow the selection of the fittest model is achieved by a Tabu-search algorithm. taboon is an automated method for Boolean Network inference from experimental data that can also assist to evaluate and optimize the dynamic behaviour of the biological networks providing a reliable platform for further modelling and predictions. | 翻訳日:2022-10-20 21:39:04 公開日:2020-09-08 |
# 経験ベイズ後方分布の収束率:変分的視点 Convergence Rates of Empirical Bayes Posterior Distributions: A Variational Perspective ( http://arxiv.org/abs/2009.03969v1 ) ライセンス: Link先を確認 | Fengshuo Zhang and Chao Gao | (参考訳) 非パラメトリック・高次元推定のための経験ベイズ後方分布の収束率について検討した。
極小パラメータ集合が離散である限り、最大辺縁確率推定器によって誘導される経験的ベイズ後分布は階層的ベイズ後分布に対する変動近似とみなすことができる。
この経験ベイズと変分ベイズの関係は、変分ベイズ文学における最近の結果の活用を可能にし、変分ベイズ後方分布の収束率を直接的に得ることができる。
離散的ではないより一般的な超パラメータ集合に対して、支持が低次元部分空間である確率測度の凸結合として書ける事前分布を扱う「優先分解」と呼ばれる新しい手法を導入する。
これにより、経験ベイズの収束率の古典的「主質量および試験」条件の一般化版が導かれる。
本理論は、非パラメトリック密度推定やスパース線形回帰を含む多くの統計的推定問題に適用する。 We study the convergence rates of empirical Bayes posterior distributions for nonparametric and high-dimensional inference. We show that as long as the hyperparameter set is discrete, the empirical Bayes posterior distribution induced by the maximum marginal likelihood estimator can be regarded as a variational approximation to a hierarchical Bayes posterior distribution. This connection between empirical Bayes and variational Bayes allows us to leverage the recent results in the variational Bayes literature, and directly obtains the convergence rates of empirical Bayes posterior distributions from a variational perspective. For a more general hyperparameter set that is not necessarily discrete, we introduce a new technique called "prior decomposition" to deal with prior distributions that can be written as convex combinations of probability measures whose supports are low-dimensional subspaces. This leads to generalized versions of the classical "prior mass and testing" conditions for the convergence rates of empirical Bayes. Our theory is applied to a number of statistical estimation problems including nonparametric density estimation and sparse linear regression. | 翻訳日:2022-10-20 21:38:47 公開日:2020-09-08 |
# 冷間曲げガラス Fa\c{c}ade の計算設計 Computational Design of Cold Bent Glass Fa\c{c}ades ( http://arxiv.org/abs/2009.03667v1 ) ライセンス: Link先を確認 | Konstantinos Gavriil, Ruslan Guseinov, Jes\'us P\'erez, Davide Pellis, Paul Henderson, Florian Rist, Helmut Pottmann, Bernd Bickel | (参考訳) コールドベントガラスは2重曲線ガラスfa\c{c}デアードを実現するための有望かつ費用効率のよい方法である。
湾曲したフレームに平面ガラスシートを取り付けて製造され、発生した応力を安全な範囲に保つ必要がある。
しかし, 材質の香りから, 冷曲げガラス板の設計空間を移動させることは極めて困難であり, 実用的かつ審美的に冷曲げガラス fa\c{c}ade の形状把握を妨げている。
我々は,典型的な設計パイプラインにシームレスに統合可能な冷曲げガラス fa\c{c}ade を設計するための,インタラクティブでデータ駆動の手法を提案する。
本手法により,非熟練のユーザは,冷曲げガラスパネルの変形形状と最大応力をリアルタイムにフィードバックしながら,パラメトリック表面をインタラクティブに編集することができる。
設計はいくつかの公平性基準を最小化するために自動的に洗練され、最大応力はガラス限界内に保持される。
我々は,100万以上のシミュレーションから学習した微分可能な混合密度ネットワークを用いて,インタラクティブなフレームレートを実現する。
曲面境界が与えられた場合, 回帰モデルは多安定な構成を扱い, パネルの平衡形状とその最大応力を正確に予測することができる。
予測は高精度であり, 冷曲げガラス表面を物理的に実現することで検証する。 Cold bent glass is a promising and cost-efficient method for realizing doubly curved glass fa\c{c}ades. They are produced by attaching planar glass sheets to curved frames and require keeping the occurring stress within safe limits. However, it is very challenging to navigate the design space of cold bent glass panels due to the fragility of the material, which impedes the form-finding for practically feasible and aesthetically pleasing cold bent glass fa\c{c}ades. We propose an interactive, data-driven approach for designing cold bent glass fa\c{c}ades that can be seamlessly integrated into a typical architectural design pipeline. Our method allows non-expert users to interactively edit a parametric surface while providing real-time feedback on the deformed shape and maximum stress of cold bent glass panels. Designs are automatically refined to minimize several fairness criteria while maximal stresses are kept within glass limits. We achieve interactive frame rates by using a differentiable Mixture Density Network trained from more than a million simulations. Given a curved boundary, our regression model is capable of handling multistable configurations and accurately predicting the equilibrium shape of the panel and its corresponding maximal stress. We show predictions are highly accurate and validate our results with a physical realization of a cold bent glass surface. | 翻訳日:2022-10-20 21:38:13 公開日:2020-09-08 |
# ecgがスパース辞書の分類基準を破る ECG Beats Fast Classification Base on Sparse Dictionaries ( http://arxiv.org/abs/2009.03792v1 ) ライセンス: Link先を確認 | Nanyu Li, Yujuan Si, Di Wang, Tong Liu, Jinrun Yu | (参考訳) 心電図(ecg)beats分類システムにおいて,特徴抽出は重要な役割を果たす。
他の一般的な方法と比較して、VQ法は次元減少の利点を生かしたECGの特徴抽出においてよく機能する。
VQ法では、ECGビートの各セグメントに対応する辞書のセットを訓練し、VQ符号を用いて各心拍を表現する。
しかし、実際にはk-meansまたはk-means++で最適化されたVQ符号は大きな量子化誤差が存在し、結果として同じタイプの2つの心拍のVQ符号は非常に異なる。
したがって、異なるタイプの心拍の違いは、うまく表現できない。
一方、VQはコードブック構築時に過剰なデータを使用するため、辞書学習の速度が制限される。
本稿では,VQ法の高速化と精度向上のための新しい手法を提案する。
コードブック構築の計算を低減するため、ECGビートの波分に対応するスパース辞書の集合を構築した。
初期化後、特徴符号とラグランジュ双対アルゴリズムによりスパース辞書を効率的に更新する。
これらの辞書に基づいて、元のECGビートを表現するために一組の符号を計算し、実験結果から、本手法によりECGから抽出した特徴がより効率的で分離可能であることを示す。
我々の手法の精度は他の方法よりも高く、特徴抽出の時間消費が少ない。 Feature extraction plays an important role in Electrocardiogram (ECG) Beats classification system. Compared to other popular methods, VQ method performs well in feature extraction from ECG with advantages of dimensionality reduction. In VQ method, a set of dictionaries corresponding to segments of ECG beats is trained, and VQ codes are used to represent each heartbeat. However, in practice, VQ codes optimized by k-means or k-means++ exist large quantization errors, which results in VQ codes for two heartbeats of the same type being very different. So the essential differences between different types of heartbeats cannot be representative well. On the other hand, VQ uses too much data during codebook construction, which limits the speed of dictionary learning. In this paper, we propose a new method to improve the speed and accuracy of VQ method. To reduce the computation of codebook construction, a set of sparse dictionaries corresponding to wave segments of ECG beats is constructed. After initialized, sparse dictionaries are updated efficiently by Feature-sign and Lagrange dual algorithm. Based on those dictionaries, a set of codes can be computed to represent original ECG beats.Experimental results show that features extracted from ECG by our method are more efficient and separable. The accuracy of our method is higher than other methods with less time consumption of feature extraction | 翻訳日:2022-10-20 21:37:50 公開日:2020-09-08 |
# データマイニングによる産業用IoTシステムの異常・故障検出:CHRISTオモトロン水質浄化システムの検討 Detection of Anomalies and Faults in Industrial IoT Systems by Data Mining: Study of CHRIST Osmotron Water Purification System ( http://arxiv.org/abs/2009.03645v1 ) ライセンス: Link先を確認 | Mohammad Sadegh Sadeghi Garmaroodi, Faezeh Farivar, Mohammad Sayad Haghighi, Mahdi Aliyari Shoorehdeli, Alireza Jolfaei | (参考訳) 産業 4.0は製造プロセスをよりスマートにするが、このスマートさは、産業用モノのインターネットの場合、センサーの助けを借りて実現される環境意識を高める必要がある。
本稿では, 工業用医薬品システム, 特に水質浄化システムについて述べる。
特定の導電性を有する精製水は多くの医薬品の重要な成分である。
ほとんど全ての製薬会社は、相互依存システムの一部として浄水ユニットを持っている。
エッジの欠陥を早期に検出することは、メンテナンスコストを著しく削減し、安全性と出力品質を改善し、その結果、より良い医薬品の製造につながる。
本稿では,いくつかのセンサとデータマイニング手法を用いて,キリストオスモトロン浄水器のための異常検知システムを構築した。
これはSinaDarou Labs Coから収集された実世界のデータによる実践的研究である。
データ収集は、システムオーバーホール前後の2週間の間隔で6つのセンサーを使用して行われた。
これにより、正常で故障したオペレーションサンプルが得られました。
このデータから,エッジ故障検出システムを構築するための2つの異常検出手法を提案する。
最初のアプローチは、例えばサポートベクトルマシンによる教師付き学習とデータマイニングに基づいている。
しかし、可能なすべての障害データを収集できないため、ニューラルネットワークを用いてシステムコンポーネントをモデル化する通常のシステム同定に基づいて異常検出手法を提案する。
本研究では,データ駆動およびモデルに基づく異常検出手法の精度を示すために,データセットを用いて広範な実験を行った。 Industry 4.0 will make manufacturing processes smarter but this smartness requires more environmental awareness, which in case of Industrial Internet of Things, is realized by the help of sensors. This article is about industrial pharmaceutical systems and more specifically, water purification systems. Purified water which has certain conductivity is an important ingredient in many pharmaceutical products. Almost every pharmaceutical company has a water purifying unit as a part of its interdependent systems. Early detection of faults right at the edge can significantly decrease maintenance costs and improve safety and output quality, and as a result, lead to the production of better medicines. In this paper, with the help of a few sensors and data mining approaches, an anomaly detection system is built for CHRIST Osmotron water purifier. This is a practical research with real-world data collected from SinaDarou Labs Co. Data collection was done by using six sensors over two-week intervals before and after system overhaul. This gave us normal and faulty operation samples. Given the data, we propose two anomaly detection approaches to build up our edge fault detection system. The first approach is based on supervised learning and data mining e.g. by support vector machines. However, since we cannot collect all possible faults data, an anomaly detection approach is proposed based on normal system identification which models the system components by artificial neural networks. Extensive experiments are conducted with the dataset generated in this study to show the accuracy of the data-driven and model-based anomaly detection methods. | 翻訳日:2022-10-20 21:31:29 公開日:2020-09-08 |
# 適応ペッパー Adapted Pepper ( http://arxiv.org/abs/2009.03648v1 ) ライセンス: Link先を確認 | Maxime Caniot, Vincent Bonnet, Maxime Busy, Thierry Labaye, Michel Besombes, Sebastien Courtois and Edouard Lagrue | (参考訳) ロボット工学の主な課題の1つは、組み込み計算能力の欠如である。
近年,周辺環境(物体検出,骨格追跡など)をよりよく理解する技術アルゴリズムが求められている。
組込み計算能力の欠如は、技術アルゴリズムの状態の計算要求の増大に追従するのは難しいため、大量生産されたロボットにおいてより重要である。
追加のGPUの統合により、この組み込み計算能力の欠如を克服することができる。
本稿では,組込みGPUを備えたPepperのプロトタイプを紹介するとともに,ロボットの頭部に3Dカメラを追加し,後期GPUに接続する。
このプロトタイプはadapted pepperと呼ばれ、ヨーロッパプロジェクトmummer(multimodal mall entertainment robot)のために開発され、openposeやyoloなどのアルゴリズムを埋め込んだり、センサー情報を処理したり、いずれにしても送還された計算のためのネットワーク依存を回避したりする。 One of the main issue in robotics is the lack of embedded computational power. Recently, state of the art algorithms providing a better understanding of the surroundings (Object detection, skeleton tracking, etc.) are requiring more and more computational power. The lack of embedded computational power is more significant in mass-produced robots because of the difficulties to follow the increasing computational requirements of state of the art algorithms. The integration of an additional GPU allows to overcome this lack of embedded computational power. We introduce in this paper a prototype of Pepper with an embedded GPU, but also with an additional 3D camera on the head of the robot and plugged to the late GPU. This prototype, called Adapted Pepper, was built for the European project called MuMMER (MultiModal Mall Entertainment Robot) in order to embed algorithms like OpenPose, YOLO or to process sensors information and, in all cases, avoid network dependency for deported computation. | 翻訳日:2022-10-20 21:31:05 公開日:2020-09-08 |
# 糖尿病患者の血糖予測のための予測コヒーレントLSTMリカレントニューラルネットワーク Prediction-Coherent LSTM-based Recurrent Neural Network for Safer Glucose Predictions in Diabetic People ( http://arxiv.org/abs/2009.03722v1 ) ライセンス: Link先を確認 | Maxime De Bois, Moun\^im A. El Yacoubi, Mehdi Ammi | (参考訳) 時系列予測の文脈において,lstmに基づく再帰的ニューラルネットワークアーキテクチャと,予測の安定性を高める損失関数を提案する。
特に、損失関数は、予測誤差(平均二乗誤差)だけでなく、予測変動誤差にも、モデルをペナライズする。
このアイデアを糖尿病の将来の血糖値予測に適用する。不安定な予測は患者を疑わせ、間違った行動をとらせ、人生を脅かす可能性があるため、繊細な課題である。
この研究は1型と2型糖尿病患者を対象に行われ、30分前の予測に焦点を当てている。
まず、LSTMモデルのグルコース予測の文脈において、他の最先端モデル(Extreme Learning Machine, Gaussian Process Regressor, Support Vector Regressor)と比較することにより、LSTMモデルの優位性を確認する。
そして, モデルによる予測を円滑にすることで, 予測精度をわずかに損なうことなく, 費用のかかるモデルの臨床受容性が全体的に向上する, 安定した予測を行うことの重要性を示した。
最後に,提案手法がすべてのベースライン結果を上回ることを示す。
より正確には、臨床受容率27.1\%の改善のために予測精度の4.3\%の損失をトレードオフする。
移動平均後処理法と比較すると,このアプローチではトレードオフの方が効率的であることが分かる。 In the context of time-series forecasting, we propose a LSTM-based recurrent neural network architecture and loss function that enhance the stability of the predictions. In particular, the loss function penalizes the model, not only on the prediction error (mean-squared error), but also on the predicted variation error. We apply this idea to the prediction of future glucose values in diabetes, which is a delicate task as unstable predictions can leave the patient in doubt and make him/her take the wrong action, threatening his/her life. The study is conducted on type 1 and type 2 diabetic people, with a focus on predictions made 30-minutes ahead of time. First, we confirm the superiority, in the context of glucose prediction, of the LSTM model by comparing it to other state-of-the-art models (Extreme Learning Machine, Gaussian Process regressor, Support Vector Regressor). Then, we show the importance of making stable predictions by smoothing the predictions made by the models, resulting in an overall improvement of the clinical acceptability of the models at the cost in a slight loss in prediction accuracy. Finally, we show that the proposed approach, outperforms all baseline results. More precisely, it trades a loss of 4.3\% in the prediction accuracy for an improvement of the clinical acceptability of 27.1\%. When compared to the moving average post-processing method, we show that the trade-off is more efficient with our approach. | 翻訳日:2022-10-20 21:30:50 公開日:2020-09-08 |
# 複数の移動体が存在する不確実・動的環境におけるオンライン計画 Online Planning in Uncertain and Dynamic Environment in the Presence of Multiple Mobile Vehicles ( http://arxiv.org/abs/2009.03733v1 ) ライセンス: Link先を確認 | Junhong Xu, Kai Yin, Lantao Liu | (参考訳) 移動ロボットの時間的不確定な環境変動下における移動ロボットの自律走行について検討する。
我々はまず,時間変動による乱れの影響を考慮し,他の車両の将来の状態分布を予測する。
次に,ロボットが到達する確率の高い状態を含む動的障害物を意識した到達可能空間を構築し,最適ポリシーを探索する。
一般論として、車両と環境障害のダイナミクスは非線形であるため、非線形ガウスフィルタ(unscented transform)を用いて将来の状態分布を近似する。
最後に、前方到達可能な空間計算と後方ポリシー探索を収束まで繰り返す。
広範なシミュレーション評価により,提案手法の計算時間,決定精度,計画信頼性の点で有意な利点が得られた。 We investigate the autonomous navigation of a mobile robot in the presence of other moving vehicles under time-varying uncertain environmental disturbances. We first predict the future state distributions of other vehicles to account for their uncertain behaviors affected by the time-varying disturbances. We then construct a dynamic-obstacle-aware reachable space that contains states with high probabilities to be reached by the robot, within which the optimal policy is searched. Since, in general, the dynamics of both the vehicle and the environmental disturbances are nonlinear, we utilize a nonlinear Gaussian filter -- the unscented transform -- to approximate the future state distributions. Finally, the forward reachable space computation and backward policy search are iterated until convergence. Extensive simulation evaluations have revealed significant advantages of this proposed method in terms of computation time, decision accuracy, and planning reliability. | 翻訳日:2022-10-20 21:30:24 公開日:2020-09-08 |
# 思春期自殺未遂のリスク増加に伴う健康行動:データ駆動横断的研究 Health-behaviors associated with the growing risk of adolescent suicide attempts: A data-driven cross-sectional study ( http://arxiv.org/abs/2009.03966v1 ) ライセンス: Link先を確認 | Zhiyuan Wei and Sayanti Mukherjee | (参考訳) 目的: 健康行動と思春期自殺未遂のリスクの増加との関連を同定し, 社会経済的・人口統計学的差異をコントロールした。
設計: 断面データを用いたデータ駆動分析。
設定:1999年から2017年までモンタナ州のコミュニティ。
対象:22,447人の青少年の中から1,631人が少なくとも1回は自殺を試みた。
尺度: 心理的行動, 違法物質消費, 学校における日常活動, 人口統計学的背景を考慮した29変数(予測者)を総合的に検討した。
分析: 従来のロジスティック回帰と共に機械学習アルゴリズムのライブラリを使用して、自殺未遂のリスクをモデル化し予測した。
精度,精度,リコール,Fスコア測定値を用いて,モデル性能(適合度,予測精度)を測定した。
結果: 非パラメトリックベイズ木アンサンブルモデルは, 精度が80.0%(Fスコア:0.802), 予測精度が78.2%(Fスコア:0.785)の他のモデルよりも優れていた。
主な健康行動は、悲しむ/不眠であること、学校における安全上の懸念、身体的戦闘、吸入量、学校での違法薬物消費、現在のタバコ使用、そして15歳未満の若さでの最初の性行為である。
また、少数民族(アメリカン・インディアン・アラスカ・インディアン、ヒスパニック・ラティノス)や女性も自殺未遂に非常に脆弱である。
結論: 本研究の最も重要な貢献は, 青年期における自殺未遂の頻度を高めるための重要な健康行動と健康格差を理解することであり, 結果と被曝変数間の非線形性や複雑な相互作用を考慮に入れている。 Purpose: Identify and examine the associations between health behaviors and increased risk of adolescent suicide attempts, while controlling for socioeconomic and demographic differences. Design: A data-driven analysis using cross-sectional data. Setting: Communities in the state of Montana from 1999 to 2017. Subjects: Selected 22,447 adolescents of whom 1,631 adolescents attempted suicide at least once. Measures: Overall 29 variables (predictors) accounting for psychological behaviors, illegal substances consumption, daily activities at schools and demographic backgrounds, were considered. Analysis: A library of machine learning algorithms along with the traditionally-used logistic regression were used to model and predict suicide attempt risk. Model performances (goodness-of-fit and predictive accuracy) were measured using accuracy, precision, recall and F-score metrics. Results: The non-parametric Bayesian tree ensemble model outperformed all other models, with 80.0% accuracy in goodness-of-fit (F-score:0.802) and 78.2% in predictive accuracy (F-score:0.785). Key health-behaviors identified include: being sad/hopeless, followed by safety concerns at school, physical fighting, inhalant usage, illegal drugs consumption at school, current cigarette usage, and having first sex at an early age (below 15 years of age). Additionally, the minority groups (American Indian/Alaska Natives, Hispanics/Latinos), and females are also found to be highly vulnerable to attempting suicides. Conclusion: Significant contribution of this work is understanding the key health-behaviors and health disparities that lead to higher frequency of suicide attempts among adolescents, while accounting for the non-linearity and complex interactions among the outcome and the exposure variables. | 翻訳日:2022-10-20 21:29:38 公開日:2020-09-08 |
# Leam:in-situビジュアルテキスト分析のためのインタラクティブシステム Leam: An Interactive System for In-situ Visual Text Analysis ( http://arxiv.org/abs/2009.03520v1 ) ライセンス: Link先を確認 | Sajjadur Rahman and Peter Griggs and \c{C}a\u{g}atay Demiralp | (参考訳) オンライン小売業者やアグリゲータといった企業は、web上で生成されたデジタルテキストの規模と可用性の増加に伴い、データマイニングや分析にテキスト分析を使用して、サービスや製品を改善することが多い。
テキストデータ分析は、データのクリーニングから視覚化まで、さまざまな段階にわたるさまざまなワークフローを持つ反復的で非線形なプロセスである。
既存のテキスト分析システムは、通常これらのステージのサブセットに対応しており、しばしばデータの不均一性、証明、ワークフローの再利用性と再現性、確立されたプラクティスとの互換性に関する課題に対処できない。
これらの課題から導いた一連の設計上の考察に基づき,計算ノート,スプレッドシート,可視化ツールの利点を組み合わせることで,テキスト解析プロセスを単一連続体として扱うシステムであるLeamを提案する。
Leamは、テキスト分析ワークフローを実行するためのインタラクティブなユーザインターフェース、複数のアトミックおよび複合データ型を管理する新しいデータモデル、およびテキスト分析のさまざまなステージを表すさまざまな操作セットをキャプチャし、データ、コード、視覚化を含むシステムのさまざまなコンポーネント間の調整を可能にする表現代数学を備えている。
我々は,leam開発の現状を報告しつつ,利用例を用いてその有用性を示す。
最後に,Leamの改良点について概説し,インタラクティブなビジュアルテキスト解析システムを開発するためのいくつかの研究方向を特定する。 With the increase in scale and availability of digital text generated on the web, enterprises such as online retailers and aggregators often use text analytics to mine and analyze the data to improve their services and products alike. Text data analysis is an iterative, non-linear process with diverse workflows spanning multiple stages, from data cleaning to visualization. Existing text analytics systems usually accommodate a subset of these stages and often fail to address challenges related to data heterogeneity, provenance, workflow reusability and reproducibility, and compatibility with established practices. Based on a set of design considerations we derive from these challenges, we propose Leam, a system that treats the text analysis process as a single continuum by combining advantages of computational notebooks, spreadsheets, and visualization tools. Leam features an interactive user interface for running text analysis workflows, a new data model for managing multiple atomic and composite data types, and an expressive algebra that captures diverse sets of operations representing various stages of text analysis and enables coordination among different components of the system, including data, code, and visualizations. We report our current progress in Leam development while demonstrating its usefulness with usage examples. Finally, we outline a number of enhancements to Leam and identify several research directions for developing an interactive visual text analysis system. | 翻訳日:2022-10-20 21:29:08 公開日:2020-09-08 |
# 画像分類における敵対的機械学習 : ディフェンダーの視点をめざして Adversarial Machine Learning in Image Classification: A Survey Towards the Defender's Perspective ( http://arxiv.org/abs/2009.03728v1 ) ライセンス: Link先を確認 | Gabriel Resende Machado, Eug\^enio Silva and Ronaldo Ribeiro Goldschmidt | (参考訳) ディープラーニングアルゴリズムは、画像分類の最先端のパフォーマンスを達成し、生体認証システムや自動運転車のようなセキュリティクリティカルなアプリケーションでも使われてきた。
しかし、最近の研究では、人間の能力を超えたアルゴリズムは敵の例に弱いことが示されている。
コンピュータビジョンでは、逆例(adversarial examples)は、悪意のある最適化アルゴリズムによって生成される微妙な摂動を含む画像である。
これらの脆弱性を和らげるため、文学では数多くの対策が常に提案されている。
それにもかかわらず、効率的な防御機構の開発は、多くのアプローチがアダプティブアタッカーには効果がないことを示したため、難しい課題であることが証明されている。
そこで,本論文は,画像分類における機械学習の最近の研究動向をディフェンダーの視点から概観し,すべての読者に提供することを目的としている。
ここでは,敵の攻撃と防御を分類する新しい分類法を導入し,敵の事例の存在について議論する。
また, 外部調査とは対照的に, 防衛の整備・評価において研究者が考慮すべき適切な指針も与えられている。
最後に、レビューした文献に基づき、今後の研究に有望な道筋について論じる。 Deep Learning algorithms have achieved the state-of-the-art performance for Image Classification and have been used even in security-critical applications, such as biometric recognition systems and self-driving cars. However, recent works have shown those algorithms, which can even surpass the human capabilities, are vulnerable to adversarial examples. In Computer Vision, adversarial examples are images containing subtle perturbations generated by malicious optimization algorithms in order to fool classifiers. As an attempt to mitigate these vulnerabilities, numerous countermeasures have been constantly proposed in literature. Nevertheless, devising an efficient defense mechanism has proven to be a difficult task, since many approaches have already shown to be ineffective to adaptive attackers. Thus, this self-containing paper aims to provide all readerships with a review of the latest research progress on Adversarial Machine Learning in Image Classification, however with a defender's perspective. Here, novel taxonomies for categorizing adversarial attacks and defenses are introduced and discussions about the existence of adversarial examples are provided. Further, in contrast to exisiting surveys, it is also given relevant guidance that should be taken into consideration by researchers when devising and evaluating defenses. Finally, based on the reviewed literature, it is discussed some promising paths for future research. | 翻訳日:2022-10-20 21:22:46 公開日:2020-09-08 |
# 画像の独特で情報的なキャプションを目指して Towards Unique and Informative Captioning of Images ( http://arxiv.org/abs/2009.03949v1 ) ライセンス: Link先を確認 | Zeyu Wang, Berthy Feng, Karthik Narasimhan, Olga Russakovsky | (参考訳) かなりの進歩にもかかわらず、最先端の画像キャプションモデルは一般的なキャプションを生成し、重要な画像の詳細は残している。
さらに、これらのシステムは、共通の概念からなる単純なキャプションを生成するために、イメージを誤って表現することもある。
本稿では,これらの現象を定量化するための実証実験を通じて,近代的なキャプションシステムと評価指標の両方をまず分析する。
現代のキャプションシステムでは, 真実のキャプションに比較して, 誤用文の出現率が高く, SPICEなどの評価指標は, オブジェクト検出器に依存した単純なキャプションシステムを用いて「トッププット」できることがわかった。
これらの観測に触発されて、キャプションで生成された概念に一意性の概念を導入することにより、新しい計量(SPICE-U)を設計する。
SPICE-U は SPICE と比較して人間の判断と相関し,多様性と記述性の概念を効果的に捉えている。
最後に、復号時に相互情報を用いて既存のキャプションモデルを改善するための一般的な手法についても示す。
経験的に、これはよりユニークで情報的なキャプションをもたらし、SPICE-Uの3つの最先端モデルを改善し、既存のメトリクスの平均スコアも改善する。 Despite considerable progress, state of the art image captioning models produce generic captions, leaving out important image details. Furthermore, these systems may even misrepresent the image in order to produce a simpler caption consisting of common concepts. In this paper, we first analyze both modern captioning systems and evaluation metrics through empirical experiments to quantify these phenomena. We find that modern captioning systems return higher likelihoods for incorrect distractor sentences compared to ground truth captions, and that evaluation metrics like SPICE can be 'topped' using simple captioning systems relying on object detectors. Inspired by these observations, we design a new metric (SPICE-U) by introducing a notion of uniqueness over the concepts generated in a caption. We show that SPICE-U is better correlated with human judgements compared to SPICE, and effectively captures notions of diversity and descriptiveness. Finally, we also demonstrate a general technique to improve any existing captioning model -- by using mutual information as a re-ranking objective during decoding. Empirically, this results in more unique and informative captions, and improves three different state-of-the-art models on SPICE-U as well as average score over existing metrics. | 翻訳日:2022-10-20 21:22:27 公開日:2020-09-08 |
# LiDARデータによる車両の連接姿勢と形状推定 Joint Pose and Shape Estimation of Vehicles from LiDAR Data ( http://arxiv.org/abs/2009.03964v1 ) ライセンス: Link先を確認 | Hunter Goforth, Xiaoyan Hu, Michael Happold, Simon Lucey | (参考訳) 我々は、自動運転車コミュニティが直面する一般的な問題であるLiDARスキャンから車両のポーズと形状を推定する問題に対処する。
最近の研究は、両者の固有のつながりにもかかわらず、別々にポーズと形状の推定に対処しがちである。
形状とポーズを効率良くかつ効果的に復号化できる1つの符号化から学習した形状とポーズを共同推定する手法について検討する。
また,新しい関節ポーズと形状損失を導入し,独立に訓練されたポーズと形状推定器よりも優れた結果が得られることを示す。
本手法は合成データと実世界のデータの両方で評価し,最先端のベースラインに対して優れた性能を示す。 We address the problem of estimating the pose and shape of vehicles from LiDAR scans, a common problem faced by the autonomous vehicle community. Recent work has tended to address pose and shape estimation separately in isolation, despite the inherent connection between the two. We investigate a method of jointly estimating shape and pose where a single encoding is learned from which shape and pose may be decoded in an efficient yet effective manner. We additionally introduce a novel joint pose and shape loss, and show that this joint training method produces better results than independently-trained pose and shape estimators. We evaluate our method on both synthetic data and real-world data, and show superior performance against a state-of-the-art baseline. | 翻訳日:2022-10-20 21:22:06 公開日:2020-09-08 |
# ディープニューラルネットワークを用いた山火事周辺進化のモデル化 Modeling Wildfire Perimeter Evolution using Deep Neural Networks ( http://arxiv.org/abs/2009.03977v1 ) ライセンス: Link先を確認 | Maxfield E. Green, Karl Kaiser, Nat Shenton | (参考訳) 世界中の山火事の規模と頻度が増加し、進化する山火事の正確なリアルタイム予測は消防活動と対流管理の重要な要素である。
我々は,24時間周期における野火周辺部の進化を予測できる野火拡散モデルを提案する。
火災拡散シミュレーションは、リモートセンシングされた大気と環境の時系列データに基づいて訓練された深部畳み込みニューラルネットワーク(CNN)に基づいている。
このモデルはカリフォルニアのシエラネバダ山脈西部の一連の山火事から、実際の歴史的データセットから、山火事の拡散力学を学習できることを示す。
我々はこのモデルを未発見のワイルドファイアで検証し、78%98%の検証精度で、歴史の代替案を大幅に上回る現実的な結果を生成する。 With the increased size and frequency of wildfire eventsworldwide, accurate real-time prediction of evolving wildfirefronts is a crucial component of firefighting efforts and for-est management practices. We propose a wildfire spreadingmodel that predicts the evolution of the wildfire perimeter in24 hour periods. The fire spreading simulation is based ona deep convolutional neural network (CNN) that is trainedon remotely sensed atmospheric and environmental time se-ries data. We show that the model is able to learn wildfirespreading dynamics from real historic data sets from a seriesof wildfires in the Western Sierra Nevada Mountains in Cal-ifornia. We validate the model on a previously unseen wild-fire and produce realistic results that significantly outperformhistoric alternatives with validation accuracies ranging from78% - 98% | 翻訳日:2022-10-20 21:21:53 公開日:2020-09-08 |
# 効率的な物体認識のための二元化ニューラルアーキテクチャ探索 Binarized Neural Architecture Search for Efficient Object Recognition ( http://arxiv.org/abs/2009.04247v1 ) ライセンス: Link先を確認 | Hanlin Chen, Li'an Zhuo, Baochang Zhang, Xiawu Zheng, Jianzhuang Liu, Rongrong Ji, David Doermann, Guodong Guo | (参考訳) 従来のニューラルネットワーク検索(nas)は、様々なタスクにネットワークアーキテクチャを自動的に設計することでコンピュータビジョンに大きな影響を与える。
本稿では,2値化畳み込みの探索空間を持つbinarized neural architecture search (bnas) を用いて,エッジコンピューティングのための組み込みデバイスにおける膨大な計算コストを削減するために,極端に圧縮されたモデルを生成する。
BNAS計算は、最適化要求と巨大なアーキテクチャ空間に起因する学習効率の低下と、様々なコンピューティングアプリケーションにおけるワイルドデータを扱う際の性能損失により、NASよりも困難である。
これらの課題に対処するため,BNAS に操作空間の削減とチャネルサンプリングを導入し,検索コストを大幅に削減する。
これは、ワイルドデータに対して堅牢なパフォーマンスベースの戦略によって達成される。
さらに,1ビットBNASを解くために,上信頼境界(UCB)を導入する。
2値化ニューラルネットワークの2つの最適化手法を用いてbnaの有効性を検証する。
広範囲にわたる実験により、提案されたBNASは、CIFARとImageNetデータベースの両方でNASに匹敵する性能を達成した。
cifar-10データセットでは、$96.53\%$対$7.22\%$の精度が達成されているが、かなり圧縮されたモデルで、最先端のpc-dartsよりも40\%高速で検索できる。
野生の顔認識タスクでは,二元化モデルが対応する全精度モデルと同等の性能を達成している。 Traditional neural architecture search (NAS) has a significant impact in computer vision by automatically designing network architectures for various tasks. In this paper, binarized neural architecture search (BNAS), with a search space of binarized convolutions, is introduced to produce extremely compressed models to reduce huge computational cost on embedded devices for edge computing. The BNAS calculation is more challenging than NAS due to the learning inefficiency caused by optimization requirements and the huge architecture space, and the performance loss when handling the wild data in various computing applications. To address these issues, we introduce operation space reduction and channel sampling into BNAS to significantly reduce the cost of searching. This is accomplished through a performance-based strategy that is robust to wild data, which is further used to abandon less potential operations. Furthermore, we introduce the Upper Confidence Bound (UCB) to solve 1-bit BNAS. Two optimization methods for binarized neural networks are used to validate the effectiveness of our BNAS. Extensive experiments demonstrate that the proposed BNAS achieves a comparable performance to NAS on both CIFAR and ImageNet databases. An accuracy of $96.53\%$ vs. $97.22\%$ is achieved on the CIFAR-10 dataset, but with a significantly compressed model, and a $40\%$ faster search than the state-of-the-art PC-DARTS. On the wild face recognition task, our binarized models achieve a performance similar to their corresponding full-precision models. | 翻訳日:2022-10-20 21:21:41 公開日:2020-09-08 |
# LynyrdSkynyrd at WNUT-2020 Task 2: Semi-Supervised Learning for Identification of Informative COVID-19 English Tweets (英語) LynyrdSkynyrd at WNUT-2020 Task 2: Semi-Supervised Learning for Identification of Informative COVID-19 English Tweets ( http://arxiv.org/abs/2009.03849v1 ) ライセンス: Link先を確認 | Abhilasha Sancheti, Kushal Chawla, Gaurav Verma | (参考訳) 本稿では,WNUT-2020における情報発信型英語ツイートの識別作業について述べる。
我々のシステムは様々な機械学習手法のアンサンブルであり、従来の特徴に基づく分類と、ツイートから構文的、意味的、文脈的特徴を捉えるのに役立つ事前学習言語モデルの最近の進歩を活用している。
さらに、パンデミックで公表されたラベルなしのtwitterデータを組み込むために、擬似ラベリングも採用しています。
我々の最高の性能モデルは、提供された検証セットのF1スコア0.9179、ブラインドテストセットの0.8805を達成する。 We describe our system for WNUT-2020 shared task on the identification of informative COVID-19 English tweets. Our system is an ensemble of various machine learning methods, leveraging both traditional feature-based classifiers as well as recent advances in pre-trained language models that help in capturing the syntactic, semantic, and contextual features from the tweets. We further employ pseudo-labelling to incorporate the unlabelled Twitter data released on the pandemic. Our best performing model achieves an F1-score of 0.9179 on the provided validation set and 0.8805 on the blind test-set. | 翻訳日:2022-10-20 21:21:16 公開日:2020-09-08 |
# メンタルヘルスサポートフォーラムにおけるcovid-19の効果の定量化 Quantifying the Effects of COVID-19 on Mental Health Support Forums ( http://arxiv.org/abs/2009.04008v1 ) ライセンス: Link先を確認 | Laura Biester, Katie Matton, Janarthanan Rajendran, Emily Mower Provost, Rada Mihalcea | (参考訳) 新型コロナウイルス(COVID-19)のパンデミックは、それ以前に流行した多くの病気と同様、メンタルヘルスに深刻な影響を及ぼす可能性がある。
その影響を理解することは、ネガティブな結果を軽減する戦略をもたらす。
本研究は、Redditのメンタルヘルス支援コミュニティ内での議論を通じて、メンタルヘルスに対するCOVID-19の影響をよりよく理解することを目的とする。
まず、covid-19が各コミュニティやサブredditで議論される割合を定量化し、パンデミックの先入観のレベルを理解する。
次に、オンラインのメンタルヘルス支援を求める人々の数が増えるかどうかを判断するために、活動量を検討する。
最後に、各サブレディット内での言語使用や議論の話題に、COVID-19がどのように影響したかを分析する。 The COVID-19 pandemic, like many of the disease outbreaks that have preceded it, is likely to have a profound effect on mental health. Understanding its impact can inform strategies for mitigating negative consequences. In this work, we seek to better understand the effects of COVID-19 on mental health by examining discussions within mental health support communities on Reddit. First, we quantify the rate at which COVID-19 is discussed in each community, or subreddit, in order to understand levels of preoccupation with the pandemic. Next, we examine the volume of activity in order to determine whether the quantity of people seeking online mental health support has risen. Finally, we analyze how COVID-19 has influenced language use and topics of discussion within each subreddit. | 翻訳日:2022-10-20 21:21:04 公開日:2020-09-08 |
# 部分微分方程式に対する大規模ニューラルソルバー Large-scale Neural Solvers for Partial Differential Equations ( http://arxiv.org/abs/2009.03730v1 ) ライセンス: Link先を確認 | Patrick Stiller and Friedrich Bethke and Maximilian B\"ohme and Richard Pausch and Sunna Torge and Alexander Debus and Jan Vorberger and Michael Bussmann and Nico Hoffmann | (参考訳) 偏微分方程式 (PDE) を解くことは、多くのプロセスがPDEの観点でモデル化できるため、科学の多くの分野において不可欠である。
しかし、近年の数値解法では、基礎となる方程式の手動による離散化と、分散コンピューティングのための高度でカスタマイズされたコードが必要である。
基礎となるモデルのパラメータをスキャンすると、各パラメータ設定に対してシミュレーションを開始する必要があるため、ランタイムが大幅に増加する。
機械学習に基づく代理モデルは、入力、パラメータ、ソリューションの間の複雑な関係を学習するための有望な方法を示す。
しかし、最近の生成ニューラルネットワークは、多くのトレーニングデータを必要とする。
対照的に、偏微分方程式、物理インフォームドニューラルネットワーク(PINN)に対する連続的メッシュフリーニューラルネットワークの適用性について、初期/境界値とトレーニングのための検証ポイントのみを必要とするが、シミュレーションデータはない。
誘導された次元の呪いは、単位体積当たりのニューロン数を制御し、実行時間を大幅に改善するドメイン分解を学ぶことによってアプローチされる。
大規模クラスタシステム上での分散トレーニングは、包括的評価研究によって評価される大量のGPUの利用も約束する。
最後に,分析解に関してgatedpinnの精度と,スペクトル解法のような最先端の数値解法について考察する。 Solving partial differential equations (PDE) is an indispensable part of many branches of science as many processes can be modelled in terms of PDEs. However, recent numerical solvers require manual discretization of the underlying equation as well as sophisticated, tailored code for distributed computing. Scanning the parameters of the underlying model significantly increases the runtime as the simulations have to be cold-started for each parameter configuration. Machine Learning based surrogate models denote promising ways for learning complex relationship among input, parameter and solution. However, recent generative neural networks require lots of training data, i.e. full simulation runs making them costly. In contrast, we examine the applicability of continuous, mesh-free neural solvers for partial differential equations, physics-informed neural networks (PINNs) solely requiring initial/boundary values and validation points for training but no simulation data. The induced curse of dimensionality is approached by learning a domain decomposition that steers the number of neurons per unit volume and significantly improves runtime. Distributed training on large-scale cluster systems also promises great utilization of large quantities of GPUs which we assess by a comprehensive evaluation study. Finally, we discuss the accuracy of GatedPINN with respect to analytical solutions -- as well as state-of-the-art numerical solvers, such as spectral solvers. | 翻訳日:2022-10-20 21:20:50 公開日:2020-09-08 |
# データ駆動アプローチによる不正検出 Fraud Detection using Data-Driven approach ( http://arxiv.org/abs/2009.06365v1 ) ライセンス: Link先を確認 | Arianit Mehana and Krenare Pireva Nuci | (参考訳) インターネットの広範な利用は、オンライン環境にサービスを組み込むために、ビジネスを継続的に漂流させている。
この進化を受け入れた最初のスペクトルの1つは銀行部門であった。
実際、最初のオンラインバンキングサービスは1980年に始まった。
この銀行はアメリカ合衆国銀行と呼ばれるノックスビルにあるコミュニティ銀行から派遣された。
それ以来、インターネットバンキングは、日々の銀行業務を完了させるために、コスチューナーに容易かつ効率性を提供してきた。
インターネットバンキングの利用が絶え間なく増加し、多くのオンライン取引も不正行為を増やした。
詐欺の増加が不十分なように、大量のオンライン取引がデータ複雑さをさらに増大させた。
現代のデータソースは複雑であるだけでなく、高速かつリアルタイムに生成される。
これは深刻な問題であり、金融サービス会社やクレジットカード保有者を保護するために、より高度なソリューションが望まれる理由である。
そこで本研究では,顧客行動の変化に適応し,不正行為をリアルタイムに検出・フィルタリングすることにより,不正行為を減らしがちな効率的な不正検出モデルを構築することを目的とする。
この目的を達成するために,銀行部門,特にフルート検出事務所で働く個人的経験を付加して,様々な手法の見直しを行う。
本研究で提案するモデルは,多くのレビュー手法とは異なり,インクリメンタル分類器を用いて発生時に不正を検出できる。
一般的な実世界の攻撃を再現するドメインの専門家と共同で選択された詐欺シナリオに基づく合成データの評価は、このアプローチが複雑な詐欺を正しくランク付けしていることを示している。
特に, 本提案は, 極めて低いコストを維持しつつ, 最大97\%の確率で不正行為や異常を検知する。 The extensive use of the internet is continuously drifting businesses to incorporate their services in the online environment. One of the first spectrums to embrace this evolution was the banking sector. In fact, the first known online banking service came in 1980. It was deployed from a community bank located in Knoxville, called the United American Bank. Since then, internet banking has been offering ease and efficiency to costumers in completing their daily banking tasks. The ever increasing use of internet banking and a large number of online transactions increased fraudulent behavior also. As if fraud increase was not enough, the massive number of online transactions further increased the data complexity. Modern data sources are not only complex but generated at high speed and in real-time as well. This presents a serious problem and a definite reason why more advanced solutions are desired to protect financial service companies and credit cardholders. Therefore, this research paper aims to construct an efficient fraud detection model which is adaptive to customer behavior changes and tends to decrease fraud manipulation, by detecting and filtering fraud in real-time. In order to achieve this aim, a review of various methods is conducted, adding above a personal experience working in the Banking sector, specifically in the Fraud Detection office. Unlike the majority of reviewed methods, the proposed model in this research paper is able to detect fraud in the moment of occurrence using an incremental classifier. The evaluation of synthetic data, based on fraud scenarios selected in collaboration with domain experts that replicate typical, real-world attacks, shows that this approach correctly ranks complex frauds. In particular, our proposal detects fraudulent behavior and anomalies with up to 97\% detection rate while maintaining a satisfyingly low cost. | 翻訳日:2022-10-20 21:20:28 公開日:2020-09-08 |
# 単純な方が良い!
低リソーススロット充填とインテント分類のための軽量データ拡張 Simple is Better! Lightweight Data Augmentation for Low Resource Slot Filling and Intent Classification ( http://arxiv.org/abs/2009.03695v1 ) ライセンス: Link先を確認 | Samuel Louvan, Bernardo Magnini | (参考訳) かなり大きなドメイン内トレーニングデータが利用可能である場合、ニューラルネットワークモデルはスロット充填とインテント分類において優れたパフォーマンスを達成している。
しかし、新しいドメインが頻繁に追加されるため、大きなデータを作成するのはコストがかかる。
単語スパンと文レベルの操作を含む一連の拡張手法である軽量拡張が,データの不足を緩和することを示す。
制限データ設定実験により,ATISおよびSNIPSデータセットのスロットフィリングにおいて,軽量化により大幅な性能向上が達成され,より複雑で最先端な拡張アプローチに対する競合性能が達成された。
さらに、BERTベースのジョイントインテントとスロットフィリングモデルを改善することにより、事前訓練されたLMベースのモデルと組み合わせることで、軽量化も有益である。 Neural-based models have achieved outstanding performance on slot filling and intent classification, when fairly large in-domain training data are available. However, as new domains are frequently added, creating sizeable data is expensive. We show that lightweight augmentation, a set of augmentation methods involving word span and sentence level operations, alleviates data scarcity problems. Our experiments on limited data settings show that lightweight augmentation yields significant performance improvement on slot filling on the ATIS and SNIPS datasets, and achieves competitive performance with respect to more complex, state-of-the-art, augmentation approaches. Furthermore, lightweight augmentation is also beneficial when combined with pre-trained LM-based models, as it improves BERT-based joint intent and slot filling models. | 翻訳日:2022-10-20 21:13:07 公開日:2020-09-08 |
# ernie at semeval-2020 task 10: learning word emphasis selection by pre-trained language model ERNIE at SemEval-2020 Task 10: Learning Word Emphasis Selection by Pre-trained Language Model ( http://arxiv.org/abs/2009.03706v1 ) ライセンス: Link先を確認 | Zhengjie Huang, Shikun Feng, Weiyue Su, Xuyi Chen, Shuohuan Wang, Jiaxiang Liu, Xuan Ouyang, Yu Sun | (参考訳) 本稿では,SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual Mediaにおいて,ERNIE Teamによって設計されたシステムについて述べる。
文が与えられたら、自動設計の提案として最も重要な単語を見つけるように求められます。
教師なし事前学習モデルを活用し、これらのモデルをタスクで微調整します。
調査の結果,ERNIE 2.0, XLM-ROBERTA, ROBERTA, ALBERTの3つのモデルが優れた性能を示した。
ポイントワイズ回帰損失と、最終matchmメトリックに近いペアワイズランキング損失を組み合わせることで、モデルを微調整します。
さらに、追加の機能エンジニアリングとデータ拡張がパフォーマンス向上に役立つことも分かりました。
我々の最良のモデルは0.823の最高スコアを達成し、あらゆる種類の指標で第1位となる。 This paper describes the system designed by ERNIE Team which achieved the first place in SemEval-2020 Task 10: Emphasis Selection For Written Text in Visual Media. Given a sentence, we are asked to find out the most important words as the suggestion for automated design. We leverage the unsupervised pre-training model and finetune these models on our task. After our investigation, we found that the following models achieved an excellent performance in this task: ERNIE 2.0, XLM-ROBERTA, ROBERTA and ALBERT. We combine a pointwise regression loss and a pairwise ranking loss which is more close to the final M atchm metric to finetune our models. And we also find that additional feature engineering and data augmentation can help improve the performance. Our best model achieves the highest score of 0.823 and ranks first for all kinds of metrics | 翻訳日:2022-10-20 21:12:53 公開日:2020-09-08 |
# 会話傾向の因果効果の定量化 Quantifying the Causal Effects of Conversational Tendencies ( http://arxiv.org/abs/2009.03897v1 ) ライセンス: Link先を確認 | Justine Zhang, Sendhil Mullainathan, Cristian Danescu-Niculescu-Mizil | (参考訳) 効果的な会話につながるものを理解することは、より良いコンピュータによるコミュニケーションプラットフォームの設計に役立つ。
特に、以前の観察研究は、会話の効率と相関する個人の行動を特定することを模索してきた。
しかし、そのような相関関係を因果解釈に翻訳することは、より良い設計と政策を導くための規範的な方法でそれらを使用するための必要なステップである。
本研究では,会話行動と結果の因果関係を描く問題を形式的に記述する。
我々は,テキストベースの危機カウンセリングプラットフォームにおいて,過去の会話で示された行動傾向に基づいてカウンセラーを割り当てる方法について,特定のタイプの政策を決定することに集中する。
本稿では,無作為化試行の実施が困難な会話環境において,因果推論から導かれる議論を下記の課題に応用する。
最後に、我々は、これらの推論課題を特定のドメインで回避する方法を示し、結果として生じる規範的情報によって通知される割当ポリシーの潜在的な利点を説明する。 Understanding what leads to effective conversations can aid the design of better computer-mediated communication platforms. In particular, prior observational work has sought to identify behaviors of individuals that correlate to their conversational efficiency. However, translating such correlations to causal interpretations is a necessary step in using them in a prescriptive fashion to guide better designs and policies. In this work, we formally describe the problem of drawing causal links between conversational behaviors and outcomes. We focus on the task of determining a particular type of policy for a text-based crisis counseling platform: how best to allocate counselors based on their behavioral tendencies exhibited in their past conversations. We apply arguments derived from causal inference to underline key challenges that arise in conversational settings where randomized trials are hard to implement. Finally, we show how to circumvent these inference challenges in our particular domain, and illustrate the potential benefits of an allocation policy informed by the resulting prescriptive information. | 翻訳日:2022-10-20 21:12:36 公開日:2020-09-08 |
# 混合目的関数による半スーパービジョンテキスト分類のためのLSTMネットワークの再検討 Revisiting LSTM Networks for Semi-Supervised Text Classification via Mixed Objective Function ( http://arxiv.org/abs/2009.04007v1 ) ライセンス: Link先を確認 | Devendra Singh Sachan and Manzil Zaheer and Ruslan Salakhutdinov | (参考訳) 本稿では,教師付きと半教師付きの両方のアプローチを用いて,テキスト分類作業のための双方向LSTMネットワークについて検討する。
いくつかの先行研究は、言語モデリング(Dai, Le 2015, Miyato, Dai, Goodfellow 2016)や複雑なモデル(Johnson and Zhang 2017)のような教師なしの手法を用いた複雑な事前学習スキームが、高い分類精度を達成するために必要であることを示している。
しかし,クロスエントロピー損失をトレーニングする場合,単純なbilstmモデルであっても,より複雑なアプローチと比較して競争結果を達成するためのトレーニング戦略を開発する。
さらに,ラベル付きデータとラベル付きデータの両方に対して,エントロピー最小化,逆数,仮想対数損失の組み合わせを用いて,テキスト分類タスクの最先端結果について報告する。
特に、ACL-IMDBの感情分析とAG-Newsのトピック分類データセットにおいて、本手法は現在のアプローチよりもかなり優れている。
また,関係抽出タスクの性能を向上させることにより,混合目的関数の汎用性を示す。 In this paper, we study bidirectional LSTM network for the task of text classification using both supervised and semi-supervised approaches. Several prior works have suggested that either complex pretraining schemes using unsupervised methods such as language modeling (Dai and Le 2015; Miyato, Dai, and Goodfellow 2016) or complicated models (Johnson and Zhang 2017) are necessary to achieve a high classification accuracy. However, we develop a training strategy that allows even a simple BiLSTM model, when trained with cross-entropy loss, to achieve competitive results compared with more complex approaches. Furthermore, in addition to cross-entropy loss, by using a combination of entropy minimization, adversarial, and virtual adversarial losses for both labeled and unlabeled data, we report state-of-the-art results for text classification task on several benchmark datasets. In particular, on the ACL-IMDB sentiment analysis and AG-News topic classification datasets, our method outperforms current approaches by a substantial margin. We also show the generality of the mixed objective function by improving the performance on relation extraction task. | 翻訳日:2022-10-20 21:12:19 公開日:2020-09-08 |
# マルチタスクディープラーニングを用いた未知クラスによる少数ショットハイパースペクトル画像分類 Few-Shot Hyperspectral Image Classification With Unknown Classes Using Multitask Deep Learning ( http://arxiv.org/abs/2009.03508v1 ) ライセンス: Link先を確認 | Shengjie Liu, Qian Shi, and Liangpei Zhang | (参考訳) 現在のハイパースペクトル画像分類では、事前定義された分類システムは閉かつ完備であり、未知のデータには未知のクラスや新しいクラスは存在しないと仮定している。
しかし、この仮定は現実の世界には厳しすぎるかもしれない。
分類体系が構築されると、新しいクラスを見落としてしまうことが多い。
閉じた自然は、モデルに新しいサンプルが与えられたラベルを割り当てさせ、既知の土地被覆(例えば作物面積)を過大評価させる可能性がある。
そこで我々は,未知のクラスが存在するオープンワールド(MDL4OW)において,分類と再構築を同時に行うマルチタスク深層学習手法を提案する。
復元されたデータは元のデータと比較されるが、ラベルの欠如により潜在的な特徴によく表されていないという前提から復元できないものは未知であると考えられる。
未知のクラスと既知のクラスを分離するためには,しきい値を定義する必要がある。
提案手法は実世界のハイパースペクトラル画像を用いてテストを行い,salinasデータ全体の精度を4.94%向上させた。
オープン世界に未知のクラスが存在することを考慮し,より高精度なハイパースペクトル画像分類,特にマイノリティ・ショット・コンテキストを実現した。 Current hyperspectral image classification assumes that a predefined classification system is closed and complete, and there are no unknown or novel classes in the unseen data. However, this assumption may be too strict for the real world. Often, novel classes are overlooked when the classification system is constructed. The closed nature forces a model to assign a label given a new sample and may lead to overestimation of known land covers (e.g., crop area). To tackle this issue, we propose a multitask deep learning method that simultaneously conducts classification and reconstruction in the open world (named MDL4OW) where unknown classes may exist. The reconstructed data are compared with the original data; those failing to be reconstructed are considered unknown, based on the assumption that they are not well represented in the latent features due to the lack of labels. A threshold needs to be defined to separate the unknown and known classes; we propose two strategies based on the extreme value theory for few-shot and many-shot scenarios. The proposed method was tested on real-world hyperspectral images; state-of-the-art results were achieved, e.g., improving the overall accuracy by 4.94% for the Salinas data. By considering the existence of unknown classes in the open world, our method achieved more accurate hyperspectral image classification, especially under the few-shot context. | 翻訳日:2022-10-20 21:11:05 公開日:2020-09-08 |
# マルコフ鎖からの非パラメトリック密度推定 Nonparametric Density Estimation from Markov Chains ( http://arxiv.org/abs/2009.03937v1 ) ライセンス: Link先を確認 | Andrea De Simone, Alessandro Morandini | (参考訳) 我々は、マルコフ鎖に触発された新しい非パラメトリック密度推定器を導入し、よく知られたカーネル密度推定器(kde)を一般化する。
我々の推定器は, 通常のものに対していくつかの利点を示し, 全密度アルゴリズムの基盤として容易に利用できる。
推定器の整合性を証明し,大標本サイズと高次元の状況において,KDEよりも優れた結果が得られた。
また、密度推定器を用いて局所的な外れ値検出器を構築し、現実的なデータセットに適用した場合に非常に有望な結果を示す。 We introduce a new nonparametric density estimator inspired by Markov Chains, and generalizing the well-known Kernel Density Estimator (KDE). Our estimator presents several benefits with respect to the usual ones and can be used straightforwardly as a foundation in all density-based algorithms. We prove the consistency of our estimator and we find it typically outperforms KDE in situations of large sample size and high dimensionality. We also employ our density estimator to build a local outlier detector, showing very promising results when applied to some realistic datasets. | 翻訳日:2022-10-20 21:03:58 公開日:2020-09-08 |
# ファジィユニークな画像変換:深部covid-19モデルの敵対的攻撃に対する防御 Fuzzy Unique Image Transformation: Defense Against Adversarial Attacks On Deep COVID-19 Models ( http://arxiv.org/abs/2009.04004v1 ) ライセンス: Link先を確認 | Achyut Mani Tripathi, Ashish Mishra | (参考訳) 胸部x線とct画像で訓練された深層モデルを用いた新型コロナウイルスの早期診断は、新型コロナウイルスの活発な感染状況の特定を早めるために研究者から注目されている。
これらの深層モデルは、特に遠隔地における専門医や放射線技師の役に立たない病院の支援として機能する。
新型ウイルスの検出には様々な深層モデルが提案されているが、画像ピクセルの小さな摂動を利用して深層モデルが深層モデルを騙すことができる敵攻撃に対する深層モデルを防止するための研究はほとんど行われていない。
本報告では、対人攻撃に対する深層COVID-19モデルの性能評価について述べる。
また、画像画素を区間的にダウンサンプリングする効率的かつ効果的なファジィ一意画像変換(fuit)手法を提案する。
FUIT変換後の画像はさらに、新型コロナウイルスの診断精度を高く保ち、敵の攻撃に対する信頼性の高い防御を提供するセキュアな深層モデルの訓練に利用される。
実験と結果から,提案モデルは6つの敵攻撃に対する深層モデルを防止するとともに,胸部x線画像とct画像データセットからcovid-19症例を分類する精度を維持していることが示された。
また, 深層モデルを用いて新型コロナウイルスの診断を行うには, 注意深い検査が必要であることも示唆した。 Early identification of COVID-19 using a deep model trained on Chest X-Ray and CT images has gained considerable attention from researchers to speed up the process of identification of active COVID-19 cases. These deep models act as an aid to hospitals that suffer from the unavailability of specialists or radiologists, specifically in remote areas. Various deep models have been proposed to detect the COVID-19 cases, but few works have been performed to prevent the deep models against adversarial attacks capable of fooling the deep model by using a small perturbation in image pixels. This paper presents an evaluation of the performance of deep COVID-19 models against adversarial attacks. Also, it proposes an efficient yet effective Fuzzy Unique Image Transformation (FUIT) technique that downsamples the image pixels into an interval. The images obtained after the FUIT transformation are further utilized for training the secure deep model that preserves high accuracy of the diagnosis of COVID-19 cases and provides reliable defense against the adversarial attacks. The experiments and results show the proposed model prevents the deep model against the six adversarial attacks and maintains high accuracy to classify the COVID-19 cases from the Chest X-Ray image and CT image Datasets. The results also recommend that a careful inspection is required before practically applying the deep models to diagnose the COVID-19 cases. | 翻訳日:2022-10-20 21:03:03 公開日:2020-09-08 |
# COVIDNet-CT:胸部CT画像からCOVID-19症例を検出するためのニューラルネットワーク設計 COVIDNet-CT: A Tailored Deep Convolutional Neural Network Design for Detection of COVID-19 Cases from Chest CT Images ( http://arxiv.org/abs/2009.05383v1 ) ライセンス: Link先を確認 | Hayden Gunraj, Linda Wang, and Alexander Wong | (参考訳) 新型コロナウイルス(COVID-19)パンデミックは、世界中の患者や医療システムに深刻な影響を与え続けている。
In the fight against this novel disease, there is a pressing need for rapid and effective screening tools to identify patients infected with COVID-19, and to this end CT imaging has been proposed as one of the key screening methods which may be used as a complement to RT-PCR testing, particularly in situations where patients undergo routine CT scans for non-COVID-19 related reasons, patients with worsening respiratory status or developing complications that require expedited care, and patients suspected to be COVID-19-positive but have negative RT-PCR test results.
そこで本研究では,深層畳み込みニューラルネットワークアーキテクチャであるcovid-19-ctを,機械駆動設計による胸部ct画像から検出する方法について紹介する。
また,中国国立生体情報センターが収集したCT画像データから得られたベンチマークCT画像データセットであるCOVIDx-CTを紹介した。
さらに、信頼性と透明性に関心を抱く中で、説明可能性に基づくパフォーマンス検証戦略を利用して、COVIDNet-CTの意思決定行動を調査し、その過程で、CT画像の関連指標に基づいて、COVIDNet-CTが予測を行うようにする。
COVIDNet-CTとCOVIDx-CTデータセットはいずれも、COVID-Netイニシアチブの一部として、オープンソースかつオープンなアクセス方法で一般向けに提供されている。
COVIDNet-CTはまだプロダクション対応のスクリーニングソリューションではありませんが、モデルとデータセットのリリースによって、研究者、臨床医、市民データサイエンティストがそれらを活用して構築できることを願っています。 The coronavirus disease 2019 (COVID-19) pandemic continues to have a tremendous impact on patients and healthcare systems around the world. In the fight against this novel disease, there is a pressing need for rapid and effective screening tools to identify patients infected with COVID-19, and to this end CT imaging has been proposed as one of the key screening methods which may be used as a complement to RT-PCR testing, particularly in situations where patients undergo routine CT scans for non-COVID-19 related reasons, patients with worsening respiratory status or developing complications that require expedited care, and patients suspected to be COVID-19-positive but have negative RT-PCR test results. Motivated by this, in this study we introduce COVIDNet-CT, a deep convolutional neural network architecture that is tailored for detection of COVID-19 cases from chest CT images via a machine-driven design exploration approach. Additionally, we introduce COVIDx-CT, a benchmark CT image dataset derived from CT imaging data collected by the China National Center for Bioinformation comprising 104,009 images across 1,489 patient cases. Furthermore, in the interest of reliability and transparency, we leverage an explainability-driven performance validation strategy to investigate the decision-making behaviour of COVIDNet-CT, and in doing so ensure that COVIDNet-CT makes predictions based on relevant indicators in CT images. Both COVIDNet-CT and the COVIDx-CT dataset are available to the general public in an open-source and open access manner as part of the COVID-Net initiative. While COVIDNet-CT is not yet a production-ready screening solution, we hope that releasing the model and dataset will encourage researchers, clinicians, and citizen data scientists alike to leverage and build upon them. | 翻訳日:2022-10-20 21:02:39 公開日:2020-09-08 |
# ブラウン大学、trec deep learning 2019に参加 Brown University at TREC Deep Learning 2019 ( http://arxiv.org/abs/2009.04016v1 ) ライセンス: Link先を確認 | George Zerveas, Ruochen Zhang, Leila Kim, Carsten Eickhoff | (参考訳) 本稿では,ブラウン大学のTREC 2019 Deep Learningトラックへの提出について述べる。
第1フェーズでは、入力クエリを意味的に類似したクエリにリフレーズするようにトレーニングされたトランスフォーマーモデルによって生成された3つのクエリを追加することで、ユーザのクエリを拡張する。
拡張されたクエリは、表面形状と語彙が興味の通過と重なり合うことにより、下流情報検索方法に対する豊富な入力として機能することができる。
第2フェーズでは、言語モデリング用に事前訓練されたBERTベースのモデルを用いて、クエリドキュメント関連度予測を微調整し、クエリ毎の1000の候補パスに対する関連度スコアを計算し、予測された関連度スコアに基づいてそれらをソートすることで、パスのランク付けを行う。
TREC Deep Learning Track 2019のオフィシャルオーバービューで発表された結果によると、私たちのチームは、再ランクの申請のみを考慮すると、パス検索タスク(完全なランク付けと再ランク付けを含む)で3位、そして2位にランク付けしました。 This paper describes Brown University's submission to the TREC 2019 Deep Learning track. We followed a 2-phase method for producing a ranking of passages for a given input query: In the the first phase, the user's query is expanded by appending 3 queries generated by a transformer model which was trained to rephrase an input query into semantically similar queries. The expanded query can exhibit greater similarity in surface form and vocabulary overlap with the passages of interest and can therefore serve as enriched input to any downstream information retrieval method. In the second phase, we use a BERT-based model pre-trained for language modeling but fine-tuned for query - document relevance prediction to compute relevance scores for a set of 1000 candidate passages per query and subsequently obtain a ranking of passages by sorting them based on the predicted relevance scores. According to the results published in the official Overview of the TREC Deep Learning Track 2019, our team ranked 3rd in the passage retrieval task (including full ranking and re-ranking), and 2nd when considering only re-ranking submissions. | 翻訳日:2022-10-20 20:55:28 公開日:2020-09-08 |
# イベントログから生成モデルを発見する: データ駆動シミュレーションとディープラーニング Discovering Generative Models from Event Logs: Data-driven Simulation vs Deep Learning ( http://arxiv.org/abs/2009.03567v1 ) ライセンス: Link先を確認 | Manuel Camargo, Marlon Dumas, Oscar Gonzalez-Rojas | (参考訳) 生成モデルは、以前に観測されたデータから新しいデータインスタンスを生成する統計モデルである。
ビジネスプロセスのコンテキストでは、生成モデルは、イベントログとしても知られる一連の履歴トレースから新しい実行トレースを生成する。
データ駆動シミュレーションモデルとディープラーニングモデルという2種類の生成過程シミュレーションモデルが先行研究で開発されている。
これまでこれら2つのアプローチは独立して進化しており、相対的なパフォーマンスは研究されていない。
本稿では,データ駆動型シミュレーション手法と複数の深層学習手法を実証的に比較することにより,このギャップを埋める。
この研究は、両方のアプローチの相対的な強みに光を当て、これらの強みを組み合わせるハイブリッドアプローチの開発の可能性を高める。 A generative model is a statistical model that is able to generate new data instances from previously observed ones. In the context of business processes, a generative model creates new execution traces from a set of historical traces, also known as an event log. Two families of generative process simulation models have been developed in previous work: data-driven simulation models and deep learning models. Until now, these two approaches have evolved independently and their relative performance has not been studied. This paper fills this gap by empirically comparing a data-driven simulation technique with multiple deep learning techniques, which construct models are capable of generating execution traces with timestamped events. The study sheds light into the relative strengths of both approaches and raises the prospect of developing hybrid approaches that combine these strengths. | 翻訳日:2022-10-20 20:54:52 公開日:2020-09-08 |
# スマートフォンを用いた日々の活動認識によるエネルギー消費の推定 Energy Expenditure Estimation Through Daily Activity Recognition Using a Smart-phone ( http://arxiv.org/abs/2009.03681v1 ) ライセンス: Link先を確認 | Maxime De Bois, Hamdi Amroun, Mehdi Ammi | (参考訳) 本稿では,個人の実時間エネルギー消費を非侵入的に見積もる3段階システムを提案する。
まず、ユーザのスマートフォンのセンサーを使用して、彼の身体活動を認識する決定木モデルを構築します(\textit{running}, \textit{standing}, ...)。
次に,検出された身体活動,時刻,利用者の速度を用いて,部分観測可能なマルコフ決定プロセスフレームワークである強化学習環境を用いて,日々の行動(\textit{watching TV}, \textit{going to the bath}, ...)を推測する。
日常活動が認識されれば、この情報を身体活動のコンペジウムを用いてエネルギー支出に変換する。
90\%で8つの身体活動の検出に成功し、17の異なる日常活動を認識する総合的精度80\%に達した。
この結果から, 平均誤差が26 % である場合, 利用者のエネルギー消費量を推定する。 This paper presents a 3-step system that estimates the real-time energy expenditure of an individual in a non-intrusive way. First, using the user's smart-phone's sensors, we build a Decision Tree model to recognize his physical activity (\textit{running}, \textit{standing}, ...). Then, we use the detected physical activity, the time and the user's speed to infer his daily activity (\textit{watching TV}, \textit{going to the bathroom}, ...) through the use of a reinforcement learning environment, the Partially Observable Markov Decision Process framework. Once the daily activities are recognized, we translate this information into energy expenditure using the compendium of physical activities. By successfully detecting 8 physical activities at 90\%, we reached an overall accuracy of 80\% in recognizing 17 different daily activities. This result leads us to estimate the energy expenditure of the user with a mean error of 26\% of the expected estimation. | 翻訳日:2022-10-20 20:54:40 公開日:2020-09-08 |
# 広帯域DSAネットワークにおけるクロス層帯域選択とルーティング設計 Cross-layer Band Selection and Routing Design for Diverse Band-aware DSA Networks ( http://arxiv.org/abs/2009.03821v1 ) ライセンス: Link先を確認 | Pratheek S. Upadhyaya, Vijay K. Shah, and Jeffrey H. Reed | (参考訳) いくつかの新しいスペクトルバンドが共有利用のために開放されるにつれて、 \textit{diverse band-aware dynamic spectrum access} (d-dsa) の新しいパラダイムが出現した。
d-DSAは、ソフトウェア定義ラジオ(SDR)を備えたセカンダリデバイスを装備し、テレビ、LTE、市民ブロードバンドラジオサービス(CBRS)など、無許可のISMを含む \textit{multiple bands} のホワイトスペース(またはアイドルチャネル)を使用する。
本稿では、D-DSAネットワークのための階層間BAnd選択とルーティング設計(BARD)に基づく分散型オンラインマルチエージェント強化学習を提案する。
BARDはホワイトスペースを複数のスペクトル帯域で利用するだけでなく、これらの帯域の独特な電磁特性も考慮し、不均一なメッセージパケットのサービス品質(QoS)要件を最大化している。
広範にわたる実験により,BARD はメッセージ配信率の基準として dDSAaR アルゴリズムよりも高い性能を示したが,ネットワーク遅延が比較的高く,プライマリユーザやセカンダリユーザの数も多様であった。
さらに、BARDは、すべての考慮されたシナリオにおける両方のメトリクスの観点から、シングルバンドDSAのバリエーションを大幅に上回っている。 As several new spectrum bands are opening up for shared use, a new paradigm of \textit{Diverse Band-aware Dynamic Spectrum Access} (d-DSA) has emerged. d-DSA equips a secondary device with software defined radios (SDRs) and utilize whitespaces (or idle channels) in \textit{multiple bands}, including but not limited to TV, LTE, Citizen Broadband Radio Service (CBRS), unlicensed ISM. In this paper, we propose a decentralized, online multi-agent reinforcement learning based cross-layer BAnd selection and Routing Design (BARD) for such d-DSA networks. BARD not only harnesses whitespaces in multiple spectrum bands, but also accounts for unique electro-magnetic characteristics of those bands to maximize the desired quality of service (QoS) requirements of heterogeneous message packets; while also ensuring no harmful interference to the primary users in the utilized band. Our extensive experiments demonstrate that BARD outperforms the baseline dDSAaR algorithm in terms of message delivery ratio, however, at a relatively higher network latency, for varying number of primary and secondary users. Furthermore, BARD greatly outperforms its single-band DSA variants in terms of both the metrics in all considered scenarios. | 翻訳日:2022-10-20 20:54:24 公開日:2020-09-08 |
# 空間を限定したスパース行列の近似乗算 Approximate Multiplication of Sparse Matrices with Limited Space ( http://arxiv.org/abs/2009.03527v1 ) ライセンス: Link先を確認 | Yuanyu Wan and Lijun Zhang | (参考訳) 空間を限定した近似行列乗法は、大規模応用の出現により、ますます注目を集めている。
近年,一般的な行列スケッチアルゴリズムをベースとして,この問題に対する近似誤差を低減するための共起方向(COD)を導入している。
2つの入力行列に対して$O((m_x+m_y)\ell)$X\in\mathbb{R}^{m_x\times n}$と$Y\in\mathbb{R}^{m_y\times n}$はスケッチサイズであるが、その時間複雑性は$O\left(n(m_x+m_y+\ell)\right)$である。
本稿では,入力行列の間隔を利用して,時間的複雑性を低減することを提案する。
鍵となるアイデアは、sparsityを利用する近似特異値分解(svd)法を用いて、codが必要とするqr分解の数を減らすことである。
このようにして、時間複雑性を$\widetilde{O}\left((\nnz(X)+\nnz(Y))\ell+n\ell^2\right)$に減らし、同じ空間複雑性を$O((m_x+m_y)\ell)$と保ちながら、$\nnz(X)$は$X$のゼロでないエントリの数を表す。
理論的解析により,我々のアルゴリズムの近似誤差はCODとほぼ同じであることがわかった。
さらに,本アルゴリズムの効率と有効性を実証的に検証した。 Approximate matrix multiplication with limited space has received ever-increasing attention due to the emergence of large-scale applications. Recently, based on a popular matrix sketching algorithm---frequent directions, previous work has introduced co-occuring directions (COD) to reduce the approximation error for this problem. Although it enjoys the space complexity of $O((m_x+m_y)\ell)$ for two input matrices $X\in\mathbb{R}^{m_x\times n}$ and $Y\in\mathbb{R}^{m_y\times n}$ where $\ell$ is the sketch size, its time complexity is $O\left(n(m_x+m_y+\ell)\ell\right)$, which is still very high for large input matrices. In this paper, we propose to reduce the time complexity by exploiting the sparsity of the input matrices. The key idea is to employ an approximate singular value decomposition (SVD) method which can utilize the sparsity, to reduce the number of QR decompositions required by COD. In this way, we develop sparse co-occuring directions, which reduces the time complexity to $\widetilde{O}\left((\nnz(X)+\nnz(Y))\ell+n\ell^2\right)$ in expectation while keeps the same space complexity as $O((m_x+m_y)\ell)$, where $\nnz(X)$ denotes the number of non-zero entries in $X$. Theoretical analysis reveals that the approximation error of our algorithm is almost the same as that of COD. Furthermore, we empirically verify the efficiency and effectiveness of our algorithm. | 翻訳日:2022-10-20 20:47:52 公開日:2020-09-08 |
# 実験者直観を考慮した関数ベイズ最適化のための逐次部分空間探索 Sequential Subspace Search for Functional Bayesian Optimization Incorporating Experimenter Intuition ( http://arxiv.org/abs/2009.03543v1 ) ライセンス: Link先を確認 | Alistair Shilton, Sunil Gupta, Santu Rana, Svetha Venkatesh | (参考訳) ベイズ関数最適化のためのアルゴリズム,すなわち,ガウス過程の共分散関数に符号化された最適解の期待特性(長さスケール,滑らかさ,循環性など)に関する実験者信念と直感に導かれる過程を最適化する関数を求める。
本アルゴリズムは,実験者のガウス過程から引き出された一組の引き数で区切られた関数空間の有限次元ランダム部分空間列を生成する。
標準ベイズ最適化は各部分空間に適用され、最適な解は次の部分空間の出発点(origin)として用いられる。
有効次元の概念を用いてアルゴリズムの収束を解析し,有限有効次元が存在する限り,アルゴリズムが部分線形時間で収束することを示すための後悔を与える。
シミュレーションおよび実世界の実験,すなわちブラインド関数マッチング,アルミニウム合金の最適析出強化関数の探索,深層ネットワークの学習速度スケジュール最適化において,本アルゴリズムを検証した。 We propose an algorithm for Bayesian functional optimisation - that is, finding the function to optimise a process - guided by experimenter beliefs and intuitions regarding the expected characteristics (length-scale, smoothness, cyclicity etc.) of the optimal solution encoded into the covariance function of a Gaussian Process. Our algorithm generates a sequence of finite-dimensional random subspaces of functional space spanned by a set of draws from the experimenter's Gaussian Process. Standard Bayesian optimisation is applied on each subspace, and the best solution found used as a starting point (origin) for the next subspace. Using the concept of effective dimensionality, we analyse the convergence of our algorithm and provide a regret bound to show that our algorithm converges in sub-linear time provided a finite effective dimension exists. We test our algorithm in simulated and real-world experiments, namely blind function matching, finding the optimal precipitation-strengthening function for an aluminium alloy, and learning rate schedule optimisation for deep networks. | 翻訳日:2022-10-20 20:47:10 公開日:2020-09-08 |
# 解釈可能な表現による多変数時系列分類 Multivariable times series classification through an interpretable representation ( http://arxiv.org/abs/2009.03614v1 ) ライセンス: Link先を確認 | Francisco J. Bald\'an, Jos\'e M. Ben\'itez | (参考訳) 多変量時系列分類は、多くの情報ソースが利用可能な様々な分野(経済、健康、エネルギー、輸送、作物など)における新たな問題の増加によって重要度が増す課題である。
非変量環境において伝統的に働く手法の直接的外挿は、多変量問題の最良の結果を得るために頻繁に適用できない。
これは主に、これらの方法が多変量時系列に適合する異なる変数間の関係を捉えることができないためである。
これまでに発表された多変量提案は競争結果を提供するが、解釈が難しい。
本稿では,多変量時系列の異なる変数間の関係を考慮した記述的特徴の組を通して,時系列の代替表現を考える時系列分類法を提案する。
我々は,従来の分類アルゴリズムを適用し,解釈可能かつ競争的な結果を得た。 Multivariate time series classification is a task with increasing importance due to the proliferation of new problems in various fields (economy, health, energy, transport, crops, etc.) where a large number of information sources are available. Direct extrapolation of methods that traditionally worked in univariate environments cannot frequently be applied to obtain the best results in multivariate problems. This is mainly due to the inability of these methods to capture the relationships between the different variables that conform a multivariate time series. The multivariate proposals published to date offer competitive results but are hard to interpret. In this paper we propose a time series classification method that considers an alternative representation of time series through a set of descriptive features taking into account the relationships between the different variables of a multivariate time series. We have applied traditional classification algorithms obtaining interpretable and competitive results. | 翻訳日:2022-10-20 20:46:52 公開日:2020-09-08 |
# ユーザセグメンテーションと需要予測のためのトポロジーに基づくクラスタリグレッション Topology-based Clusterwise Regression for User Segmentation and Demand Forecasting ( http://arxiv.org/abs/2009.03661v1 ) ライセンス: Link先を確認 | Rodrigo Rivera-Castro, Aleksandr Pletnev, Polina Pilyugina, Grecia Diaz, Ivan Nazarov, Wanyi Zhu and Evgeny Burnaev | (参考訳) トポロジカルデータ解析 (TDA) は、そのトポロジ的構造の観点からデータセットを分析するための最近のアプローチである。
時系列データの利用は制限されている。
本稿では,ユーザセグメンテーションと需要予測を組み合わせたクラウドコンピューティングのリーディングプロバイダ向けに開発されたシステムを提案する。
顧客セグメンテーションのための一般的な管理フレームワークにインスパイアされた時系列のtdaベースのクラスタリング手法からなり、需要を予測するために行列分解法を用いてクラスタリグレッションを行う場合に拡張される。
顧客ロイヤリティの増大と正確な予測の生成は、研究者とマネージャの両方にとって活発な議論のトピックである。
本研究は,商用データの公開データと新規のプロプライエタリデータセットを用いて,ユーザベースと計画要求を,artベースラインの状態よりもはるかに高い精度で,粒度レベルでクラスタ化することが可能であることを示す。
そこで本研究では,TDAをベースとした時系列クラスタリングと行列因数分解手法によるクラスタ回帰を実践者にとって実行可能なツールとして提案する。 Topological Data Analysis (TDA) is a recent approach to analyze data sets from the perspective of their topological structure. Its use for time series data has been limited. In this work, a system developed for a leading provider of cloud computing combining both user segmentation and demand forecasting is presented. It consists of a TDA-based clustering method for time series inspired by a popular managerial framework for customer segmentation and extended to the case of clusterwise regression using matrix factorization methods to forecast demand. Increasing customer loyalty and producing accurate forecasts remain active topics of discussion both for researchers and managers. Using a public and a novel proprietary data set of commercial data, this research shows that the proposed system enables analysts to both cluster their user base and plan demand at a granular level with significantly higher accuracy than a state of the art baseline. This work thus seeks to introduce TDA-based clustering of time series and clusterwise regression with matrix factorization methods as viable tools for the practitioner. | 翻訳日:2022-10-20 20:46:39 公開日:2020-09-08 |
# グラフネットワークを用いたジョブショップスケジューリング問題の強化学習 Reinforcement Learning on Job Shop Scheduling Problems Using Graph Networks ( http://arxiv.org/abs/2009.03836v1 ) ライセンス: Link先を確認 | Mohammed Sharafath Abdul Hameed, Andreas Schwung | (参考訳) 本稿では,深層強化学習を用いたジョブショップスケジューリング問題に対する新しいアプローチを提案する。
生産環境の複雑さを考慮したグラフニューラルネットワークを用いて,生産環境内の様々な関係をモデル化する。
さらに,運用環境の変化に対して高い柔軟性を実現するために,学習エージェントを個別にリソースに割り当てる分散最適化問題としてjsspを採用した。
シングルリソースの生産スケジュールを最適化するために使用される分散rlエージェントは、必要な量のデータを得るためにプロダクション環境の共シミュレーションフレームワークと共に実行されている。
このアプローチは、マルチロボット環境と複雑なプロダクションスケジューリングベンチマーク環境に適用される。
最初の結果は,提案手法の適用可能性と性能を示す。 This paper presents a novel approach for job shop scheduling problems using deep reinforcement learning. To account for the complexity of production environment, we employ graph neural networks to model the various relations within production environments. Furthermore, we cast the JSSP as a distributed optimization problem in which learning agents are individually assigned to resources which allows for higher flexibility with respect to changing production environments. The proposed distributed RL agents used to optimize production schedules for single resources are running together with a co-simulation framework of the production environment to obtain the required amount of data. The approach is applied to a multi-robot environment and a complex production scheduling benchmark environment. The initial results underline the applicability and performance of the proposed method. | 翻訳日:2022-10-20 20:45:16 公開日:2020-09-08 |
# トラックベースポッドキャストのレコメンデーション Trajectory Based Podcast Recommendation ( http://arxiv.org/abs/2009.03859v1 ) ライセンス: Link先を確認 | Greg Benton, Ghazal Fazelnia, Alice Wang, Ben Carterette | (参考訳) Podcastのレコメンデーションは、新たな課題と機会を示す研究の領域が増えている。
個人は他のほとんどのメディアと異なる方法でポッドキャストと対話します。
ポッドキャストライブラリを順次移行したユーザを,成功して一貫したレコメンデーションが実現可能であることを示す。
将来のポッドキャストのレコメンデーションは、シーケンシャルな振る舞いから取られた軌道を使って行われる。
実験では,ユーザの行動が局所的な傾向に限定されていること,聴くパターンが類似したショーの短いシーケンスで見られる傾向があることの証拠を提供する。
最終的なアプローチは,協調フィルタリングベースラインよりもa450%効果的である。 Podcast recommendation is a growing area of research that presents new challenges and opportunities. Individuals interact with podcasts in a way that is distinct from most other media; and primary to our concerns is distinct from music consumption. We show that successful and consistent recommendations can be made by viewing users as moving through the podcast library sequentially. Recommendations for future podcasts are then made using the trajectory taken from their sequential behavior. Our experiments provide evidence that user behavior is confined to local trends, and that listening patterns tend to be found over short sequences of similar types of shows. Ultimately, our approach gives a450%increase in effectiveness over a collaborative filtering baseline. | 翻訳日:2022-10-20 20:45:05 公開日:2020-09-08 |
# 協調進化的相関探索による進化的強化学習 Evolutionary Reinforcement Learning via Cooperative Coevolutionary Negatively Correlated Search ( http://arxiv.org/abs/2009.03603v1 ) ライセンス: Link先を確認 | Hu Zhang, Peng Yang, Yanglong Yu, Mingjia Li, Ke Tang | (参考訳) 進化的アルゴリズム(EA)は、探索能力により強化学習(RL)タスクの最適化に成功している。
近年提案されている負相関探索 (ncs) は, 並列探索の振る舞いを提供し, rlをより効果的に行うことが期待されている。
一般的に採用されているニューラルポリシーは、最適化される数百万のパラメータを必要とするため、NCSのRLへの直接適用は、大規模な検索空間において大きな課題に直面する可能性がある。
そこで本稿では, NCS の並列探索動作を保ちつつ, NCS をスケールアップするための NCS フレンドリな協調的共進化(Cooperative Coevolution, CC) フレームワークを提案する。
NCS を悪化させる従来の CC の問題についても論じる。
10の人気のあるアタリゲームに関する実証研究により、提案手法は170万次元の探索空間を効果的に探索することにより、50%少ない計算時間で最先端の3つのRL法を著しく上回り得ることを示した。 Evolutionary algorithms (EAs) have been successfully applied to optimize the policies for Reinforcement Learning (RL) tasks due to their exploration ability. The recently proposed Negatively Correlated Search (NCS) provides a distinct parallel exploration search behavior and is expected to facilitate RL more effectively. Considering that the commonly adopted neural policies usually involves millions of parameters to be optimized, the direct application of NCS to RL may face a great challenge of the large-scale search space. To address this issue, this paper presents an NCS-friendly Cooperative Coevolution (CC) framework to scale-up NCS while largely preserving its parallel exploration search behavior. The issue of traditional CC that can deteriorate NCS is also discussed. Empirical studies on 10 popular Atari games show that the proposed method can significantly outperform three state-of-the-art deep RL methods with 50% less computational time by effectively exploring a 1.7 million-dimensional search space. | 翻訳日:2022-10-20 20:39:26 公開日:2020-09-08 |
# QED: 質問回答における説明のためのフレームワークとデータセット QED: A Framework and Dataset for Explanations in Question Answering ( http://arxiv.org/abs/2009.06354v1 ) ライセンス: Link先を確認 | Matthew Lamm, Jennimaria Palomaki, Chris Alberti, Daniel Andor, Eunsol Choi, Livio Baldini Soares, Michael Collins | (参考訳) 質問応答システムでは、回答の提供に加えて、その回答につながる推論の説明が、デバッグ可能性、拡張性、信頼という面で潜在的に有利である。
そこで本稿では,QEDを提案する。QEDとは,質問応答における説明のための言語的に理解され,拡張可能なフレームワークである。
QEDの説明は、質問と回答の関係を、参照的平等、文化、含意といった形式的な意味概念に基づいて特定する。
Google Natural Questionsデータセットのサブセット上に構築されたQED説明のエキスパートアノテートデータセットを記述および公開し、ホック後の説明生成と、共同回答と説明生成という2つのタスクのベースラインモデルを報告します。
共同環境では,比較的少量のQEDデータによるトレーニングが質問応答を改善する可能性が示唆された。
QEDアプローチの形式的言語理論的モチベーションを説明することに加えて、QED説明の存在は、訓練を受けていないラッカーが、強い神経質なQAベースラインによる誤りを見つける能力を大幅に向上させることを示す大規模なユーザスタディを述べる。 A question answering system that in addition to providing an answer provides an explanation of the reasoning that leads to that answer has potential advantages in terms of debuggability, extensibility and trust. To this end, we propose QED, a linguistically informed, extensible framework for explanations in question answering. A QED explanation specifies the relationship between a question and answer according to formal semantic notions such as referential equality, sentencehood, and entailment. We describe and publicly release an expert-annotated dataset of QED explanations built upon a subset of the Google Natural Questions dataset, and report baseline models on two tasks -- post-hoc explanation generation given an answer, and joint question answering and explanation generation. In the joint setting, a promising result suggests that training on a relatively small amount of QED data can improve question answering. In addition to describing the formal, language-theoretic motivations for the QED approach, we describe a large user study showing that the presence of QED explanations significantly improves the ability of untrained raters to spot errors made by a strong neural QA baseline. | 翻訳日:2022-10-20 20:38:59 公開日:2020-09-08 |
# 解釈可能な少数ショット画像分類のための領域比較ネットワーク Region Comparison Network for Interpretable Few-shot Image Classification ( http://arxiv.org/abs/2009.03558v1 ) ライセンス: Link先を確認 | Zhiyu Xue, Lixin Duan, Wen Li, Lin Chen and Jiebo Luo | (参考訳) ディープラーニングは多くの現実世界のコンピュータビジョンタスクにうまく適用されているが、堅牢な分類器のトレーニングは通常、大量のラベル付きデータを必要とする。
しかし、アノテーションはしばしば高価で時間がかかります。
これにより、ラベル付きサンプルの限られた数だけを有効活用して、新しいクラスのモデルを訓練するための画像分類が提案されている。
転送可能なメトリック学習法に基づく最近の研究は,クエリとサポートセットからのサンプルの特徴の類似性を学習することで,有望な分類性能を実現している。
しかし、これらの多くは、トレーニングフェーズ中に実際に明らかにできるモデル解釈可能性を明確に考慮している。
そこで本研究では,ニューラルネットワークと同様に,ショット学習がいかに少ないかを明らかにするとともに,クエリやサポートセットから得られる画像において,相互に関連のある特定の領域を探索することのできる,領域比較ネットワーク(rcn)と呼ばれるメトリック学習手法を提案する。
さらに,ネットワーク内の中間変数を可視化することによって,我々の手法が何を学んだのかを直感的に説明するための領域活性化マッピング (RAM) も提案する。
また、タスクのレベルからカテゴリまで、解釈可能性を一般化する新しい方法を提案し、rcnの最終決定を支持するための原型的な部分を見つける方法も見いだせる。
4つのベンチマークデータセットの大規模な実験により,既存のベースラインに対する提案手法の有効性が明らかとなった。 While deep learning has been successfully applied to many real-world computer vision tasks, training robust classifiers usually requires a large amount of well-labeled data. However, the annotation is often expensive and time-consuming. Few-shot image classification has thus been proposed to effectively use only a limited number of labeled examples to train models for new classes. Recent works based on transferable metric learning methods have achieved promising classification performance through learning the similarity between the features of samples from the query and support sets. However, rare of them explicitly considers the model interpretability, which can actually be revealed during the training phase. For that, in this work, we propose a metric learning based method named Region Comparison Network (RCN), which is able to reveal how few-shot learning works as in a neural network as well as to find out specific regions that are related to each other in images coming from the query and support sets. Moreover, we also present a visualization strategy named Region Activation Mapping (RAM) to intuitively explain what our method has learned by visualizing intermediate variables in our network. We also present a new way to generalize the interpretability from the level of tasks to categories, which can also be viewed as a method to find the prototypical parts for supporting the final decision of our RCN. Extensive experiments on four benchmark datasets clearly show the effectiveness of our method over existing baselines. | 翻訳日:2022-10-20 20:38:15 公開日:2020-09-08 |
# 脳波信号のスカルプトポグラフィーで表される独立成分からアーチファクトを自動的に検出する畳み込みニューラルネットワーク Convolutional Neural Networks for Automatic Detection of Artifacts from Independent Components Represented in Scalp Topographies of EEG Signals ( http://arxiv.org/abs/2009.03696v1 ) ライセンス: Link先を確認 | Giuseppe Placidi, Luigi Cinque, Matteo Polsinelli | (参考訳) 脳波計(EEG)は頭皮にセンサーを設置し、リアルタイムで脳活動を測定する。
脳波の有用な脳信号(UBS)を正しく解釈するためには、眼球運動や点眼、筋/心臓活動、一般的な電気的障害などによるアーチファクトの認識と排除が必要である。
独立成分分析(ICA)は、2Dの頭皮の地形(画像)に再投影される独立した成分(IC)に信号を分割するのに有効である。
これまで、脳波のゴールドスタンダードであるICトポロット分析は、人間の専門家によって視覚的に行われてきたため、自動応答型脳波では使用できない。
3種類の人工物とUBSの4つのクラスでトポロを分割できる2次元畳み込みニューラルネットワーク(CNN)に基づく,ICトポロによる脳波アーチファクト認識のための完全自動かつ効果的なフレームワークを提案する。
フレームワークの設定を説明し、その結果を他の競合戦略によって得られたものと比較する。
パブリックなEEGデータセットで実施された実験では、全体の精度は98%を超え、標準のPCでは1.4秒で32のトポロを分類している。
提案するフレームワークはリアルタイムではないが,高速応答型EEGベースのBrain-Computer Interfaces (BCI) に利用できるほど効率的であり,ICに基づく他の自動手法よりも高速である。 Electroencephalography (EEG) measures the electrical brain activity in real-time by using sensors placed on the scalp. Artifacts, due to eye movements and blink, muscular/cardiac activity and generic electrical disturbances, have to be recognized and eliminated to allow a correct interpretation of the useful brain signals (UBS) of EEG. Independent Component Analysis (ICA) is effective to split the signal into independent components (ICs) whose re-projections on 2D scalp topographies (images), also called topoplots, allow to recognize/separate artifacts and by UBS. Until now, IC topoplot analysis, a gold standard in EEG, has been carried on visually by human experts and, hence, not usable in automatic, fast-response EEG. We present a completely automatic and effective framework for EEG artifact recognition by IC topoplots, based on 2D Convolutional Neural Networks (CNNs), capable to divide topoplots in 4 classes: 3 types of artifacts and UBS. The framework setup is described and results are presented, discussed and compared with those obtained by other competitive strategies. Experiments, carried on public EEG datasets, have shown an overall accuracy of above 98%, employing 1.4 sec on a standard PC to classify 32 topoplots, that is to drive an EEG system of 32 sensors. Though not real-time, the proposed framework is efficient enough to be used in fast-response EEG-based Brain-Computer Interfaces (BCI) and faster than other automatic methods based on ICs. | 翻訳日:2022-10-20 20:37:53 公開日:2020-09-08 |
# 深層学習による依存変数の理解と爆発 Understanding and Exploiting Dependent Variables with Deep Metric Learning ( http://arxiv.org/abs/2009.03820v1 ) ライセンス: Link先を確認 | Niall O' Mahony, Sean Campbell, Anderson Carvalho, Lenka Krpalkova, Gustavo Velasco-Hernandez, Daniel Riordan, Joseph Walsh | (参考訳) ディープメトリックラーニング(DML)アプローチは、この空間における表現間の距離が、予め定義された類似性の概念と一致するように、低次元の潜在空間への入力を表現することを学ぶ。
本稿では、任意の分類問題における有意な特徴が時間とともに変化する状況や、基礎となる変数の変化により、DMLのマッピング要素がどのように利用されるかを検討する。
そのような特徴の例としては、自律航行のための場所認識タスクにおける屋外シーンの季節的および時間的変動と、医学・倫理研究の分類タスクにおける人間/動物被験者の年齢・性別の変動がある。
事前情報が利用可能なクエリ変数毎のdml表現の分布を可視化するツールを使用することにより、分類タスクにおける各変数の影響をより理解することができる。
これらの関係に基づき、これらの厳密な背景変数に関する事前情報は、クラスタリングアルゴリズムを用いて分類性能を向上させることにより、DMLアプローチの推論段階で利用することができる。
本研究では,クエリバックグラウンド変数の正当性を確立し,クラスタリングアルゴリズムを定式化する手法を提案する。
また,DML手法の組込みギャラリーにおいて,データの質と多様性を保存し,各クラスを表現するためのオンライン管理戦略についても論じる。
また、DMLによる基礎変数・複数変数の関連性を理解するための潜伏作業についても論じる。 Deep Metric Learning (DML) approaches learn to represent inputs to a lower-dimensional latent space such that the distance between representations in this space corresponds with a predefined notion of similarity. This paper investigates how the mapping element of DML may be exploited in situations where the salient features in arbitrary classification problems vary over time or due to changing underlying variables. Examples of such variable features include seasonal and time-of-day variations in outdoor scenes in place recognition tasks for autonomous navigation and age/gender variations in human/animal subjects in classification tasks for medical/ethological studies. Through the use of visualisation tools for observing the distribution of DML representations per each query variable for which prior information is available, the influence of each variable on the classification task may be better understood. Based on these relationships, prior information on these salient background variables may be exploited at the inference stage of the DML approach by using a clustering algorithm to improve classification performance. This research proposes such a methodology establishing the saliency of query background variables and formulating clustering algorithms for better separating latent-space representations at run-time. The paper also discusses online management strategies to preserve the quality and diversity of data and the representation of each class in the gallery of embeddings in the DML approach. We also discuss latent works towards understanding the relevance of underlying/multiple variables with DML. | 翻訳日:2022-10-20 20:37:23 公開日:2020-09-08 |
# 高スループット関係抽出アルゴリズムの開発 : 知識記事と電子健康記録の関連 High-throughput relation extraction algorithm development associating knowledge articles and electronic health records ( http://arxiv.org/abs/2009.03506v1 ) ライセンス: Link先を確認 | Yucong Lin, Keming Lu, Yulin Chen, Chuan Hong, Sheng Yu | (参考訳) 目的:医療関係は、医療人工知能に必要な医療知識グラフの中核的な構成要素である。
しかし、従来のアルゴリズム開発プロセスによる専門家アノテーションの要求は、新しい関係をマイニングするための大きなボトルネックを生み出している。
本稿では,ハイスループット関係抽出アルゴリズム開発のためのフレームワークであるhi-resを提案する。
また,知識項目と電子健康記録(EHR)を組み合わせることで,分類精度が著しく向上することを示した。
方法: 対象コーパスからの文を正のトレーニングサンプルとしてラベル付けするために, 構造化データベースと半構造化Webページから得られた関係トリプレットを用いる。
また、正のサンプルと「陰性」のサンプルを組み合わせることにより、改善された負のサンプルを作成するための2つの方法も提供される。
本稿では,大規模事前学習された言語モデルとマルチインテンス・アテンションを用いて文情報を要約する共通モデルを提案する。
結果: hi-resフレームワークを応用して,障害-不規則関係と障害-位置関係の分類アルゴリズムを開発した。
数百万の文がトレーニングデータとして作成されます。
事前訓練された言語モデルとEHRベースの埋め込みを使用することで、以前のモデルよりもかなり精度が向上する。
それらを結合することで、それぞれ前のモデルよりも10~17ポイント高い2つの関係集合に対して0.947と0.998の精度が大幅に向上する。
結論: Hi-RES は高スループットかつ高精度な関係抽出アルゴリズム開発を実現するための効率的なフレームワークである。 Objective: Medical relations are the core components of medical knowledge graphs that are needed for healthcare artificial intelligence. However, the requirement of expert annotation by conventional algorithm development processes creates a major bottleneck for mining new relations. In this paper, we present Hi-RES, a framework for high-throughput relation extraction algorithm development. We also show that combining knowledge articles with electronic health records (EHRs) significantly increases the classification accuracy. Methods: We use relation triplets obtained from structured databases and semistructured webpages to label sentences from target corpora as positive training samples. Two methods are also provided for creating improved negative samples by combining positive samples with na\"ive negative samples. We propose a common model that summarizes sentence information using large-scale pretrained language models and multi-instance attention, which then joins with the concept embeddings trained from the EHRs for relation prediction. Results: We apply the Hi-RES framework to develop classification algorithms for disorder-disorder relations and disorder-location relations. Millions of sentences are created as training data. Using pretrained language models and EHR-based embeddings individually provides considerable accuracy increases over those of previous models. Joining them together further tremendously increases the accuracy to 0.947 and 0.998 for the two sets of relations, respectively, which are 10-17 percentage points higher than those of previous models. Conclusion: Hi-RES is an efficient framework for achieving high-throughput and accurate relation extraction algorithm development. | 翻訳日:2022-10-20 20:36:01 公開日:2020-09-08 |
# 部分観測可能なMDPの深部能動推論 Deep Active Inference for Partially Observable MDPs ( http://arxiv.org/abs/2009.03622v1 ) ライセンス: Link先を確認 | Otto van der Himst, Pablo Lanillos | (参考訳) 深い能動推論は、大きな政策や状態空間を扱う知覚と行動に対するスケーラブルなアプローチとして提案されている。
しかし、現在のモデルは完全な観測可能な領域に限られている。
本稿では,高次元感覚入力から直接ポリシーを学習できる深層能動推論モデルについて述べる。
ディープラーニングアーキテクチャは、期待される自由エネルギーの変形を最適化し、変分オートエンコーダによって連続状態表現を符号化する。
OpenAIベンチマークでは、我々のアプローチは最先端の深層強化学習アルゴリズムである深部Q-ラーニングと同等か、あるいは優れたパフォーマンスを示している。 Deep active inference has been proposed as a scalable approach to perception and action that deals with large policy and state spaces. However, current models are limited to fully observable domains. In this paper, we describe a deep active inference model that can learn successful policies directly from high-dimensional sensory inputs. The deep learning architecture optimizes a variant of the expected free energy and encodes the continuous state representation by means of a variational autoencoder. We show, in the OpenAI benchmark, that our approach has comparable or better performance than deep Q-learning, a state-of-the-art deep reinforcement learning algorithm. | 翻訳日:2022-10-20 20:29:58 公開日:2020-09-08 |
# TanhSoft -- TanhとSoftplusを組み合わせたアクティベーション機能のファミリー TanhSoft -- a family of activation functions combining Tanh and Softplus ( http://arxiv.org/abs/2009.03863v1 ) ライセンス: Link先を確認 | Koushik Biswas, Sandeep Kumar, Shilpak Banerjee, Ashish Kumar Pandey | (参考訳) 中心となるディープラーニングは、活性化関数として知られる非線形関数を持つ線形変換を構成する関数を含む。
近年,新しい活性化機能の構築への関心が高まっており,学習の質が向上している。
本研究では,tanh({\alpha}x+{\beta}e^{{\gamma}x})ln({\delta}+e^x)の4つの未決定ハイパーパラメータを持つ新しい活性化関数tanhsoftの族を提案し,それらのハイパーパラメータをチューニングして,いくつかの既知の活性化関数を上回る活性化関数を得る。
例えば、ReLUをxtanh(0.6e^x)に置き換えると、CIFAR-10では0.46%、Inception-v3では0.7%、CIFAR-100ではTanh(0.87x)ln(1 +e^x)でトップ1分類精度が1.24%、SimpleNetモデルでは2.57%向上する。 Deep learning at its core, contains functions that are composition of a linear transformation with a non-linear function known as activation function. In past few years, there is an increasing interest in construction of novel activation functions resulting in better learning. In this work, we propose a family of novel activation functions, namely TanhSoft, with four undetermined hyper-parameters of the form tanh({\alpha}x+{\beta}e^{{\gamma}x})ln({\delta}+e^x) and tune these hyper-parameters to obtain activation functions which are shown to outperform several well known activation functions. For instance, replacing ReLU with xtanh(0.6e^x)improves top-1 classification accuracy on CIFAR-10 by 0.46% for DenseNet-169 and 0.7% for Inception-v3 while with tanh(0.87x)ln(1 +e^x) top-1 classification accuracy on CIFAR-100 improves by 1.24% for DenseNet-169 and 2.57% for SimpleNet model. | 翻訳日:2022-10-20 20:29:49 公開日:2020-09-08 |
# 分割型貯留層サンプリングによる不均衡連続学習 Imbalanced Continual Learning with Partitioning Reservoir Sampling ( http://arxiv.org/abs/2009.03632v1 ) ライセンス: Link先を確認 | Chris Dongjoo Kim, Jinseo Jeong, and Gunhee Kim | (参考訳) シーケンシャルなデータストリームからの継続的な学習は、機械学習研究にとって重要な課題である。
多くの研究は、バランスのとれたラベル分布の仮定とともに、シングルラベル分類設定の下で行われている。
この研究は、マルチラベル分類に向けた研究の地平を広げる。
その際,多くのマルチラベルデータセット,すなわちロングテール分布に存在する予期せぬ逆行を識別する。
本稿は,まず,少数派の概念を忘れてしまうという新たな課題を実証的に示すことによって,独立に解決された2つの問題,カタストロピックフォーッティングと長い尾のラベル分布を共同で解決する。
次に、COCOseqとNUS-WIDEseqという2つのベンチマークデータセットをキュレートし、タスク内およびタスク間不均衡の研究を可能にする。
最後に,Reservoir Smpling (PRS) と呼ばれるリプレイ型アプローチのための新しいサンプリング手法を提案する。
データセットとコードはプロジェクトのページで公開しています。 Continual learning from a sequential stream of data is a crucial challenge for machine learning research. Most studies have been conducted on this topic under the single-label classification setting along with an assumption of balanced label distribution. This work expands this research horizon towards multi-label classification. In doing so, we identify unanticipated adversity innately existent in many multi-label datasets, the long-tailed distribution. We jointly address the two independently solved problems, Catastropic Forgetting and the long-tailed label distribution by first empirically showing a new challenge of destructive forgetting of the minority concepts on the tail. Then, we curate two benchmark datasets, COCOseq and NUS-WIDEseq, that allow the study of both intra- and inter-task imbalances. Lastly, we propose a new sampling strategy for replay-based approach named Partitioning Reservoir Sampling (PRS), which allows the model to maintain a balanced knowledge of both head and tail classes. We publicly release the dataset and the code in our project page. | 翻訳日:2022-10-20 20:29:20 公開日:2020-09-08 |
# マルチモーダル変分法におけるより表現力のあるジョイント分布の学習 Learning more expressive joint distributions in multimodal variational methods ( http://arxiv.org/abs/2009.03651v1 ) ライセンス: Link先を確認 | Sasho Nedelkoski, Mihail Bogojeski, Odej Kao | (参考訳) データはしばしば複数のモードで形成され、観測された現象を共同で記述する。
マルチモーダルデータの連成分布をモデル化するには,高レベルの概念を捉え,より優れたデータ表現を提供するために,より大きな表現力が必要である。
しかし、変分推論に基づく多重モーダル生成モデルは、既知のパラメトリック分布の族内を探索することによって得られる近似後続の柔軟性の欠如により制限される。
正規化フローを用いたマルチモーダル変分法の表現能力を向上させる手法を提案する。
単純なパラメトリック分布で関節後方を近似し、その後より複雑なものへと変換する。
いくつかの実験を通じて,カラー化,エッジ・マスク検出,弱い教師付き学習といった様々なコンピュータビジョンタスクにおける変分推論に基づく,最先端のマルチモーダル手法を改良できることを実証した。
また,より強力な近似ジョイント分布の学習により,生成したサンプルの品質が向上することを示す。
私たちのモデルのコードはhttps://github.com/SashoNedelkoski/BPFDMVMで公開されています。 Data often are formed of multiple modalities, which jointly describe the observed phenomena. Modeling the joint distribution of multimodal data requires larger expressive power to capture high-level concepts and provide better data representations. However, multimodal generative models based on variational inference are limited due to the lack of flexibility of the approximate posterior, which is obtained by searching within a known parametric family of distributions. We introduce a method that improves the representational capacity of multimodal variational methods using normalizing flows. It approximates the joint posterior with a simple parametric distribution and subsequently transforms into a more complex one. Through several experiments, we demonstrate that the model improves on state-of-the-art multimodal methods based on variational inference on various computer vision tasks such as colorization, edge and mask detection, and weakly supervised learning. We also show that learning more powerful approximate joint distributions improves the quality of the generated samples. The code of our model is publicly available at https://github.com/SashoNedelkoski/BPFDMVM. | 翻訳日:2022-10-20 20:29:03 公開日:2020-09-08 |
# ニューラルネットワークに基づく回帰におけるストレッチ確率分布の実証的戦略 Empirical Strategy for Stretching Probability Distribution in Neural-network-based Regression ( http://arxiv.org/abs/2009.03534v1 ) ライセンス: Link先を確認 | Eunho Koo and Hyungjun Kim | (参考訳) ニューラルネットワーク下での回帰解析では、予測性能は層間の適切な重み決定に依存する。
乱初期化重みは、所定の損失関数の下で勾配降下手順を用いてバックプロパゲーション中に更新されるので、損失関数構造は性能に大きな影響を与える。
本研究では,2つの分布の矛盾,すなわち予測値とラベルの矛盾を予測誤差として検討し,2つの分布の重み付け面積を増大させる新しい損失関数として重み付き経験的ストレッチ(WES)を提案する。
この関数は与えられたラベルの分布に依存するので、任意の分布形状に適用できる。
さらに、スケーリングハイパーパラメータを含み、適切なパラメータ値は2つの分布の共通セクションを最大化する。
この機能をテストするために, 理想的な分散曲線 (unimodal, skewed unimodal, bimodal, skewed bimodal) をラベルとして生成し, フィードフォワードニューラルネットワークによる曲線からのフーリエ抽出入力データを用いた。
一般にwesは損失関数を広範囲に上回り,性能は様々な雑音レベルに対して頑健であった。
極端領域(分布の両尾領域)におけるRMSEの改善結果は、自然災害や金融危機などの非線形複雑系における異常事象の予測に利用されることが期待されている。 In regression analysis under artificial neural networks, the prediction performance depends on determining the appropriate weights between layers. As randomly initialized weights are updated during back-propagation using the gradient descent procedure under a given loss function, the loss function structure can affect the performance significantly. In this study, we considered the distribution error, i.e., the inconsistency of two distributions (those of the predicted values and label), as the prediction error, and proposed weighted empirical stretching (WES) as a novel loss function to increase the overlap area of the two distributions. The function depends on the distribution of a given label, thus, it is applicable to any distribution shape. Moreover, it contains a scaling hyperparameter such that the appropriate parameter value maximizes the common section of the two distributions. To test the function capability, we generated ideal distributed curves (unimodal, skewed unimodal, bimodal, and skewed bimodal) as the labels, and used the Fourier-extracted input data from the curves under a feedforward neural network. In general, WES outperformed loss functions in wide use, and the performance was robust to the various noise levels. The improved results in RMSE for the extreme domain (i.e., both tail regions of the distribution) are expected to be utilized for prediction of abnormal events in non-linear complex systems such as natural disaster and financial crisis. | 翻訳日:2022-10-20 20:28:24 公開日:2020-09-08 |
# 集中治療における深部モデルの解釈可能性の向上:糖尿病患者の血糖予測への応用 Enhancing the Interpretability of Deep Models in Heathcare Through Attention: Application to Glucose Forecasting for Diabetic People ( http://arxiv.org/abs/2009.03732v1 ) ライセンス: Link先を確認 | Maxime De Bois, Moun\^im A. El Yacoubi, Mehdi Ammi | (参考訳) 医療におけるディープラーニングの採用は、その“ブラックボックス”の性質によって妨げられている。
本稿では,糖尿病患者のグルソース予測のためのRETAINアーキテクチャについて検討する。
2段階の注意機構を用いることで、リカレントニューラルネットワークベースのRETAINモデルを解釈できる。
2型idiabと1型オハイオt1dmデータセットの保持モデルについて,2つの深部モデルと3つの決定木モデルとの比較により評価した。
本稿では,RETAINモデルが精度と解釈可能性の妥協を極めて良好に実現し,LSTMモデルとFCNモデルとほぼ同等の精度で解釈可能であることを示す。
最終予測に対する各変数の寄与を分析することにより,解釈可能な性質の有用性を示す。
その結果、グルコースの時間予測よりも30分前の保留モデルでは信号値が1時間以上使われないことが判明した。
また,保留モデルが炭水化物摂取やインスリン注入などのイベントの到来時にどのように行動を変えるかを示す。
特に,イベント前の患者の状態は,予測に特に重要であることが明らかとなった。
全体として、RETAINモデルは、解釈可能性のおかげで、医療における回帰や分類タスクにおいて非常に許容されるモデルであるようだ。 The adoption of deep learning in healthcare is hindered by their "black box" nature. In this paper, we explore the RETAIN architecture for the task of glusose forecasting for diabetic people. By using a two-level attention mechanism, the recurrent-neural-network-based RETAIN model is interpretable. We evaluate the RETAIN model on the type-2 IDIAB and the type-1 OhioT1DM datasets by comparing its statistical and clinical performances against two deep models and three models based on decision trees. We show that the RETAIN model offers a very good compromise between accuracy and interpretability, being almost as accurate as the LSTM and FCN models while remaining interpretable. We show the usefulness of its interpretable nature by analyzing the contribution of each variable to the final prediction. It revealed that signal values older than one hour are not used by the RETAIN model for the 30-minutes ahead of time prediction of glucose. Also, we show how the RETAIN model changes its behavior upon the arrival of an event such as carbohydrate intakes or insulin infusions. In particular, it showed that the patient's state before the event is particularily important for the prediction. Overall the RETAIN model, thanks to its interpretability, seems to be a very promissing model for regression or classification tasks in healthcare. | 翻訳日:2022-10-20 20:27:57 公開日:2020-09-08 |
# CONDA-PM -- プロセスマイニングにおける概念ドリフト分析のためのシステムレビューとフレームワーク CONDA-PM -- A Systematic Review and Framework for Concept Drift Analysis in Process Mining ( http://arxiv.org/abs/2009.05438v1 ) ライセンス: Link先を確認 | Ghada Elkhawaga, Mervat Abuelkheir, Sherif I. Barakat, Alaa M. Riad and Manfred Reichert | (参考訳) ビジネスプロセスは時間とともに進化し、変化するビジネス環境に適応します。
これは、ビジネスプロセスを継続的に監視し、意図した設計に適合するか、それから逸脱するかについて洞察を得る必要がある。
分析中にビジネスプロセスが変化する状況は、コンセプトドリフト(concept Drift)と表現される。
その分析は、ビジネスプロセスがどのように変化するか、変化の検出とローカライズ、そして後者の影響を研究することに関するものである。
概念ドリフト分析は、変化の早期発見と管理を可能にするために不可欠である。つまり、変更を改善プロセスの一部として推進するか、あるいは変更を拒否し、その効果を緩和する決定を下すかである。
その重要性にもかかわらず、コンセプトドリフトタイプ、影響のあるプロセス視点、そしてビジネスプロセスの粒度レベルを分析するための包括的なフレームワークは存在しない。
本稿では,プロセスマイニング(conda-pm)フレームワークにおけるドリフト解析の概念ドリフト解析について述べる。
CONDA-PMは、概念ドリフトを分析する現在のアプローチの体系的文献レビュー(SLR)に由来する。
我々は,conda-pmフレームワークを概念ドリフト解析の現在のアプローチに適用し,その成熟度を評価する。
CONDA-PMフレームワークの適用は、既存の取り組みを補完するために研究が必要な領域を強調します。 Business processes evolve over time to adapt to changing business environments. This requires continuous monitoring of business processes to gain insights into whether they conform to the intended design or deviate from it. The situation when a business process changes while being analysed is denoted as Concept Drift. Its analysis is concerned with studying how a business process changes, in terms of detecting and localising changes and studying the effects of the latter. Concept drift analysis is crucial to enable early detection and management of changes, that is, whether to promote a change to become part of an improved process, or to reject the change and make decisions to mitigate its effects. Despite its importance, there exists no comprehensive framework for analysing concept drift types, affected process perspectives, and granularity levels of a business process. This article proposes the CONcept Drift Analysis in Process Mining (CONDA-PM) framework describing phases and requirements of a concept drift analysis approach. CONDA-PM was derived from a Systematic Literature Review (SLR) of current approaches analysing concept drift. We apply the CONDA-PM framework on current approaches to concept drift analysis and evaluate their maturity. Applying CONDA-PM framework highlights areas where research is needed to complement existing efforts. | 翻訳日:2022-10-20 20:27:11 公開日:2020-09-08 |
# 使用者の確率的予測--心理言語モデルにおける言語モデル性能の指標評価 Probabilistic Predictions of People Perusing: Evaluating Metrics of Language Model Performance for Psycholinguistic Modeling ( http://arxiv.org/abs/2009.03954v1 ) ライセンス: Link先を確認 | Yiding Hao, Simon Mendelsohn, Rachel Sterneck, Randi Martinez, Robert Frank | (参考訳) 自然主義的読解時間と情報理論的超越の関係を仮定することで、超越理論(hale, 2001; levy, 2008)は言語モデルと精神言語モデルの間の自然なインターフェイスを提供する。
本論文は,goodkind と bicknell (2018) による言語モデルの可読時間のモデル化能力がパープレキシティの線形関数であるという主張を再評価する。
グッドキンドとビックネルの分析を現代のニューラルアーキテクチャに拡張することにより、提案された関係が常に長期記憶ネットワーク、トランスフォーマー、事前訓練されたモデルで成り立つとは限らないことを示す。
本稿では,人間の被験者から測定したクローズ確率に基づく予測可能性規範相関と呼ばれる言語モデル性能の代替尺度を提案する。
我々の新しい指標は、言語モデルの品質と心理言語モデルのパフォーマンスのより堅牢な関係をもたらし、異なるトレーニング構成のモデルの比較を可能にします。 By positing a relationship between naturalistic reading times and information-theoretic surprisal, surprisal theory (Hale, 2001; Levy, 2008) provides a natural interface between language models and psycholinguistic models. This paper re-evaluates a claim due to Goodkind and Bicknell (2018) that a language model's ability to model reading times is a linear function of its perplexity. By extending Goodkind and Bicknell's analysis to modern neural architectures, we show that the proposed relation does not always hold for Long Short-Term Memory networks, Transformers, and pre-trained models. We introduce an alternate measure of language modeling performance called predictability norm correlation based on Cloze probabilities measured from human subjects. Our new metric yields a more robust relationship between language model quality and psycholinguistic modeling performance that allows for comparison between models with different training configurations. | 翻訳日:2022-10-20 20:26:52 公開日:2020-09-08 |