このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200520となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# シリコン中のドナー核スピン量子ビットの高速ノイズ耐性制御 Fast noise-resistant control of donor nuclear spin qubits in silicon ( http://arxiv.org/abs/2001.10029v2 ) ライセンス: Link先を確認 | James Simon, F. A. Calderon-Vargas, Edwin Barnes, Sophia E. Economou | (参考訳) 高い制御性と長いコヒーレンス時間により、等方的に精製されたシリコン中のリンドナーの核スピンが量子ビットの候補となる。
しかし、長距離2ビット結合と高速でロバストなゲートは、これらのシステムにとって際立った課題である。
ここでは、双極子-双極子相互作用による長距離結合に関する最近の提案に続いて、電荷ノイズのない高速で高忠実な単一および2ビットゲートを実装するための簡単な方法を提案する。
さらに, 単一量子ゲートを適度な電荷雑音に安定させ, 誤差境界10^{-3}$の範囲内で良好に動作させる手法を提案する。 A high degree of controllability and long coherence time make the nuclear spin of a phosphorus donor in isotopically purified silicon a promising candidate for a quantum bit. However, long-distance two-qubit coupling and fast, robust gates remain outstanding challenges for these systems. Here, following recent proposals for long-distance coupling via dipole-dipole interactions, we present a simple method to implement fast, high-fidelity arbitrary single- and two-qubit gates in the absence of charge noise. Moreover, we provide a method to make the single-qubit gates robust to moderate levels of charge noise to well within an error bound of $10^{-3}$. | 翻訳日:2023-06-05 11:42:46 公開日:2020-05-20 |
# 量子情報処理用マルチコアファイバ集積マルチポートビームスプリッター Multi-core fiber integrated multi-port beamsplitters for quantum information processing ( http://arxiv.org/abs/2001.11056v2 ) ライセンス: Link先を確認 | J. Cari\~ne, G. Ca\~nas, P. Skrzypczyk, I. \v{S}upi\'c, N. Guerrero, T. Garcia, L. Pereira, M. A. S. Prosser, G. B. Xavier, A. Delgado, S. P. Walborn, D. Cavalcanti and G. Lima | (参考訳) マルチポートビームスプリッターは、高次元量子情報処理のための基礎的な装置であり、2次元よりも優れている。
それにもかかわらず、そのようなデバイスの製造は、統合フォトニクスの出現によって最近になって達成された進歩に挑戦することが証明されている。
本報告では, マルチコア光ファイバーの新たな操作方式に基づき, 高品質な$N \times N$($N=4,7$)マルチポートビームスプリッタの製造について報告する。
光ファイバ部品との互換性を探求することにより、4次元量子システムを作成し、2MHz繰り返し動作可能な4腕干渉計を用いて測定デバイス非依存のランダム数生成タスクを実装する。
高い可視性により、バイナリプロトコルの1ビット限界を超え、実験ラウンド当たりの認証されたプライベートランダムネスが1.23ビットに達する。
その結果,高次元量子情報に対する高速スイッチング,低損失,高光学的品質をマルチコアファイバ技術で同時に実現できることが示唆された。 Multi-port beamsplitters are cornerstone devices for high-dimensional quantum information tasks, which can outperform the two-dimensional ones. Nonetheless, the fabrication of such devices has been proven to be challenging with progress only recently achieved with the advent of integrated photonics. Here, we report on the production of high-quality $N \times N$ (with $N=4,7$) multi-port beamsplitters based on a new scheme for manipulating multi-core optical fibers. By exploring their compatibility with optical fiber components, we create 4-dimensional quantum systems and implement the measurement-device-independent random number generation task with a programmable 4-arm interferometer operating at a 2 MHz repetition rate. Thanks to the high visibilities observed, we surpass the 1-bit limit of binary protocols and attain 1.23 bits of certified private randomness per experimental round. Our result demonstrates that fast switching, low-loss and high optical quality for high-dimensional quantum information can be simultaneously achieved with multi-core fiber technology. | 翻訳日:2023-06-05 06:44:36 公開日:2020-05-20 |
# 冷ライドバーグ原子の電磁誘導吸収によるマイクロ波電気計測 Microwave electrometry via electromagnetically induced absorption in cold Rydberg atoms ( http://arxiv.org/abs/2002.00855v2 ) ライセンス: Link先を確認 | Kai-Yu Liao, Hai-Tao Tu, Shu-Zhe Yang, Chang-Jun Chen, Xiao-Hong Liu, Jie Liang, Xin-Ding Zhang, Hui Yan and Shi-Liang Zhu | (参考訳) マイクロ波電気測定のための原子ベースのトレーサブル標準は、安定かつ均一な測定を可能にすることで有望な利点を示す。
ここでは, 冷ライドバーグ原子中の電磁誘導吸収(eia)に基づくマイクロ波電界強度測定のための, 直接観測可能な直接国際単位系(si)を理論的に提案し, 実験的に実現する。
電磁誘導透過法と比較して、マイクロ波ラビ周波数とオートラー・タウナス分割の等価性はより有効であり、EIAの線形領域における実験パラメータに対してより堅牢であることを示す。
さらに、コールド・リドバーグ eia の幅が狭くなることで、直接si追跡可能なマイクロ波電界測定を$\sim$100$\mu\mathrm{\!
V} \mathrm{cm}^{\!
-\!
1}$. The atom-based traceable standard for microwave electrometry shows promising advantages by enabling stable and uniform measurement. Here we theoretically propose and then experimentally realize an alternative direct International System of Units (SI)-traceable and self-calibrated method for measuring a microwave electric field strength based on electromagnetically induced absorption (EIA) in cold Rydberg atoms. Comparing with the method of electromagnetically induced transparency, we show that the equivalence relation between microwave Rabi frequency and Autler-Townes splitting is more valid and is even more robust against the experimental parameters in the EIA's linear region. Furthermore, a narrower linewidth of cold Rydberg EIA enables us to realize a direct SI-traceable microwave-electric-field measurement as small as $\sim$100 $\mu\mathrm{\!V} \mathrm{cm}^{\!-\!1}$. | 翻訳日:2023-06-04 20:41:53 公開日:2020-05-20 |
# パラメトリックノイズに対する例外点型センサのロバスト性:ハミルトニアンとリウビリアンの縮退 Robustness of exceptional-point-based sensors against parametric noise: The role of Hamiltonian and Liouvillian degeneracies ( http://arxiv.org/abs/2003.02222v2 ) ライセンス: Link先を確認 | Jan Wiersig | (参考訳) 最近の実験では、強い感度を持つセンサに対して、オープン量子およびウェーブシステム(いわゆる例外点)のスペクトル特異性を活用できることが実証されている。
本稿では,従来のパラメトリックノイズがセンサの性能に与える影響を理論的に検討する。
確率ハミルトニアンに対するリンドブラッド型形式論において、周波数分割の可解性とセンサの動的安定性について論じ、これらの性質が相互に関連していることを示す。
中心的な重要性は、ハミルトニアンと対応するリウヴィリアンのスペクトルにおける例外点の異なる特徴である。
2つの現実的な例は、パリティ時対称二量体と非対称後方散乱を伴うささやきのマイクロキャビティである。 Recent experiments have demonstrated the feasibility of exploiting spectral singularities in open quantum and wave systems, so-called exceptional points, for sensors with strongly enhanced sensitivity. Here, we study theoretically the influence of classical parametric noise on the performance of such sensors. Within a Lindblad-type formalism for stochastic Hamiltonians we discuss the resolvability of frequency splittings and the dynamical stability of the sensor, and show that these properties are interrelated. Of central importance are the different features of exceptional points in the spectra of the Hamiltonian and the corresponding Liouvillian. Two realistic examples, a parity-time-symmetric dimer and a whispering-gallery microcavity with asymmetric backscattering, illustrate the findings. | 翻訳日:2023-05-31 12:01:51 公開日:2020-05-20 |
# 非互換クーロンハミルトニアン拡大 Incompatible Coulomb hamiltonian extensions ( http://arxiv.org/abs/2005.01429v2 ) ライセンス: Link先を確認 | G. Abramovici | (参考訳) 1次元 schr\"odinger hamiltonian の分解を coulomb $\lambda$/|x| ポテンシャルで再検討する。
本稿では, 自然保護法に適合する自己随伴拡張法について検討する。
一次元半無限の場合、それらは魅力的な場合の U(1) 円に、反発の場合の (R,$\infty$) に分類されることを示す。
一次元無限の場合、固有関数の連続性を研究することによって、特異かつ独自の分類を見つける。
いずれの場合も、異なる拡張は互いに互換性がない。
魅力的なポテンシャルを持つ実際の実験では、有界スペクトルを用いてどの拡張が正しいかを判別することができる。 We revisit the resolution of the one-dimensional Schr\"odinger hamiltonian with a Coulomb $\lambda$/|x| potential. We examine among its self-adjoint extensions those which are compatible with physical conservation laws. In the one-dimensional semi-infinite case, we show that they are classified on a U(1) circle in the attractive case and on (R,$\infty$) in the repulsive one. In the one-dimensional infinite case, we find a specific and original classification by studying the continuity of eigenfunctions. In all cases, different extensions are incompatible one with the other. For an actual experiment with an attractive potential, the bound spectrum can be used to discriminate which extension is the correct one. | 翻訳日:2023-05-21 05:24:35 公開日:2020-05-20 |
# 不均一系に対する数値連成クラスタ展開 Numerical linked cluster expansions for inhomogeneous systems ( http://arxiv.org/abs/2005.03177v2 ) ライセンス: Link先を確認 | Johann Gan, Kaden R. A. Hazzard | (参考訳) 非均質な初期状態から始まる障害やダイナミクスを持つハミルトン派など、不均質なシステムに直接適用可能な数値連成クラスタ展開法(NLCE)を開発した。
正方形格子上の2次元スピンモデルにおける単スピン期待とスピン相関のダイナミクスをチェッカーボード状態から計算することにより,この手法を実証する。
我々は,NLCEが計算コストの正確な対角化よりも適度に劇的に改善できることを示し,クラスタのサイズが大きくなるにつれて計算資源の優位性が指数関数的に増加することを示した。
この手法は任意の種類のNLCEに適用できるが、明示的なベンチマークでは矩形展開を用いる。
不均質なシステムを扱う能力を示すだけでなく、これらのベンチマークは均衡から長方形展開の効用を示す。 We develop a numerical linked cluster expansion (NLCE) method that can be applied directly to inhomogeneous systems, for example Hamiltonians with disorder and dynamics initiated from inhomogeneous initial states. We demonstrate the method by calculating dynamics for single-spin expectations and spin correlations in two-dimensional spin models on a square lattice, starting from a checkerboard state. We show that NLCE can give moderate to dramatic improvement over an exact diagonalization of comparable computational cost, and that the advantage in computational resources grows exponentially as the size of the clusters included grows. Although the method applies to any type of NLCE, our explicit benchmarks use the rectangle expansion. Besides showing the capability to treat inhomogeneous systems, these benchmarks demonstrate the rectangle expansion's utility out of equilibrium. | 翻訳日:2023-05-21 00:30:32 公開日:2020-05-20 |
# ビジョン、価値、ビデオ:ubicomp design for the homeのサービスにおける展望の再検討 Visions, Values, and Videos: Revisiting Envisionings in Service of UbiComp Design for the Home ( http://arxiv.org/abs/2005.08952v2 ) ライセンス: Link先を確認 | Tommy Nilsson, Joel E. Fischer, Andy Crabtree, Murray Goulden, Jocelyn Spence, Enrico Costanza | (参考訳) UbiCompは、私たちの日常生活をより便利にするために、穏やかなコンピューティング技術に支配される未来をもたらすことを想定されている。
しかし、同じビジョンは孤独でパッシブなライフスタイルを奨励したことで批判を浴びている。
本研究の目的は,将来のUbiCompソリューションを取り巻く人的価値を探求し,これらの緊張関係をさらに詳しく調査することである。
提案手法では,2つのコントラスト映像シナリオのプレゼンテーションと焦点グループによる議論を通じて,提案手法の構想と検討を行い,そのうちの1つは「カルム」,もう1つは将来のUbiComp技術の「拡張」ビジョンから着想を得たものである。
参加者の推論を分析して,2つの視点のバランスをとる上で,関連する多くの価値を特定し,精査する。
結論として, 設計上の重要な課題と課題のセットとして, 実用的に適用可能な項目を整理する。 UbiComp has been envisioned to bring about a future dominated by calm computing technologies making our everyday lives ever more convenient. Yet the same vision has also attracted criticism for encouraging a solitary and passive lifestyle. The aim of this paper is to explore and elaborate these tensions further by examining the human values surrounding future domestic UbiComp solutions. Drawing on envisioning and contravisioning, we probe members of the public (N=28) through the presentation and focus group discussion of two contrasting animated video scenarios, where one is inspired by "calm" and the other by "engaging" visions of future UbiComp technology. By analysing the reasoning of our participants, we identify and elaborate a number of relevant values involved in balancing the two perspectives. In conclusion, we articulate practically applicable takeaways in the form of a set of key design questions and challenges. | 翻訳日:2023-05-20 01:12:27 公開日:2020-05-20 |
# イッテルビウムの高軌道量子数rydberg状態の孤立核励起 Isolated core excitation of high orbital quantum number Rydberg states of ytterbium ( http://arxiv.org/abs/2005.09552v2 ) ライセンス: Link先を確認 | Henri Lehec, Xin Hua, Pierre Pillet and Patrick Cheinet | (参考訳) 高軌道数を持つ超低温イッテルビウムリドベルグ原子の孤立核励起の研究を行った。
6s_{1/2} 40l \rightarrow 6p_{1/2} 40l $ 遷移 ($l=5-9$) で測定を行った。
抽出されたエネルギーシフトと自己イオン化速度は、摂動的アプローチにおける相互作用を考慮した独立電子に基づくモデルとよく一致している。
6p_{1/2}nl$自己イオン化状態と5d_{3/2}\epsilon l'$ continuaとの強い結合によって説明された、軌道量子数との自己イオン化速度の特に長い持続性を明らかにする。 We study isolated core excitation of ultra cold ytterbium Rydberg atoms of high orbital quantum number. Measurements were performed on the $6s_{1/2} 40l \rightarrow 6p_{1/2} 40l $ transition with $l=5-9$. The extracted energy shifts and autoionization rates are in good agreement with a model based on independant electrons, taking into account interactions in a perturbative approach. We reveal a particularly long persistence of the autoionization rates with the orbital quantum number, explained by the strong coupling of the $6p_{1/2}nl$ autoionizing state with the $5d_{3/2}\epsilon l'$ continua compared to previously studied divalent atoms. | 翻訳日:2023-05-19 08:03:16 公開日:2020-05-20 |
# 13db 外部ポンプ出力775nmの12mwから1550nmでの圧縮真空状態 13dB Squeezed Vacuum States at 1550nm from 12mW external pump power at 775nm ( http://arxiv.org/abs/2005.09891v1 ) ライセンス: Link先を確認 | Axel Sch\"onbeck, Fabian Thies, Roman Schnabel | (参考訳) テレコミュニケーション波長の強い励起光は、ファイバーネットワークを介して一方のデバイス非依存の量子鍵分布に必要な資源である。
発電に必要な光ポンプの電力を削減すれば、この量子技術は効率の良い外部操作へと進歩する。
そこで本稿では,2次高調波ポンプによる連続波圧縮真空状態のパラメトリック発生のための2次高調波ポンプパワー要件について検討する。
空洞長によるグーイ相の粗い調整と温度微調整を併用して二重共振と準位相マッチングを同時に行い, わずか12mWの外部ポンプパワーから1550nmの13dBの圧縮係数を775nmで観測した。
キャビティカプラ反射率の最適化は, 圧縮係数を低下させることなく, 外部ポンプ出力を3mWに低下させる。 Strongly squeezed light at telecommunication wavelengths is the necessary resource for one-sided device-independent quantum key distribution via fibre networks. Reducing the optical pump power that is required for its generation will advance this quantum technology towards efficient out-of-laboratory operation. Here, we investigate the second-harmonic pump power requirement for parametric generation of continuous-wave squeezed vacuum states at 1550nm in a state-of-the-art doubly-resonant standing-wave PPKTP cavity setup. We use coarse adjustment of the Gouy phase via the cavity length together with temperature fine-tuning for simultaneously achieving double resonance and (quasi) phase matching, and observe a squeeze factor of 13dB at 1550nm from just 12mW external pump power at 775nm. We anticipate that optimizing the cavity coupler reflectivity will reduce the external pump power to 3mW, without reducing the squeeze factor. | 翻訳日:2023-05-19 06:09:02 公開日:2020-05-20 |
# 強磁性球共振器における周波数混合 Frequency mixing in a ferrimagnetic sphere resonator ( http://arxiv.org/abs/2005.09864v1 ) ライセンス: Link先を確認 | Cijy Mathai, Sergei Masis, Oleg Shtempluck, Shay Hacohen-Gourgy and Eyal Buks | (参考訳) イットリウムとバナジウム鉄ガーネット(yigおよびcvbig)に基づく強磁性共振器の周波数混合を用いた非線形相互作用の研究を行った。
強磁性キッテルモードは共鳴に近い周波数でポンプ音を印加することによって駆動される。
2つの非線形周波数混合構成を探索する。
まず, 逆ポンプトーンと付加長手弱信号との混合について検討し, ランダウ-ツェナー-シュタッケルベルクモデルの予測結果と比較した。
第2の方法は、安定なスパイラルと安定なノードアトラクタとの分岐を研究するために、横方向のポンプと信号トーンを混合して相互変調測定を行う。
本研究は、電波帯とマイクロ波帯の両方において高利得の感度信号受信機の開発に適用できる。 Frequency mixing in ferrimagnetic resonators based on yttrium and calcium vanadium iron garnets (YIG and CVBIG) is employed for studying their nonlinear interactions. The ferrimagnetic Kittel mode is driven by applying a pump tone at a frequency close to resonance. We explore two nonlinear frequency mixing configurations. In the first one, mixing between a transverse pump tone and an added longitudinal weak signal is explored, and the experimental results are compared with the predictions of the Landau-Zener-Stuckelberg model. In the second one, intermodulation measurements are employed by mixing pump and signal tones both in the transverse direction for studying a bifurcation between a stable spiral and a stable node attractors. Our results are applicable for developing sensitive signal receivers with high gain for both the radio frequency and the microwave bands. | 翻訳日:2023-05-19 06:08:16 公開日:2020-05-20 |
# 冷間結合量子エミッタにおける障害支援励起局在 Disorder-assisted excitation localization in chirally coupled quantum emitters ( http://arxiv.org/abs/2005.09855v1 ) ライセンス: Link先を確認 | H. H. Jen | (参考訳) キラルカップリングを持つ1次元量子エミッタは、原子-導波路界面を経由する光誘起双極子-双極子相互作用とともに非相互減衰チャネルを示すことができる。
このような原子配列に位置障害を導入すると、減衰速度の方向性と光誘起双極子-双極子相互作用の強さとの相互作用により、励起脱局在から局在への動的相転移が特定できる。
局在相の深部において、その特性長は相互結合状態に向かって減少し飽和し、エルゴード性が強く損なわれている系力学に繋がる。
また,強い障害下での局所化相の相互作用駆動的再入射行動とレベル反発の低減も見いだした。
前者は、開量子系における絡み合いの保存と非平衡ダイナミクスとの密接な関係についての洞察を与え、後者は、この特定の無秩序系におけるギャップ比の明確な狭い分布を示す。 One-dimensional quantum emitters with chiral couplings can exhibit nonreciprocal decay channels, along with light-induced dipole-dipole interactions mediated via an atom-waveguide interface. When the position disorders are introduced to such atomic array, we are able to identify the dynamical phase transition from excitation delocalization to localization, with an interplay between the directionality of decay rates and the strength of light-induced dipole-dipole interactions. Deep in the localization phase, its characteristic length decreases and saturates toward a reciprocal coupling regime, leading to a system dynamics whose ergodicity is strongly broken. We also find an interaction-driven re-entrant behavior of the localization phase and a reduction of level repulsion under strong disorder. The former coincides with a drop in the exponent of power-law decaying von Neumann entropy, which gives insights to a close relation between the preservation of entanglement and nonequilibrium dynamics in open quantum systems, while the latter presents a distinct narrow distribution of gap ratios in this particular disordered system. | 翻訳日:2023-05-19 06:07:15 公開日:2020-05-20 |
# 超伝導回路における複合ハイブリッド絡み合いの操作と多粒子ベル不等式試験 Manipulating complex hybrid entanglement and testing multipartite Bell inequalities in a superconducting circuit ( http://arxiv.org/abs/2005.09849v1 ) ライセンス: Link先を確認 | Yuwei Ma, Xiaoxuan Pan, Weizhou Cai, Xianghao Mu, Yuan Xu, Ling Hu, Weiting Wang, Haiyan Wang, Yi Pu Song, Zhen-Biao Yang, Shi-Biao Zheng and Luyan Sun | (参考訳) 複数のシステムの観測可能な状態における量子相関は、基本的な関心だけでなく、量子情報処理において重要な役割を果たす。
これらの相関の署名として、ベルの不等式違反は連続変数と離散変数の両方を含む多成分ハイブリッド絡み合いでは証明されていない。
ここでは,3つの超伝導トランスモン量子ビットと2つのフォトニック量子ビットからなる5成分のエンタングル状態を作成し,それぞれをマイクロ波共振器のメソスコピック領域に符号化する。
これらの異なる元素間の量子相関は、量子ビットの検出に条件付き2つの空洞場のジョイントウィグナートモグラフィーと、5部ベル不等式のテストにより明らかにした。
測定されたベル信号は8.381\pm0.038$で、量子相関によって10の標準偏差によって課される4粒子の絡み合いの8を超える。 Quantum correlations in observables of multiple systems not only are of fundamental interest, but also play a key role in quantum information processing. As a signature of these correlations, the violation of Bell inequalities has not been demonstrated with multipartite hybrid entanglement involving both continuous and discrete variables. Here we create a five-partite entangled state with three superconducting transmon qubits and two photonic qubits, each encoded in the mesoscopic field of a microwave cavity. We reveal the quantum correlations among these distinct elements by joint Wigner tomography of the two cavity fields conditional on the detection of the qubits and by test of a five-partite Bell inequality. The measured Bell signal is $8.381\pm0.038$, surpassing the bound of 8 for a four-partite entanglement imposed by quantum correlations by 10 standard deviations, demonstrating the genuine five-partite entanglement in a hybrid quantum system. | 翻訳日:2023-05-19 06:06:54 公開日:2020-05-20 |
# 宇宙の量子リピータ Quantum repeaters in space ( http://arxiv.org/abs/2005.10146v1 ) ライセンス: Link先を確認 | Carlo Liorni, Hermann Kampermann, Dagmar Bruss | (参考訳) 長距離の絡み合いは非常に貴重な資源であるが、その分布は光ファイバーの指数関数的損失のために非常に困難である。
考えられる解決策は、絡み合いスワップや量子エラー補正に基づく量子リピータの使用である。
あるいは、衛星ベースの自由空間光リンクを利用することができ、損失距離スケーリングが向上する。
本稿では,これら2つの成分,量子リピータと衛星ベースリンクを組み合わせることで,少数の中間信頼ノードで大域的距離の絡み合い分布を実現する手法を提案する。
衛星に搭載されたエンタングルメント源は、光子にエンタングルメント交換が行われる軌道上の量子リピータステーションに向けて量子状態を送信する。
このリピータチェーンの性能は、bb-84暗号プロトコルによって実現可能な秘密鍵レートの観点から評価される。
我々は、他のリピータチェーンアーキテクチャとの比較を行い、我々のスキームがほぼすべての状況において優れていることを示し、より高いキーレート、信頼性、柔軟性を達成する。
最後に,中期的な実装の実現可能性を分析し,模範的な軌道配置について考察する。
衛星ベースのリンクと地上中継ネットワークの統合は、将来の量子インターネットのバックボーンを表すために議論することができる。 Long-distance entanglement is a very precious resource, but its distribution is very difficult due to the exponential losses of light in optical fibres. A possible solution consists in the use of quantum repeaters, based on entanglement swapping or quantum error correction. Alternatively, satellite-based free-space optical links can be exploited, achieving better loss-distance scaling. We propose to combine these two ingredients, quantum repeaters and satellite-based links, into a scheme that allows to achieve entanglement distribution over global distances with a small number of intermediate untrusted nodes. The entanglement sources, placed on satellites, send quantum states encoded in photons towards orbiting quantum repeater stations, where entanglement swapping is performed. The performance of this repeater chain is assessed in terms of the secret key rate achievable by the BB-84 cryptographic protocol. We perform a comparison with other repeater chain architectures and show that our scheme is superior in almost every situation, achieving higher key rates, reliability and flexibility. Finally, we analyse the feasibility of the implementation in the mid-term future and discuss exemplary orbital configurations. The integration of satellite-based links with ground repeater networks can be envisaged to represent the backbone of the future Quantum Internet. | 翻訳日:2023-05-19 06:03:11 公開日:2020-05-20 |
# 都市科学による都市ガバナンスの強化:世界規模の都市システムのマルチスケールダイナミクス Empowering Urban Governance through Urban Science: Multi-scale Dynamics of Urban Systems Worldwide ( http://arxiv.org/abs/2005.10007v1 ) ライセンス: Link先を確認 | Juste Raimbault and Eric Denis and Denise Pumain | (参考訳) 現在の都市科学は、これらの提案が世界の状況の多様性の正確な観察によって検証されていることを前提として、将来の都市政策に有用な基礎を提供することができる。
しかしながら、都市の進化に関する国際比較は、国家の領土の枠組みが必ずしも都市システムの力学と厳密に一致しているとは限らないため、しばしば不確実な結果をもたらす。
我々は,地域的・国家的境界を超えた都市の動的なネットワークを考慮に入れるために,都市システムの多様な構成を提供することを提案する。
都市規模と都市成長分布を説明するために考案された異なるモデルにより、都市のレベルと都市のシステムで観測された都市軌跡間の対応を確立することができる。
都市システムのマクロスケールにおいて,複雑な都市システムのいくつかの動的モデルとそれらの変動の妥当性と代表性を検証した。
このアプローチの独創性は、空間的相互作用と進化経路依存を都市実体の一般行動における主要な特徴として考慮することにある。
研究されたモデルには、経済交流、イノベーションの拡散、物理的ネットワークフローなど、多様で補完的なプロセスが含まれる。
複雑なシステムのダイナミクスは基本的に予測不可能であるが、人口統計、収入、資源要素に関する文脈化は、予測エラーの最小化に寄与する可能性がある。 The current science of cities can provide a useful foundation for future urban policies, provided that these proposals have been validated by correct observations of the diversity of situations in the world. However, international comparisons of the evolution of cities often produce uncertain results because national territorial frameworks are not always in strict correspondence with the dynamics of urban systems. We propose to provide various compositions of systems of cities to better take into account the dynamic networking of cities that go beyond regional and national territorial boundaries. Different models conceived for explaining city size and urban growth distributions enable to establish a correspondence between urban trajectories when observed at the level of cities and systems of cities. We test the validity and representativeness of several dynamic models of complex urban systems and their variations across regions of the world, at the macroscopic scale of systems of cities. The originality of the approach is in considering spatial interaction and evolutionary path dependence as major features in the general behavior of urban entities. The models studied include diverse and complementary processes, such as economic exchanges, diffusion of innovations and physical network flows. Complex systems' dynamics is in principle unpredictable, but contextualizing it regarding demographic, income and resource components may help in minimizing the forecasting errors. | 翻訳日:2023-05-19 06:02:10 公開日:2020-05-20 |
# 冷ライドバーグ原子ガス中における非局所光ソリトンの量子反射 Quantum Reflections of Nonlocal Optical Solitons in a Cold Rydberg Atomic Gas ( http://arxiv.org/abs/2005.10003v1 ) ライセンス: Link先を確認 | Zhengyang Bai, Qi Zhang, and Guoxiang Huang | (参考訳) 量子反射 (quantum reflection) は、古典的転回点が存在しないときの非有界な反射確率を指す。
このような反射に多くの注意が払われているのは、基礎的で興味深い物理学と潜在的な実用的応用のためである。
本稿では, 分散系で動作する電磁誘導透過性を利用して, 低温リドバーグ原子ガス中の非局所非線形光学ビームの量子反射を実現する手法を提案する。
Rydberg原子間の長距離相互作用に基づいて、このシステムは低出力非局所光学ソリトンをサポートすることがわかった。
このような非局所ソリトンは、リドベルク状態に格納されたゲート光子によって生成される線形誘引ポテンシャルによって散乱された反射、トラップ、透過の間の鋭い遷移を示すことができる。
これまでの物理系とは異なり、リドベルク原子ガス中の非局所光学ソリトンの量子反射は興味深い異常な挙動を示し、これはプローブ場の入射速度と強度を調整し、また、リドベルク原子ガスに固有のケーラー非線形性の非局所性を積極的に操作することができる。
ここで報告された結果は、リドベルク非線形光学の開発だけでなく、リドベルク気体の物理的特性を特徴づけたり、新しい非線形光学デバイスの設計にも有用である。 Quantum reflection refers to a non-vanishing reflection probability in the absence of a classically turning point. Much attention has been paid to such reflections due to their fundamental, intriguing physics and potential practical applications. Here we propose a scheme to realize a quantum reflection of nonlocal nonlinear optical beams in a cold Rydberg atomic gas via electromagnetically induced transparency working in a dispersion regime. Based on the long-range interaction between Rydberg atoms, we found that the system supports low-power nonlocal optical solitons. Such nonlocal solitons can display a sharp transition between reflection, trapping, and transmission when scattered by a linear attractive potential, created by gate photons stored in another Rydberg state. Different from conventional physical systems explored up to now, the quantum reflection of the nonlocal optical solitons in the Rydberg atomic gas exhibits interesting anomalous behaviors, which can be actively manipulated by tuning the incident velocity and intensity of the probe field, as well as the nonlocality of the Kerr nonlinearity inherent in the Rydberg atomic gas. The results reported here are not only useful for developing Rydberg nonlinear optics but also helpful for characterizing the physical property of the Rydberg gas and for designing novel nonlinear optical devices. | 翻訳日:2023-05-19 06:01:49 公開日:2020-05-20 |
# 点回折干渉法による空間量子状態の決定 Determination of spatial quantum states by using Point Diffraction Interferometry ( http://arxiv.org/abs/2005.09963v1 ) ライセンス: Link先を確認 | Quimey Pears Stefano, Lorena Reb\'on, and Claudio Iemmi | (参考訳) 本稿では,点回折干渉計に基づく任意の次元$d$の純粋空間quditを再構成する方法を提案する。
提案方式では、量子状態は光子場の離散化された横位置で符号化され、$d$スリットの開口を通して送信されると、位相参照を提供するために既知の背景が追加される。
これらのフォトニック量子状態を特徴付けるために、位相シフト技術によって完全な位相波面を再構成する。
マルチピクセル検出器と組み合わせることで、取得は並列化でき、次元$d$とは無関係に純粋なquditを再構築するには4つのインターフェログラムしか必要とされない。
本手法を実験的に検証し,次元$d=6$のランダム選択状態の再構成を行った。
平均忠実度値は0.95$である。
さらに,伝播時の波面に影響を及ぼす位相収差を推定し,量子状態の推定を改善する実験手法を開発した。
そこで本研究では,自由空間通信における乱流の影響を補正し,乱流のない伝播に匹敵する平均忠実度を回復する可能性を示す実証実験を行う。 We present a method to reconstruct pure spatial qudits of arbitrary dimension $d$, which is based on a point diffraction interferometer. In the proposed scheme, the quantum states are codified in the discretized transverse position of a photon field, once they are sent through an aperture with $d$ slits, and a known background is added to provide a phase reference. To characterize these photonic quantum states, the complete phase wavefront is reconstructed through a phase-shifting technique. Combined with a multipixel detector, the acquisition can be parallelized, and only four interferograms are required to reconstruct any pure qudit, independently of the dimension $d$. We tested the method experimentally, for reconstructing states of dimension $d=6$ randomly chosen. A mean fidelity values of $0.95$ is obtained. Additionally, we develop an experimental scheme that allows to estimate phase aberrations affecting the wavefront upon propagation, and thus improve the quantum state estimation. In that regard, we present a proof-of-principle demonstration that shows the possibility to correct the influence of turbulence in a free-space communication, recovering mean fidelity values comparable to the propagation free of turbulence. | 翻訳日:2023-05-19 06:01:05 公開日:2020-05-20 |
# 接触・点支持電位に関する最近の研究結果 Some recent results on contact or point supported potentials ( http://arxiv.org/abs/2005.09931v1 ) ライセンス: Link先を確認 | Luis M. Nieto, Manuel Gadella, Juan M. Mateos-Guilarte, Jose M. Munoz-Castaneda, and Cesar Romaniega | (参考訳) 我々は、ディラックデルタとその最初の微分である$\delta$-$\delta'$相互作用の線型結合として記述できるいくつかの接触ポテンシャルを導入した。
一次元の単純な一般プレゼンテーションの後、各ノードにおける$\delta$-$\delta'$相互作用で1次元周期ポテンシャルを簡潔に議論する。
パラメータ(デルタの共効率)とエネルギーバンドの依存性を数値的に計算することができる。
また、任意の次元の球面上での$\delta$-$\delta'$相互作用についても検討する。
このモデルの球対称は、パラメータと次元の観点から境界状態の数に関する厳密な結論を得ることを可能にする。
最後に、$\delta$-$\delta'$相互作用は、原子核物理学において幅広い用途の可能性を近似し、結合状態の総数と最低エネルギーを持ついくつかの共鳴極の挙動を推定するために用いられる。 We introduced some contact potentials that can be written as a linear combination of the Dirac delta and its first derivative, the $\delta$-$\delta'$ interaction. After a simple general presentation in one dimension, we briefly discuss a one dimensional periodic potential with a $\delta$-$\delta'$ interaction at each node. The dependence of energy bands with the parameters (coefficients of the deltas) can be computed numerically. We also study the $\delta$-$\delta'$ interaction supported on spheres of arbitrary dimension. The spherical symmetry of this model allows us to obtain rigorous conclusions concerning the number of bound states in terms of the parameters and the dimension. Finally, a $\delta$-$\delta'$ interaction is used to approximate a potential of wide use in nuclear physics, and estimate the total number of bound states as well as the behaviour of some resonance poles with the lowest energy. | 翻訳日:2023-05-19 06:00:06 公開日:2020-05-20 |
# 長距離スピン鎖におけるリーブ・ロビンソン境界と時間外秩序相関器 Lieb Robinson bounds and out of time order correlators in a long range spin chain ( http://arxiv.org/abs/2005.10257v1 ) ライセンス: Link先を確認 | Luis Colmenarez and David J. Luitz | (参考訳) リーブ・ロビンソン境界は、非相対論的量子系に広がる情報の最大速度を定量化する。
我々は、リーブ・ロビンソン境界と時間順序相関子の関係について論じ、これは、局所作用素の可換子 $c(r,t) = [a_i(t), b_{i+r}]$ の異なるノルムに対応する。
正確なクリロフ時空進化法を用いて、スピン 1/2 ハイゼンベルク連鎖に対するそのような可換体のこれらの2つの異なるノルムを計算し、相互作用は1/r^\alpha$と距離$r$で減衰する。
数値解析により、両ノルム(演算ノルムと正規化フロベニウスノルム)は同じ漸近的振舞いを示すことが示され、すなわち、短い時間での線形成長と長距離での宇宙でのパワーローの崩壊であり、漸近的に$\alpha<1$のパワーローの光円錐と$\alpha>1$の線形光円錐へと導かれる。
C(r,t)\propto t/r^\alpha$ の尾の漸近形式は、短い時間と長い距離で有効である短時間摂動理論によって記述される。 Lieb Robinson bounds quantify the maximal speed of information spreading in nonrelativistic quantum systems. We discuss the relation of Lieb Robinson bounds to out of time order correlators, which correspond to different norms of commutators $C(r,t) = [A_i(t),B_{i+r}]$ of local operators. Using an exact Krylov space time evolution technique, we calculate these two different norms of such commutators for the spin 1/2 Heisenberg chain with interactions decaying as a power law $1/r^\alpha$ with distance $r$. Our numerical analysis shows that both norms (operator norm and normalized Frobenius norm) exhibit the same asymptotic behavior, namely a linear growth in time at short times and a power law decay in space at long distance, leading asymptotically to power law light cones for $\alpha<1$ and to linear light cones for $\alpha>1$. The asymptotic form of the tails of $C(r,t)\propto t/r^\alpha$ is described by short time perturbation theory which is valid at short times and long distances. | 翻訳日:2023-05-19 05:52:57 公開日:2020-05-20 |
# 2次元pseudospin-1 dirac絶縁体における異常なgap内エッジ状態 Anomalous in-gap edge states in two-dimensional pseudospin-1 Dirac insulators ( http://arxiv.org/abs/2005.10183v1 ) ライセンス: Link先を確認 | Hong-Ya Xu and Ying-Cheng Lai | (参考訳) 擬似スピン1格子やマジックアングルでねじれた二層グラフェンのような平らなバンドをホストする量子材料は、非古典的超伝導、軌道強磁性、チャーン絶縁挙動などの非常に新しい物理現象を示す。
従来のバンド反転トポロジカル相転移や外部磁気相互作用による磁性の導入を必要とせず, 擬似スピン1材料における電子ギャップ状態の驚くべきクラスを報告する。
特に、質量スピン-1準粒子の2次元ガッピング(絶縁)ディラック系では、in-gapエッジモードは有限領域に適用される「em静電ポテンシャル」のみを通して生じる。
これらの非伝統的なエッジモードは、領域境界の両側に面外スピン角運動量ロックの特色を示す領域壁スピンテクスチャーの自発的な形成であり、明確な位相的起源が欠如しているにもかかわらず、境界変形や不純物に対して非常に堅牢である。
インギャップモードは、ジャッキー・レビ型境界状態と同様、正式には3成分のエバネッセント波解である。
このようなモードは、3成分のスピノル波動関数、異常な境界条件、外部スカラーポテンシャルによって引き起こされる偏平帯域といった物理的理由により異なるクラスに属する。
基本的な重要性の発見だけでなく、従来の半導体ゲート技術を用いた創発的なスピンテクスチャを用いて、高度に制御可能なin-gapエッジ状態を生成する方法も備えている。
連続体ディラック・ワイルモデルの解析計算と、状態スペクトルの局所密度と共鳴トンネルコンダクタンスのキャラクタリゼーションによる実物との密結合シミュレーションを用いて検証する。 Quantum materials that host a flat band, such as pseudospin-1 lattices and magic-angle twisted bilayer graphene, can exhibit drastically new physical phenomena including unconventional superconductivity, orbital ferromagnetism, and Chern insulating behaviors. We report a surprising class of electronic in-gap edge states in pseudospin-1 materials without the conventional need of band-inversion topological phase transitions or introducing magnetism via an external magnetic type of interactions. In particular, we find that, in two-dimensional gapped (insulating) Dirac systems of massive spin-1 quasiparticles, in-gap edge modes can emerge through only an {\em electrostatic potential} applied to a finite domain. Associated with these unconventional edge modes are spontaneous formation of pronounced domain-wall spin textures, which exhibit the feature of out-of-plane spin-angular momentum locking on both sides of the domain boundary and are quite robust against boundary deformations and impurities despite a lack of an explicit topological origin. The in-gap modes are formally three-component evanescent wave solutions, akin to the Jackiw-Rebbi type of bound states. Such modes belong to a distinct class due to the following physical reasons: three-component spinor wave function, unusual boundary conditions, and a shifted flat band induced by the external scalar potential. Not only is the finding of fundamental importance, but it also paves the way for generating highly controllable in-gap edge states with emergent spin textures using the traditional semiconductor gate technology. Results are validated using analytic calculations of a continuum Dirac-Weyl model and tight-binding simulations of realistic materials through characterizations of local density of state spectra and resonant tunneling conductance. | 翻訳日:2023-05-19 05:50:32 公開日:2020-05-20 |
# 小型蒸気セルクロック用マイクロ波空洞 Loaded microwave cavity for compact vapor-cell clocks ( http://arxiv.org/abs/2005.10159v1 ) ライセンス: Link先を確認 | Michele Gozzelino, Salvatore Micalizio, Claudio E. Calosso, Aldo Godone, Haixiao Lin and Filippo Levi | (参考訳) マイクロ波尋問に基づく電圧セルデバイスは、コンパクトでロバストな設定で安定した周波数参照を提供する。
さらなる小型化は、マイクロ波キャビティと原子貯水池を含む物理パッケージの最適化に重点を置く必要がある。
本稿では誘電体装荷円筒形共振器を用いた小型空洞セルアセンブリを提案する。
この構造は、内体積が0.9 \, \mathrm{cm^3}$のクロックセルを備え、外体積が35 \, \mathrm{cm^3}$である。
提案した設計は、原子時計のコアを強く減らし、同時に高い性能の短期安定性を維持することを目的としている(\sigma_y(\tau) \leq 5\times 10^{-13} \,\tau^{-1/2}$ Standard Allan deviation)。
提案した構造は、有限要素計算の助けを借りて、磁場均一性と原子-磁場カップリングの観点から特徴づけられる。
熱感度も分析され、実験的に特徴付けられる。
本研究では, パルス光ポンピング法に基づいて, ルビジウム時計装置内のコンパクトキャビティを統合することにより, 予備分光結果を示す。
得られたクロック信号は、対象性能と互換性がある。
したがって、ロードキャビティアプローチは小型マイクロ波時計にとって実行可能な設計オプションである。 Vapor-cell devices based on microwave interrogation provide a stable frequency reference with a compact and robust setup. Further miniaturization must focus on optimizing the physics package, containing the microwave cavity and atomic reservoir. In this paper we present a compact cavity-cell assembly based on a dielectric-loaded cylindrical resonator. The structure accommodates a clock cell with $0.9 \, \mathrm{cm^3}$ inner volume and has an outer volume of only $35 \, \mathrm{cm^3}$. The proposed design aims at strongly reducing the core of the atomic clock, maintaining at the same time high-performing short-term stability ($\sigma_y(\tau) \leq 5\times 10^{-13} \,\tau^{-1/2}$ standard Allan deviation). The proposed structure is characterized in terms of magnetic field uniformity and atom-field coupling with the aid of finite-elements calculations. The thermal sensitivity is also analyzed and experimentally characterized. We present preliminary spectroscopy results by integrating the compact cavity within a rubidium clock setup based on the pulsed optically pumping technique. The obtained clock signals are compatible with the targeted performances. The loaded-cavity approach is thus a viable design option for miniaturized microwave clocks. | 翻訳日:2023-05-19 05:49:59 公開日:2020-05-20 |
# Tavis-Cummingsモデルとその準特殊解法Schr\"odinger Hamiltonians Tavis-Cummings models and their quasi-exactly solvable Schr\"odinger Hamiltonians ( http://arxiv.org/abs/2005.10340v1 ) ライセンス: Link先を確認 | T. Mohamadian, J. Negro, L.M. Nieto, and H. Panahi | (参考訳) 量子光学のtavis-cummings hamiltonianと準可解なschr\"odinger方程式の族との関係を詳細に研究した。
それらの関係は、二流のハーン方程式によって断定される。
我々は、タヴィス・カミングスのそれぞれの不変$n$次元部分空間が、それぞれが既知の解を持つ$n$ポテンシャルまたは既知の解を持つ1つのポテンシャルに対応することを発見した。
これらのシュリンガーポテンシャルのうち、クォーコニウムと性振動子が現れる。 We study in detail the relationship between the Tavis-Cummings Hamiltonian of quantum optics and a family of quasi-exactly solvable Schr\"odinger equations. The connection between them is stablished through the biconfluent Heun equation. We found that each invariant $n$-dimensional subspace of Tavis-Cummings Hamiltonian corresponds either to $n$ potentials, each with one known solution, or to one potential with $n$-known solutions. Among these Schr\"odinger potentials appear the quarkonium and the sextic oscillator. | 翻訳日:2023-05-19 05:42:42 公開日:2020-05-20 |
# 2次元誘引ガウス不純物の存在下でのゼロ厚さ層におけるパラボリック量子井戸のバーマン・シュウィンガー演算子 The Birman-Schwinger Operator for a Parabolic Quantum Well in a Zero-Thickness Layer in the Presence of a Two-Dimensional Attractive Gaussian Impurity ( http://arxiv.org/abs/2005.10336v1 ) ライセンス: Link先を確認 | Sergio Albeverio, Silvestro Fassari, Manuel Gadella, Luis M. Nieto, and Fabio Rinaldi | (参考訳) 本稿では、x$方向の放物型井戸によって制約された無限小の薄い層の中を移動する量子力学的粒子と、魅力的なガウスポテンシャルによってモデル化された不純物の存在について考察する。
バーマン・シュウィンガー作用素は、層内のガウス不純物の存在を仮定し、そのような積分作用素がヒルベルト・シュミットであることを証明し、その不純物によって生成される境界状態を計算するために修正フレドホルム行列式を用いることを可能にする。
さらに、ガウスポテンシャルが、x$-direction における $\delta$-potential と $y$-direction における gaussian potential に縮退する場合を考える。
対応する自己随伴ハミルトニアンを構築し、それが適当なスケールのガウスポテンシャルを持つ対応するハミルトニアン列のノルム分解感覚の極限であることを示す。
関連するすべてのハミルトン人の基底状態エネルギーに対する満足な境界が示される。 In this note we consider a quantum mechanical particle moving inside an infinitesimally thin layer constrained by a parabolic well in the $x$-direction and, moreover, in the presence of an impurity modelled by an attractive Gaussian potential. We investigate the Birman-Schwinger operator associated to a model assuming the presence of a Gaussian impurity inside the layer and prove that such an integral operator is Hilbert-Schmidt, which allows the use of the modified Fredholm determinant in order to compute the bound states created by the impurity. Furthermore, we consider the case where the Gaussian potential degenerates to a $\delta$-potential in the $x$-direction and a Gaussian potential in the $y$-direction. We construct the corresponding self-adjoint Hamiltonian and prove that it is the limit in the norm resolvent sense of a sequence of corresponding Hamiltonians with suitably scaled Gaussian potentials. Satisfactory bounds on the ground state energies of all Hamiltonians involved are exhibited. | 翻訳日:2023-05-19 05:42:29 公開日:2020-05-20 |
# 近接性追跡回避識別子交換のためのプライバシ保護ソリューション A Privacy-Preserving Solution for Proximity Tracing Avoiding Identifier Exchanging ( http://arxiv.org/abs/2005.10309v1 ) ライセンス: Link先を確認 | Francesco Buccafurri, Vincenzo De Angelis, Cecilia Labrini | (参考訳) デジタル接触追跡は、他の手段と組み合わせて、アフターロックダウンフェーズにおける感染症の伝染拡散を管理するのに有用である。
新型コロナウイルス(COVID-19)のパンデミックのため、これは非常にタイムリーな問題だ。
接触追跡アプリは、ユーザの近接を検知し、感染の可能性の観点から関連するリスクを評価することを目的としている。
既存のアプローチは、BluetoothやGPS、あるいはそれらの組み合わせを利用しているが、一般的なアプローチはBluetoothベースであり、ユーザのスマートフォン間で短命の識別子を相互に交換する必要がある分散モデルに依存している。
残念ながら、この種のソリューションには、主に識別子の交換によるセキュリティとプライバシの懸念が数多く存在している。一方、GPSベースのソリューション(本質的に集中型)は、大規模な監視に関する脅威に悩まされる可能性がある。
本稿では,GPSによる近接検出とBluetoothによる認証の精度向上を図り,識別子の交換を行なわない手法を提案する。
関連する既存のソリューションとは異なり、複雑な暗号化メカニズムは採用されず、サーバがユーザーの位置について何も学ばないことを保証する。 Digital contact tracing is one of the actions useful, in combination with other measures, to manage an epidemic diffusion of an infection disease in an after-lock-down phase. This is a very timely issue, due to the pandemic of COVID-19 we are unfortunately living. Apps for contact tracing aim to detect proximity of users and to evaluate the related risk in terms of possible contagious. Existing approaches leverage Bluetooth or GPS, or their combination, even though the prevailing approach is Bluetooth-based and relies on a decentralized model requiring the mutual exchange of ephemeral identifiers among users' smartphones. Unfortunately, a number of security and privacy concerns exist in this kind of solutions, mainly due to the exchange of identifiers, while GPS-based solutions (inherently centralized) may suffer from threats concerning massive surveillance. In this paper, we propose a solution leveraging GPS to detect proximity, and Bluetooth only to improve accuracy, without enabling exchange of identifiers. Unlike related existing solutions, no complex cryptographic mechanism is adopted, while ensuring that the server does not learn anything about locations of users. | 翻訳日:2023-05-19 05:42:10 公開日:2020-05-20 |
# 量子コンピュータ上の格子ゲージ理論のスケーラブルなシミュレーションに向けて Toward scalable simulations of Lattice Gauge Theories on quantum computers ( http://arxiv.org/abs/2005.10271v1 ) ライセンス: Link先を確認 | Simon V. Mathis, Guglielmo Mazzola, Ivano Tavernelli | (参考訳) 格子ゲージ理論における実時間ダイナミクスのシミュレーションは、必要な資源の指数関数的スケーリングのため、古典計算では特に難しい。
一方、量子アルゴリズムは自由度数に依存する多項式で同じ計算を行うことができる。
正確な推定は、粒子場に加えてゲージ場が動的変数である任意の次元における格子ゲージ理論のシミュレーションでは特に困難である。
さらに、格子上の粒子とゲージ場を識別するためのいくつかの選択肢があり、それぞれがキュービットレジスタサイズと回路深さの点で異なる価格で現れる。
ここでは、粒子に対するウィルソンフェルミオン表現を用いた任意の次元における量子電磁力学のような$U(1)$ゲージ理論のリアルタイム進化のための資源カウントとゲージ場に対する量子リンクモデルアプローチを提供する。
量子回路の古典的シミュレーションを用いて,フラックス・ストリング現象を真の2次元モデルに分解し,量子色力学などのより難解な$su(n)$ゲージ理論のシミュレーションにおける離散化選択の利点について考察する。 The simulation of real-time dynamics in lattice gauge theories is particularly hard for classical computing due to the exponential scaling of the required resources. On the other hand, quantum algorithms can potentially perform the same calculation with a polynomial dependence on the number of degrees of freedom. A precise estimation is however particularly challenging for the simulation of lattice gauge theories in arbitrary dimensions, where, gauge fields are dynamical variables, in addition to the particle fields. Moreover, there exist several choices for discretizing particles and gauge fields on a lattice, each of them coming at different prices in terms of qubit register size and circuit depth. Here we provide a resource counting for real-time evolution of $U(1)$ gauge theories, such as Quantum Electrodynamics, on arbitrary dimension using the Wilson fermion representation for the particles, and the Quantum Link Model approach for the gauge fields. We study the phenomena of flux-string breaking up to a genuine bi-dimensional model using classical simulations of the quantum circuits, and discuss the advantages of our discretization choice in simulation of more challenging $SU(N)$ gauge theories such as Quantum Chromodynamics. | 翻訳日:2023-05-19 05:41:35 公開日:2020-05-20 |
# Twitter上のミームのセマンティック検索 Semantic Search of Memes on Twitter ( http://arxiv.org/abs/2002.01462v4 ) ライセンス: Link先を確認 | Jesus Perez-Martin, Benjamin Bustos, Magdalena Saldana | (参考訳) ミームはソーシャルメディア上での行動分析に有用なデータ源になりつつある。
しかし、対処すべき問題は、ミームを正しく識別する方法である。
ソーシャルメディア上で毎日発行されるミームの数は膨大であるため、大規模なミームデータセットを分類・検索するための自動手法が必要である。
本稿では,画像を自動的にミームとして分類する手法を提案し,比較する。
また,テキストクエリを用いてデータセットからミームを検索するシステムを実現する手法を提案する。
チリのtwitterユーザーから収集されたミームの大規模なデータセットを用いて,提案手法を実験的に評価した。
評価方法のいくつかは有効であるが、改善の余地は残っている。 Memes are becoming a useful source of data for analyzing behavior on social media. However, a problem to tackle is how to correctly identify a meme. As the number of memes published every day on social media is huge, there is a need for automatic methods for classifying and searching in large meme datasets. This paper proposes and compares several methods for automatically classifying images as memes. Also, we propose a method that allows us to implement a system for retrieving memes from a dataset using a textual query. We experimentally evaluate the methods using a large dataset of memes collected from Twitter users in Chile, which was annotated by a group of experts. Though some of the evaluated methods are effective, there is still room for improvement. | 翻訳日:2023-01-04 03:27:32 公開日:2020-05-20 |
# 近似政策最適化に基づく深層強化学習を用いた車線自動変更戦略 Automated Lane Change Strategy using Proximal Policy Optimization-based Deep Reinforcement Learning ( http://arxiv.org/abs/2002.02667v2 ) ライセンス: Link先を確認 | Fei Ye, Xuxin Cheng, Pin Wang, Ching-Yao Chan, Jiucai Zhang | (参考訳) レーン変更操作は、ドライバーが特定の経路計画に従い、より遅い車両を追い越したり、前方のマージレーンに適応したりするために一般的に実行される。
しかし、不適切な車線変更の挙動は、交通流の混乱やクラッシュの主な原因となり得る。
自動運転車の車線変更問題を解決するために多くのルールベース手法が提案されているが、運転環境の不確実性と複雑さのために性能が制限されている。
深層強化学習(drl)は、ロボット操作、ナビゲーション、ビデオゲームのプレイなど、多くのアプリケーションドメインで有望な成功を収めている。
しかし、自律運転にDRLを適用することは、遅い学習率、サンプルの非効率性、安全上の懸念など、多くの実践的な課題に直面している。
本研究では,近位政策最適化に基づく深層強化学習を用いた自動車線変更戦略を提案する。
訓練されたエージェントは、密集した交通シナリオのような困難な状況で車線変更決定(つまり、いつ、どのように)を行うためのスムーズで安全で効率的な運転方針を学ぶことができる。
提案手法の有効性は,タスク成功率と衝突速度の指標を用いて検証した。
シミュレーションの結果,車線変更操作を安全,円滑,効率的な方法で効率的に学習し実行できることが示されている。 Lane-change maneuvers are commonly executed by drivers to follow a certain routing plan, overtake a slower vehicle, adapt to a merging lane ahead, etc. However, improper lane change behaviors can be a major cause of traffic flow disruptions and even crashes. While many rule-based methods have been proposed to solve lane change problems for autonomous driving, they tend to exhibit limited performance due to the uncertainty and complexity of the driving environment. Machine learning-based methods offer an alternative approach, as Deep reinforcement learning (DRL) has shown promising success in many application domains including robotic manipulation, navigation, and playing video games. However, applying DRL to autonomous driving still faces many practical challenges in terms of slow learning rates, sample inefficiency, and safety concerns. In this study, we propose an automated lane change strategy using proximal policy optimization-based deep reinforcement learning, which shows great advantages in learning efficiency while still maintaining stable performance. The trained agent is able to learn a smooth, safe, and efficient driving policy to make lane-change decisions (i.e. when and how) in a challenging situation such as dense traffic scenarios. The effectiveness of the proposed policy is validated by using metrics of task success rate and collision rate. The simulation results demonstrate the lane change maneuvers can be efficiently learned and executed in a safe, smooth, and efficient manner. | 翻訳日:2023-01-03 04:19:41 公開日:2020-05-20 |
# 超音波エラストグラフィにおけるCNNを用いたフレーム自動選択 Automatic Frame Selection using CNN in Ultrasound Elastography ( http://arxiv.org/abs/2002.06734v2 ) ライセンス: Link先を確認 | Abdelrahman Zayed, Guy Cloutier and Hassan Rivaz | (参考訳) 超音波エラストグラフィーは、内部または外部の力に対する応答を監視して組織の力学的性質を推定するために用いられる。
異なる変形レベルは、機械的特性によって異なる組織タイプから得られ、より硬い組織はより変形が少ない。
変形前後に2つのRFフレームが収集された場合, RFフレームの比較により, 変位とひずみ像を推定する。
歪み画像の品質は、変形中に発生する動きの種類に依存する。
面内軸運動は高品質のひずみ像を、面外運動は低品質のひずみ像を生じる。
本稿では,畳み込みニューラルネットワーク(cnn)を用いた,エラストグラフィ用一対のrfフレームの適合性を5.4msで決定する手法を提案する。
CNNは3,818個のRFフレームで訓練され、試験は986個の新しい見えないペアで行われ、91%以上の精度を達成した。
rfフレームはファントムとin vivoのデータから収集された。 Ultrasound elastography is used to estimate the mechanical properties of the tissue by monitoring its response to an internal or external force. Different levels of deformation are obtained from different tissue types depending on their mechanical properties, where stiffer tissues deform less. Given two radio frequency (RF) frames collected before and after some deformation, we estimate displacement and strain images by comparing the RF frames. The quality of the strain image is dependent on the type of motion that occurs during deformation. In-plane axial motion results in high-quality strain images, whereas out-of-plane motion results in low-quality strain images. In this paper, we introduce a new method using a convolutional neural network (CNN) to determine the suitability of a pair of RF frames for elastography in only 5.4 ms. Our method could also be used to automatically choose the best pair of RF frames, yielding a high-quality strain image. The CNN was trained on 3,818 pairs of RF frames, while testing was done on 986 new unseen pairs, achieving an accuracy of more than 91%. The RF frames were collected from both phantom and in vivo data. | 翻訳日:2022-12-31 12:26:51 公開日:2020-05-20 |
# XCAT解剖モデルを用いた4次元セマンティック心臓磁気共鳴画像合成 4D Semantic Cardiac Magnetic Resonance Image Synthesis on XCAT Anatomical Model ( http://arxiv.org/abs/2002.07089v3 ) ライセンス: Link先を確認 | Samaneh Abbasi-Sureshjani, Sina Amirrajab, Cristian Lorenz, Juergen Weese, Josien Pluim, Marcel Breeuwer | (参考訳) 心臓磁気共鳴(CMR)画像から解剖学的に意味のある3D+tを合成するハイブリッド制御可能な画像生成法を提案する。
本手法は, 機械的4D eXtended CArdiac Torso(XCAT)心臓モデルを解剖学的根拠として捉え, データ駆動型ジェネレーティブ・アドバイサル・ネットワーク(GAN)を用いてCMR画像を合成する。
条件付き画像合成に最先端の空間適応的非正規化(spade)手法を用い,基底真理解剖学の意味的空間情報を保存する。
xcat心のパラメタライズド運動モデルを用いて,心臓の25時間フレームのラベルを,短軸視で18箇所で1心周期で生成する。
その後、これらのラベルから現実的な画像が生成され、実際のCMR画像データから学習されるモダリティ固有の特徴を持つ。
スタイルエンコーダネットワークを用いて、別の心臓画像からのスタイル転送を行うことができることを示す。
新しい心臓モデルの作成におけるxcatの柔軟性のため、このアプローチは現実的な仮想人口を発生させ、高価なデータ収集のような医療画像分析研究コミュニティが直面しているさまざまな課題に対処することができる。
提案手法は4次元制御可能なcmr画像を医用画像解析において様々な教師付きマルチサイトマルチベンダアプリケーションに適用可能なアノテーションと適応スタイルで合成する大きな可能性を秘めている。 We propose a hybrid controllable image generation method to synthesize anatomically meaningful 3D+t labeled Cardiac Magnetic Resonance (CMR) images. Our hybrid method takes the mechanistic 4D eXtended CArdiac Torso (XCAT) heart model as the anatomical ground truth and synthesizes CMR images via a data-driven Generative Adversarial Network (GAN). We employ the state-of-the-art SPatially Adaptive De-normalization (SPADE) technique for conditional image synthesis to preserve the semantic spatial information of ground truth anatomy. Using the parameterized motion model of the XCAT heart, we generate labels for 25 time frames of the heart for one cardiac cycle at 18 locations for the short axis view. Subsequently, realistic images are generated from these labels, with modality-specific features that are learned from real CMR image data. We demonstrate that style transfer from another cardiac image can be accomplished by using a style encoder network. Due to the flexibility of XCAT in creating new heart models, this approach can result in a realistic virtual population to address different challenges the medical image analysis research community is facing such as expensive data collection. Our proposed method has a great potential to synthesize 4D controllable CMR images with annotations and adaptable styles to be used in various supervised multi-site, multi-vendor applications in medical image analysis. | 翻訳日:2022-12-31 11:50:12 公開日:2020-05-20 |
# ニューラルスプライン流を用いた実験ニュートリノ振動の確率-自由推定 Likelihood-free inference of experimental Neutrino Oscillations using Neural Spline Flows ( http://arxiv.org/abs/2002.09436v3 ) ライセンス: Link先を確認 | Sebastian Pina-Otey, Federico S\'anchez, Vicens Gaitan and Thorsten Lux | (参考訳) 機械学習では、確率自由推論は分析式の代わりにデータによって駆動される分析を実行するタスクを指す。
神経密度推定アルゴリズムであるニュートリノ流のロングベースラインニュートリノ実験におけるニュートリノ振動パラメータ測定の確率自由推論問題への適用について検討する。
物理パラメータ推定に適応した手法を開発し,T2K実験における消失ミューオンニュートリノ分析の事例に適用した。 In machine learning, likelihood-free inference refers to the task of performing an analysis driven by data instead of an analytical expression. We discuss the application of Neural Spline Flows, a neural density estimation algorithm, to the likelihood-free inference problem of the measurement of neutrino oscillation parameters in Long Baseline neutrino experiments. A method adapted to physics parameter inference is developed and applied to the case of the disappearance muon neutrino analysis at the T2K experiment. | 翻訳日:2022-12-30 01:55:34 公開日:2020-05-20 |
# VegasFlow:複数のハードウェアプラットフォームでモンテカルロシミュレーションを高速化 VegasFlow: accelerating Monte Carlo simulation across multiple hardware platforms ( http://arxiv.org/abs/2002.12921v2 ) ライセンス: Link先を確認 | Stefano Carrazza and Juan M. Cruz-Martinez | (参考訳) ハードウェアアクセラレータを持つプラットフォーム向けに設計されたモンテカルロ統合技術に基づく高次元積分の高速評価を行うソフトウェアであるVasasFlowについて紹介する。
科学の多くの分野における計算とシミュレーションの複雑さの増大は、その発展を助けた計算ツールの進歩を伴っている。
vegasflowを使用すると、開発者はハードウェアやプラットフォーム実装のすべての複雑な側面をライブラリに委譲できるので、目前の問題に集中できる。
このソフトウェアは、ラスベガスのアルゴリズムにインスパイアされ、粒子物理学コミュニティでクロスセクション統合の原動力として使われ、Googleの強力なTensorFlowライブラリに基づいている。
我々は、このライブラリのパフォーマンスを、多くの異なるコンシューマとプロのGPUとCPUでベンチマークする。 We present VegasFlow, a new software for fast evaluation of high dimensional integrals based on Monte Carlo integration techniques designed for platforms with hardware accelerators. The growing complexity of calculations and simulations in many areas of science have been accompanied by advances in the computational tools which have helped their developments. VegasFlow enables developers to delegate all complicated aspects of hardware or platform implementation to the library so they can focus on the problem at hand. This software is inspired on the Vegas algorithm, ubiquitous in the particle physics community as the driver of cross section integration, and based on Google's powerful TensorFlow library. We benchmark the performance of this library on many different consumer and professional grade GPUs and CPUs. | 翻訳日:2022-12-28 02:38:53 公開日:2020-05-20 |
# 人工股関節骨折に対する人工知能を用いたコンピュータ支援診断システム -多施設共同研究- A Computer-Aided Diagnosis System Using Artificial Intelligence for Hip Fractures -Multi-Institutional Joint Development Research- ( http://arxiv.org/abs/2003.12443v5 ) ライセンス: Link先を確認 | Yoichi Sato, Yasuhiko Takegami, Takamune Asamoto, Yutaro Ono, Tsugeno Hidetoshi, Ryosuke Goto, Akira Kitamura, Seiwa Honda | (参考訳) 目的〕複数のセンターで収集した大規模データセットを用いた深層学習モデルを用いて,平面前頭部X線画像のコンピュータ支援診断(CAD)システムの開発。
【材料・方法】
2009年4月から2019年3月までに各施設に来院した頚部骨折または大腿骨転子部骨折5295例に対し,平面X線,CT,MRIを用いて外科的治療を行った。
両股関節を撮影範囲に含まない症例, 大腿骨骨幹部骨折, 人工骨頭周囲骨折を除外し, 4,851例から得られた5242面前頭骨x線を機械学習に用いた。
これらの画像は、骨折側を含む5242画像と骨折側を含まない5242画像に分割され、合計10484画像が機械学習に使用された。
深層畳み込みニューラルネットワークアプローチは機械学習に使用された。
pytorch 1.3 と fast.ai 1.0 はフレームワークとして使われ、imagenet モデルである efficientnet-b4 が使用されていた。
最終評価では, 精度, 感度, 特異性, f値, および曲線下面積 (auc) を評価した。
CADシステムの診断基盤を概念化するために, 勾配重み付きクラスアクティベーションマッピング (Grad-CAM) を用いた。
結果]学習モデルの診断精度は96。
1 %,感度95.2 %,特異度96.9 %,f値0.961,auc 0.99。
診断に正確であった症例はgrad-camによる診断基準が概ね正解であった。
以上より, 深部学習モデルを用いたcadシステムは, 精度の高いx線面の股関節骨折の診断が可能であり, 決定理由の提示が可能であった。 [Objective] To develop a Computer-aided diagnosis (CAD) system for plane frontal hip X-rays with a deep learning model trained on a large dataset collected at multiple centers. [Materials and Methods]. We included 5295 cases with neck fracture or trochanteric fracture who were diagnosed and treated by orthopedic surgeons using plane X-rays or computed tomography (CT) or magnetic resonance imaging (MRI) who visited each institution between April 2009 and March 2019 were enrolled. Cases in which both hips were not included in the photographing range, femoral shaft fractures, and periprosthetic fractures were excluded, and 5242 plane frontal pelvic X-rays obtained from 4,851 cases were used for machine learning. These images were divided into 5242 images including the fracture side and 5242 images without the fracture side, and a total of 10484 images were used for machine learning. A deep convolutional neural network approach was used for machine learning. Pytorch 1.3 and Fast.ai 1.0 were used as frameworks, and EfficientNet-B4, which is pre-trained ImageNet model, was used. In the final evaluation, accuracy, sensitivity, specificity, F-value and area under the curve (AUC) were evaluated. Gradient-weighted class activation mapping (Grad-CAM) was used to conceptualize the diagnostic basis of the CAD system. [Results] The diagnostic accuracy of the learning model was accuracy of 96. 1 %, sensitivity of 95.2 %, specificity of 96.9 %, F-value of 0.961, and AUC of 0.99. The cases who were correct for the diagnosis showed generally correct diagnostic basis using Grad-CAM. [Conclusions] The CAD system using deep learning model which we developed was able to diagnose hip fracture in the plane X-ray with the high accuracy, and it was possible to present the decision reason. | 翻訳日:2022-12-24 15:52:33 公開日:2020-05-20 |
# 機械学習を用いた企業分類 Company classification using machine learning ( http://arxiv.org/abs/2004.01496v2 ) ライセンス: Link先を確認 | Sven Husmann, Antoniya Shivarova, Rick Steinert | (参考訳) 計算能力と機械学習アルゴリズムの最近の進歩は、研究の多様体領域に大きな改善をもたらした。
特に金融分野では、機械学習の応用により、研究者と実践者の両方が、金融データや企業分類などのよく研究された分野に関する新たな洞察を得ることができる。
本稿では,教師なし機械学習アルゴリズムを用いて企業データを経済的に有意義かつ効果的な方法で可視化・分類できることを実証する。
特に,データ駆動次元低減可視化ツールt-distributed stochastic neighbor embedded (t-SNE) をスペクトルクラスタリングと組み合わせて実装する。
得られた企業グループは、経験分析と最適な意思決定のために、この分野の専門家によって活用することができる。
ポートフォリオ最適化フレームワーク内でサンプル外分析を例示することにより、t-SNEとスペクトルクラスタリングの適用により、ポートフォリオ全体のパフォーマンスが向上することを示す。
そこで本研究では,金融コミュニティにデータ分析と企業分類の文脈において有用な手法としてアプローチを導入する。 The recent advancements in computational power and machine learning algorithms have led to vast improvements in manifold areas of research. Especially in finance, the application of machine learning enables both researchers and practitioners to gain new insights into financial data and well-studied areas such as company classification. In our paper, we demonstrate that unsupervised machine learning algorithms can be used to visualize and classify company data in an economically meaningful and effective way. In particular, we implement the data-driven dimension reduction and visualization tool t-distributed stochastic neighbor embedding (t-SNE) in combination with spectral clustering. The resulting company groups can then be utilized by experts in the field for empirical analysis and optimal decision making. By providing an exemplary out-of-sample study within a portfolio optimization framework, we show that the application of t-SNE and spectral clustering improves the overall portfolio performance. Therefore, we introduce our approach to the financial community as a valuable technique in the context of data analysis and company classification. | 翻訳日:2022-12-18 02:00:59 公開日:2020-05-20 |
# 小データセットを用いた胸部X線からのCovid-19の検出 Finding Covid-19 from Chest X-rays using Deep Learning on a Small Dataset ( http://arxiv.org/abs/2004.02060v4 ) ライセンス: Link先を確認 | Lawrence O. Hall, Rahul Paul, Dmitry B. Goldgof, and Gregory M. Goldgof | (参考訳) 新型コロナウイルス(covid-19)の検査は需要に追いついていない。
さらに、偽陰性率を30%以上と予測し、試験結果を得るのに時間がかかる可能性がある。
X線装置は広く利用でき、迅速に診断のための画像を提供する。
本稿では、新型コロナウイルスの診断における胸部X線画像の有用性について検討する。
ウイルスおよび細菌性肺炎の胸部X線122点, 胸部X線4,000点以上を得た。
プレトレーニングされた深層畳み込みニューラルネットワークは、10倍のクロスバリデーションで102のCOVID-19患者と102の他の肺炎患者に調整されている。
結果,全102例が正しく分類され,偽陽性が8例あり,aucは0.997例であった。
未発見の20例の検査セットでは、いずれも正しく分類され、4171例中95%以上が正しく分類された。
この研究には欠陥があり、最も批判的なのは、covid-19の患者がどこで、そしてデータセットのサイズが小さいかについての情報が不足していることだ。
より多くのcovid-19のケースイメージは、胸部x線がcovid-19の診断にどれほど役に立つかという質問に対して、より良い答えをもたらす。 Testing for COVID-19 has been unable to keep up with the demand. Further, the false negative rate is projected to be as high as 30% and test results can take some time to obtain. X-ray machines are widely available and provide images for diagnosis quickly. This paper explores how useful chest X-ray images can be in diagnosing COVID-19 disease. We have obtained 122 chest X-rays of COVID-19 and over 4,000 chest X-rays of viral and bacterial pneumonia. A pretrained deep convolutional neural network has been tuned on 102 COVID-19 cases and 102 other pneumonia cases in a 10-fold cross validation. The results were all 102 COVID-19 cases were correctly classified and there were 8 false positives resulting in an AUC of 0.997. On a test set of 20 unseen COVID-19 cases all were correctly classified and more than 95% of 4171 other pneumonia examples were correctly classified. This study has flaws, most critically a lack of information about where in the disease process the COVID-19 cases were and the small data set size. More COVID-19 case images will enable a better answer to the question of how useful chest X-rays can be for diagnosing COVID-19 (so please send them). | 翻訳日:2022-12-16 12:25:47 公開日:2020-05-20 |
# ビデオから学ぶ時空間一貫性による意味的セグメンテーションの改善 Improving Semantic Segmentation through Spatio-Temporal Consistency Learned from Videos ( http://arxiv.org/abs/2004.05324v2 ) ライセンス: Link先を確認 | Ankita Pasad, Ariel Gordon, Tsung-Yi Lin, Anelia Angelova | (参考訳) 我々は,映像フレーム間のセグメンテーションマスクの3次元幾何学的・時間的一貫性を強制することにより,奥行き,エゴモーション,カメラの内在性に関する教師なし学習を活用し,単一画像セグメンテーションの性能を向上させる。
予測深度、エゴモーション、カメラ固有性は、セグメンテーションモデルに追加の監視信号を提供し、その品質を大幅に向上させるか、または、セグメンテーションモデルに必要なラベルの数を減らすために使用される。
ScanNetデータセットを用いて実験を行った。 We leverage unsupervised learning of depth, egomotion, and camera intrinsics to improve the performance of single-image semantic segmentation, by enforcing 3D-geometric and temporal consistency of segmentation masks across video frames. The predicted depth, egomotion, and camera intrinsics are used to provide an additional supervision signal to the segmentation model, significantly enhancing its quality, or, alternatively, reducing the number of labels the segmentation model needs. Our experiments were performed on the ScanNet dataset. | 翻訳日:2022-12-14 12:49:06 公開日:2020-05-20 |
# データ哲学という哲学 A Philosophy of Data ( http://arxiv.org/abs/2004.09990v2 ) ライセンス: Link先を確認 | Alexander M. Mussgnug | (参考訳) ビジネス、政府、科学、日々の生活におけるより多くの努力がデータ駆動であるなら、私たちは正確に何が駆動されているのかにもっと注意を払うべきです。
したがって、データを構成する基本的な性質についてさらに議論する必要がある。
本論文の第一節では,統計計算に必要な基本的な性質から統計データの定義までについて述べる。
統計ダタムを実体特性と数値特性の結合として定義し,定性的データと定量的データを区別する。
その後、統計的手法によって関連する洞察を創出できる有意義な差異を明らかにする方法で、データが実用的に有用であるためには、コンメンサブルでなければならない、という私たちの定義に適合する。
第2のセクションでは、データの概念がデータ倫理に関する談話にどんな貢献ができるかに焦点を当てます。
第一に、有用データの必要性は、プロパティを根本的にユニークか等しく理解することを規定するものである。
第二に、実際的な懸念は、どのように従属的性質を運用するかをますます標準化し、つまりデータの従属的性質と数値的性質の関係を形式化するかを議論する。
これにより、プロパティの解釈も標準化される。
データとデータ技術への依存が高まるにつれ、この2つのデータの特徴は現実の集団的概念に影響を与えます。
統計データは、基本的に一意で平等な現象の排除は、我々の世界観に影響を与え、従属的性質の標準化は、我々の日常生活における現象のより広く解釈されるように、深い存在論的実践と見なすことができる。 We argue that while this discourse on data ethics is of critical importance, it is missing one fundamental point: If more and more efforts in business, government, science, and our daily lives are data-driven, we should pay more attention to what exactly we are driven by. Therefore, we need more debate on what fundamental properties constitute data. In the first section of the paper, we work from the fundamental properties necessary for statistical computation to a definition of statistical data. We define a statistical datum as the coming together of substantive and numerical properties and differentiate between qualitative and quantitative data. Subsequently, we qualify our definition by arguing that for data to be practically useful, it needs to be commensurable in a manner that reveals meaningful differences that allow for the generation of relevant insights through statistical methodologies. In the second section, we focus on what our conception of data can contribute to the discourse on data ethics and beyond. First, we hold that the need for useful data to be commensurable rules out an understanding of properties as fundamentally unique or equal. Second, we argue that practical concerns lead us to increasingly standardize how we operationalize a substantive property; in other words, how we formalize the relationship between the substantive and numerical properties of data. Thereby, we also standardize the interpretation of a property. With our increasing reliance on data and data technologies, these two characteristics of data affect our collective conception of reality. Statistical data's exclusion of the fundamentally unique and equal influences our perspective on the world, and the standardization of substantive properties can be viewed as profound ontological practice, entrenching ever more pervasive interpretations of phenomena in our everyday lives. | 翻訳日:2022-12-13 03:58:10 公開日:2020-05-20 |
# SPECTER:Citation-informed Transformer を用いた文書レベルの表現学習 SPECTER: Document-level Representation Learning using Citation-informed Transformers ( http://arxiv.org/abs/2004.07180v4 ) ライセンス: Link先を確認 | Arman Cohan, Sergey Feldman, Iz Beltagy, Doug Downey, Daniel S. Weld | (参考訳) 表現学習は自然言語処理システムにとって重要な要素である。
bertのような最近のトランスフォーマー言語モデルは強力なテキスト表現を学習するが、これらのモデルはトークンや文レベルのトレーニング対象をターゲットにしており、ドキュメント間の関連性に関する情報を活用せず、ドキュメントレベルの表現能力を制限する。
分類やレコメンデーションのような科学文書のアプリケーションでは、埋め込みはエンドタスクで強力なパフォーマンスを発揮する。
本研究では,文書レベルの関連性を示す強力な信号に基づくトランスフォーマー言語モデルの事前学習に基づいて,科学文書の文書レベルでの埋め込みを生成する新しい手法であるspecterを提案する。
既存の事前訓練言語モデルとは異なり、SPECTERはタスク固有の微調整なしでダウンストリームアプリケーションに容易に適用できる。
さらに,文書レベルのモデルに関するさらなる研究を促すために,引用予測から文書分類や推薦まで7つの文書レベルのタスクからなる,新たな評価ベンチマークであるscidocsを紹介する。
specterは、ベンチマークのさまざまな競合ベースラインよりも優れています。 Representation learning is a critical ingredient for natural language processing systems. Recent Transformer language models like BERT learn powerful textual representations, but these models are targeted towards token- and sentence-level training objectives and do not leverage information on inter-document relatedness, which limits their document-level representation power. For applications on scientific documents, such as classification and recommendation, the embeddings power strong performance on end tasks. We propose SPECTER, a new method to generate document-level embedding of scientific documents based on pretraining a Transformer language model on a powerful signal of document-level relatedness: the citation graph. Unlike existing pretrained language models, SPECTER can be easily applied to downstream applications without task-specific fine-tuning. Additionally, to encourage further research on document-level models, we introduce SciDocs, a new evaluation benchmark consisting of seven document-level tasks ranging from citation prediction, to document classification and recommendation. We show that SPECTER outperforms a variety of competitive baselines on the benchmark. | 翻訳日:2022-12-13 03:31:11 公開日:2020-05-20 |
# 強化学習を用いた合成可能な化学空間をナビゲートする学習 Learning To Navigate The Synthetically Accessible Chemical Space Using Reinforcement Learning ( http://arxiv.org/abs/2004.12485v2 ) ライセンス: Link先を確認 | Sai Krishna Gottipati, Boris Sattarov, Sufeng Niu, Yashaswi Pathak, Haoran Wei, Shengchao Liu, Karam M. J. Thomas, Simon Blackburn, Connor W. Coley, Jian Tang, Sarath Chandar, Yoshua Bengio | (参考訳) 過去10年間で、特に深層生成モデルにおいて、デ・ノボの薬物設計のための機械学習の分野は大きな進歩を遂げてきた。
しかし、現在の生成アプローチでは、提案する分子構造が実現可能な合成や、提案されている小さな分子の合成経路を提供しないことを保証することができないため、実用性に深刻な制限がある。
本研究では,デノボ薬物設計システムに直接合成アクセシビリティの概念を組み込むことにより,この課題に対処する,デノボ医薬品設計のための強化学習(RL)を活用した新しい前方合成フレームワークを提案する。
このセットアップでは、商業的に利用可能な小さな分子ビルディングブロックを、反復的な仮想多段階合成プロセスの各段階における化学反応を検証することによって、巨大な合成可能な化学空間をナビゲートすることを学ぶ。
提案する薬物発見環境は,大規模な状態空間と階層的動作を伴う高次元連続的動作空間のため,rlアルゴリズムに対して極めて挑戦的なテストベッドを提供する。
PGFSは、高いQEDとペナル化されたclogPを持つ構造を生成する際に、最先端の性能を達成する。
さらに,3つのHIV標的に関連付けられた概念実証においてPGFSを検証した。
最後に,本研究で概念化されたエンド・ツー・エンドのトレーニングが,化学合成空間を根本的に拡大し,創薬プロセスを自動化する上で重要なパラダイムであることを示す。 Over the last decade, there has been significant progress in the field of machine learning for de novo drug design, particularly in deep generative models. However, current generative approaches exhibit a significant challenge as they do not ensure that the proposed molecular structures can be feasibly synthesized nor do they provide the synthesis routes of the proposed small molecules, thereby seriously limiting their practical applicability. In this work, we propose a novel forward synthesis framework powered by reinforcement learning (RL) for de novo drug design, Policy Gradient for Forward Synthesis (PGFS), that addresses this challenge by embedding the concept of synthetic accessibility directly into the de novo drug design system. In this setup, the agent learns to navigate through the immense synthetically accessible chemical space by subjecting commercially available small molecule building blocks to valid chemical reactions at every time step of the iterative virtual multi-step synthesis process. The proposed environment for drug discovery provides a highly challenging test-bed for RL algorithms owing to the large state space and high-dimensional continuous action space with hierarchical actions. PGFS achieves state-of-the-art performance in generating structures with high QED and penalized clogP. Moreover, we validate PGFS in an in-silico proof-of-concept associated with three HIV targets. Finally, we describe how the end-to-end training conceptualized in this study represents an important paradigm in radically expanding the synthesizable chemical space and automating the drug discovery process. | 翻訳日:2022-12-09 12:59:22 公開日:2020-05-20 |
# AVA-Kineticsの人間行動ビデオデータセット The AVA-Kinetics Localized Human Actions Video Dataset ( http://arxiv.org/abs/2005.00214v2 ) ライセンス: Link先を確認 | Ang Li, Meghana Thotakuri, David A. Ross, Jo\~ao Carreira, Alexander Vostrikov, Andrew Zisserman | (参考訳) 本稿では,ava-kinetics localized human actions video datasetについて述べる。
データセットは、AVAアノテーションプロトコルを使用して、Kinetics-700データセットのビデオを注釈付けし、これらの新しいAVAアノテーション付きKineticsクリップで元のAVAデータセットを拡張することで収集される。
データセットには、キーフレーム内の各人間のための80のAVAアクションクラスに注釈付けされた230万以上のクリップが含まれている。
アノテーションプロセスを説明し、新しいデータセットに関する統計を提供する。
また,AVA-Kinetics データセット上での Video Action Transformer Network を用いたベースライン評価を行い,AVA テストセットにおけるアクション分類の性能向上を示す。
データセットはhttps://research.google.com/ava/からダウンロードできる。 This paper describes the AVA-Kinetics localized human actions video dataset. The dataset is collected by annotating videos from the Kinetics-700 dataset using the AVA annotation protocol, and extending the original AVA dataset with these new AVA annotated Kinetics clips. The dataset contains over 230k clips annotated with the 80 AVA action classes for each of the humans in key-frames. We describe the annotation process and provide statistics about the new dataset. We also include a baseline evaluation using the Video Action Transformer Network on the AVA-Kinetics dataset, demonstrating improved performance for action classification on the AVA test set. The dataset can be downloaded from https://research.google.com/ava/ | 翻訳日:2022-12-07 23:28:31 公開日:2020-05-20 |
# 教師なし形態素パラダイム完了 Unsupervised Morphological Paradigm Completion ( http://arxiv.org/abs/2005.00970v2 ) ライセンス: Link先を確認 | Huiming Jin, Liwei Cai, Yihui Peng, Chen Xia, Arya D. McCarthy, Katharina Kann | (参考訳) 我々は,教師なし形態的パラダイム補完の課題を提案する。
原文と補題リストのみを与えられたタスクは、全ての屈折形の形態的パラダイム、すなわち、補題を生成することで構成される。
自然言語処理(NLP)の観点からは、これは教師なしの課題であり、ハイパフォーマンスシステムは低リソース言語のためのツールの改善や言語アノテータの支援を行う可能性がある。
認知科学の観点からすると、これは子供が形態学的な知識を得る方法に光を当てることができる。
さらに、以下のステップで形態的パラダイムを生成するタスクのためのシステムを紹介します。
(i)EDIT TREE検索
(ii)補題検索の追加
(iii)パラダイム規模発見、及び
(iv)変曲生成。
14の類型的多様言語について評価を行った。
我々のシステムは自明なベースラインを軽快に上回り、一部の言語では最小限の教師付きシステムよりも高い精度が得られる。 We propose the task of unsupervised morphological paradigm completion. Given only raw text and a lemma list, the task consists of generating the morphological paradigms, i.e., all inflected forms, of the lemmas. From a natural language processing (NLP) perspective, this is a challenging unsupervised task, and high-performing systems have the potential to improve tools for low-resource languages or to assist linguistic annotators. From a cognitive science perspective, this can shed light on how children acquire morphological knowledge. We further introduce a system for the task, which generates morphological paradigms via the following steps: (i) EDIT TREE retrieval, (ii) additional lemma retrieval, (iii) paradigm size discovery, and (iv) inflection generation. We perform an evaluation on 14 typologically diverse languages. Our system outperforms trivial baselines with ease and, for some languages, even obtains a higher accuracy than minimally supervised systems. | 翻訳日:2022-12-07 06:32:52 公開日:2020-05-20 |
# 細粒度金融意見マイニング:調査と研究課題 Fine-grained Financial Opinion Mining: A Survey and Research Agenda ( http://arxiv.org/abs/2005.01897v3 ) ライセンス: Link先を確認 | Chung-Chi Chen, Hen-Hsen Huang, Hsin-Hsi Chen | (参考訳) 意見マイニングは、多くの領域で一般的な研究課題である。
しかし、金融分野ではまだ初期段階にある。
このトピックに関するほとんどの研究は、粗い市場感情分析、すなわち強気/強気の2方向分類にのみ焦点をあてている。
近年の金融技術(FinTech)の発展により、一部の学際研究者は投資家の意見の詳細な分析に関わり始めた。
本稿では,まず,粗粒度と細粒度の両方の視点から財務的な意見を定義し,すでに取り組まれている課題の概要を述べる。
既存のトピックについての研究課題の一覧に加え、今後の研究のための詳細な財務意見マイニングのロードマップも提案し、まだ検討されていない課題をいくつか挙げる。
また,提案する研究課題に対処するための方策も提案する。 Opinion mining is a prevalent research issue in many domains. In the financial domain, however, it is still in the early stages. Most of the researches on this topic only focus on the coarse-grained market sentiment analysis, i.e., 2-way classification for bullish/bearish. Thanks to the recent financial technology (FinTech) development, some interdisciplinary researchers start to involve in the in-depth analysis of investors' opinions. In this position paper, we first define the financial opinions from both coarse-grained and fine-grained points of views, and then provide an overview on the issues already tackled. In addition to listing research issues of the existing topics, we further propose a road map of fine-grained financial opinion mining for future researches, and point out several challenges yet to explore. Moreover, we provide possible directions to deal with the proposed research issues. | 翻訳日:2022-12-06 14:15:51 公開日:2020-05-20 |
# 地域肺炎からのCOVID-19診断のためのデュアルサンプリング注意ネットワーク Dual-Sampling Attention Network for Diagnosis of COVID-19 from Community Acquired Pneumonia ( http://arxiv.org/abs/2005.02690v2 ) ライセンス: Link先を確認 | Xi Ouyang, Jiayu Huo, Liming Xia, Fei Shan, Jun Liu, Zhanhao Mo, Fuhua Yan, Zhongxiang Ding, Qi Yang, Bin Song, Feng Shi, Huan Yuan, Ying Wei, Xiaohuan Cao, Yaozong Gao, Dijia Wu, Qian Wang, Dinggang Shen | (参考訳) 新型コロナウイルス(COVID-19)は世界中で急速に広がり、2020年4月9日現在、200カ国以上で1,436,000人以上が感染している。
新型コロナウイルスの早期検出は、患者に適切な医療を提供するだけでなく、感染していない人々を保護するためにも不可欠である。
そこで我々は,胸部CT(Central Computed Tomography)において,地域肺炎(CAP)からCOVID-19を自動診断するデュアルサンプリングアテンションネットワークを開発した。
特に,3D畳み込みネットワーク(CNN)を用いた新しいオンラインアテンションモジュールを提案する。
症状発症後の新型コロナウイルスの急激な進行により、新型コロナウイルスとCAPの感染部位の大きさが不均衡に分布していることに注意。
そこで本研究では,不均衡学習を緩和するデュアルサンプリング戦略を開発した。
本手法は8つの病院から得られた最大多施設ctデータを用いて評価した。
トレーニング-バリデーション段階では,5倍のクロスバリデーションのために1588名の患者から2186個のctスキャンを採取した。
テスト段階では、2057人の患者からの2796のctスキャンを含む別の独立した大規模テストデータセットを用いる。
その結果, 受信機動作特性曲線(AUC)値0.944, 精度87.5%, 感度86.9%, 特異度90.1%, F1スコア82.0%の領域で, COVID-19画像の同定が可能であった。
この性能により、このアルゴリズムは、特にcovid-19の流行の初期段階において、capからcovid-19診断を受ける放射線科医を助ける可能性がある。 The coronavirus disease (COVID-19) is rapidly spreading all over the world, and has infected more than 1,436,000 people in more than 200 countries and territories as of April 9, 2020. Detecting COVID-19 at early stage is essential to deliver proper healthcare to the patients and also to protect the uninfected population. To this end, we develop a dual-sampling attention network to automatically diagnose COVID- 19 from the community acquired pneumonia (CAP) in chest computed tomography (CT). In particular, we propose a novel online attention module with a 3D convolutional network (CNN) to focus on the infection regions in lungs when making decisions of diagnoses. Note that there exists imbalanced distribution of the sizes of the infection regions between COVID-19 and CAP, partially due to fast progress of COVID-19 after symptom onset. Therefore, we develop a dual-sampling strategy to mitigate the imbalanced learning. Our method is evaluated (to our best knowledge) upon the largest multi-center CT data for COVID-19 from 8 hospitals. In the training-validation stage, we collect 2186 CT scans from 1588 patients for a 5-fold cross-validation. In the testing stage, we employ another independent large-scale testing dataset including 2796 CT scans from 2057 patients. Results show that our algorithm can identify the COVID-19 images with the area under the receiver operating characteristic curve (AUC) value of 0.944, accuracy of 87.5%, sensitivity of 86.9%, specificity of 90.1%, and F1-score of 82.0%. With this performance, the proposed algorithm could potentially aid radiologists with COVID-19 diagnosis from CAP, especially in the early stage of the COVID-19 outbreak. | 翻訳日:2022-12-06 06:08:57 公開日:2020-05-20 |
# Vid2Curve:RGBビデオからの同時カメラモーション推定と微細構造再構築 Vid2Curve: Simultaneous Camera Motion Estimation and Thin Structure Reconstruction from an RGB Video ( http://arxiv.org/abs/2005.03372v3 ) ライセンス: Link先を確認 | Peng Wang, Lingjie Liu, Nenglun Chen, Hung-Kuo Chu, Christian Theobalt, Wenping Wang | (参考訳) ワイヤーフレーム彫刻、フェンス、ケーブル、電力線、木の枝などの細い構造は現実世界では一般的である。
従来の画像ベースや深度ベースの再構築手法を用いて3Dデジタルモデルを入手することは極めて困難である。
ハンドヘルドカメラで撮影したカラービデオから,カメラの動きを同時に推定し,複雑な3次元薄膜構造の形状を高品質に再構成する手法を提案する。
具体的には,背景シーンの視覚的テクスチャをロックオンすることなく,前景における特徴のない細い物体間の対応性を確立することで,正確なカメラポーズを推定するための曲線ベースの新しいアプローチを提案する。
この効果的な曲線型カメラポーズ推定戦略により, 形状, トポロジー, 自己排他性を考慮した3次元構造再構成のための反復的最適化手法を開発した。
種々の薄型構造物に対する広範囲な検証により, 既存の復元方法では得られていない複雑な形状とトポロジーを有する3次元薄型構造物の高精度なカメラポーズ推定と忠実な復元が達成された。 Thin structures, such as wire-frame sculptures, fences, cables, power lines, and tree branches, are common in the real world. It is extremely challenging to acquire their 3D digital models using traditional image-based or depth-based reconstruction methods because thin structures often lack distinct point features and have severe self-occlusion. We propose the first approach that simultaneously estimates camera motion and reconstructs the geometry of complex 3D thin structures in high quality from a color video captured by a handheld camera. Specifically, we present a new curve-based approach to estimate accurate camera poses by establishing correspondences between featureless thin objects in the foreground in consecutive video frames, without requiring visual texture in the background scene to lock on. Enabled by this effective curve-based camera pose estimation strategy, we develop an iterative optimization method with tailored measures on geometry, topology as well as self-occlusion handling for reconstructing 3D thin structures. Extensive validations on a variety of thin structures show that our method achieves accurate camera pose estimation and faithful reconstruction of 3D thin structures with complex shape and topology at a level that has not been attained by other existing reconstruction methods. | 翻訳日:2022-12-06 00:18:51 公開日:2020-05-20 |
# 多言語BERTにおける普遍文法関係の探索 Finding Universal Grammatical Relations in Multilingual BERT ( http://arxiv.org/abs/2005.04511v2 ) ライセンス: Link先を確認 | Ethan A. Chi, John Hewitt, Christopher D. Manning | (参考訳) 近年の研究では、トランスフォーマーをベースとした多言語マスキング言語モデルであるMultilingual BERT (mBERT) がゼロショットのクロスランガル転送が可能であることが証明されており、その表現のいくつかの側面がクロスランガルに共有されていることが示唆されている。
この重複をよりよく理解するために、ニューラルネットワークの内部表現から構文木を見つけるという最近の研究を多言語環境に拡張する。
我々は、mBERT表現のサブスペースが英語以外の言語で構文木距離を回復し、これらのサブスペースが言語間でほぼ共有されていることを示す。
これらの結果から,mBERTが文法的依存ラベルの表現を学習する証拠を,Universal Dependencies分類にほぼ一致するクラスタの形で提示する無教師分析手法を提案する。
この証拠は、明示的な監督なしにも、多言語マスク言語モデルは特定の言語普遍性を学ぶことを示唆している。 Recent work has found evidence that Multilingual BERT (mBERT), a transformer-based multilingual masked language model, is capable of zero-shot cross-lingual transfer, suggesting that some aspects of its representations are shared cross-lingually. To better understand this overlap, we extend recent work on finding syntactic trees in neural networks' internal representations to the multilingual setting. We show that subspaces of mBERT representations recover syntactic tree distances in languages other than English, and that these subspaces are approximately shared across languages. Motivated by these results, we present an unsupervised analysis method that provides evidence mBERT learns representations of syntactic dependency labels, in the form of clusters which largely agree with the Universal Dependencies taxonomy. This evidence suggests that even without explicit supervision, multilingual masked language models learn certain linguistic universals. | 翻訳日:2022-12-05 06:34:08 公開日:2020-05-20 |
# SKEP:感覚分析のための事前学習の強化 SKEP: Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis ( http://arxiv.org/abs/2005.05635v2 ) ライセンス: Link先を確認 | Hao Tian, Can Gao, Xinyan Xiao, Hao Liu, Bolei He, Hua Wu, Haifeng Wang, Feng Wu | (参考訳) 近年,プレトレーニングアプローチの助けを借りて感情分析が著しく進歩している。
しかし、従来の感情分析手法で広く使われているにもかかわらず、感情語やアスペクト知覚ペアのような感情知識は事前学習の過程で無視される。
本稿では,複数の感情分析タスクに対する統一的な感情表現を学習するために,感覚知識強化事前学習(SKEP)を導入する。
SKEPは、自動的な知識の助けを借りて、感情マスキングを行い、3つの感情知識予測目標を構築し、感情情報を単語、極性、アスペクトレベルに組み込む。
特に、アスペクト強調ペアの予測は、ペア内の単語間の依存性を捉えることを目的として、マルチラベル分類に変換される。
3種類の感情タスクの実験では、SKEPはトレーニング前のベースラインを著しく上回り、テストデータセットのほとんどで新たな最先端結果が得られる。
コードはhttps://github.com/baidu/sentaでリリースします。 Recently, sentiment analysis has seen remarkable advance with the help of pre-training approaches. However, sentiment knowledge, such as sentiment words and aspect-sentiment pairs, is ignored in the process of pre-training, despite the fact that they are widely used in traditional sentiment analysis approaches. In this paper, we introduce Sentiment Knowledge Enhanced Pre-training (SKEP) in order to learn a unified sentiment representation for multiple sentiment analysis tasks. With the help of automatically-mined knowledge, SKEP conducts sentiment masking and constructs three sentiment knowledge prediction objectives, so as to embed sentiment information at the word, polarity and aspect level into pre-trained sentiment representation. In particular, the prediction of aspect-sentiment pairs is converted into multi-label classification, aiming to capture the dependency between words in a pair. Experiments on three kinds of sentiment tasks show that SKEP significantly outperforms strong pre-training baseline, and achieves new state-of-the-art results on most of the test datasets. We release our code at https://github.com/baidu/Senta. | 翻訳日:2022-12-03 18:59:43 公開日:2020-05-20 |
# 多モード磁気共鳴イメージングによるグリオーマの神経構造探索 Neural Architecture Search for Gliomas Segmentation on Multimodal Magnetic Resonance Imaging ( http://arxiv.org/abs/2005.06338v2 ) ライセンス: Link先を確認 | Feifan Wang | (参考訳) ここ数年は、さまざまな医療分野における人工知能の進化に触発された。
グリオーマ(生存率の低い脳腫瘍)の診断と治療は、磁気共鳴画像(MRI)スキャンによって行われるコンピュータ支援のセグメンテーションプロセスに大きく依存している。
エンコーダ・デコーダ型の深層学習ネットワークは、医用画像解析における意味的セグメンテーションタスクの事実上の標準スタイルであるが、ダウンサンプリングブロックとアップサンプリングブロックの詳細なアーキテクチャ設計に多大な労力を費やす必要がある。
本研究では,マルチモーダル容積MRIスキャンにおける脳腫瘍セグメント化タスクに対するニューラルアーキテクチャサーチ(NAS)に基づくソリューションを提案する。
それぞれの操作に特定の確率パラメータを割り当てて学習する3種類の基本構成ブロックに対して、それぞれ3組の候補演算が構成される。
操作の重みとネットワーク内の他のパラメータを交互に更新することで、検索機構は上向きと下向きのブロックに対して2つの最適な構造となる。
さらに,脳mri処理に適した正規化およびパッチ適用戦略も統合した。
brats 2019データセットに関する広範な比較実験は、提案アルゴリズムがブロックアーキテクチャ構築のプレッシャーを和らげるだけでなく、競争力とスケーラビリティを持つことを示した。 Past few years have witnessed the artificial intelligence inspired evolution in various medical fields. The diagnosis and treatment of gliomas -- one of the most commonly seen brain tumors with low survival rate -- rely heavily on the computer assisted segmentation process undertaken on the magnetic resonance imaging (MRI) scans. Although the encoder-decoder shaped deep learning networks have been the de facto standard style for semantic segmentation tasks in medical imaging analysis, enormous effort is still required to be spent on designing the detailed architecture of the down-sampling and up-sampling blocks. In this work, we propose a neural architecture search (NAS) based solution to brain tumor segmentation tasks on multimodal volumetric MRI scans. Three sets of candidate operations are composed respectively for three kinds of basic building blocks in which each operation is assigned with a specific probabilistic parameter to be learned. Through alternately updating the weights of operations and the other parameters in the network, the searching mechanism ends up with two optimal structures for the upward and downward blocks. Moreover, the developed solution also integrates normalization and patching strategies tailored for brain MRI processing. Extensive comparative experiments on the BraTS 2019 dataset demonstrate that the proposed algorithm not only could relieve the pressure of fabricating block architectures but also possesses competitive feasibility and scalability. | 翻訳日:2022-12-03 12:40:29 公開日:2020-05-20 |
# ポートレートシャドウマニピュレーション Portrait Shadow Manipulation ( http://arxiv.org/abs/2005.08925v2 ) ライセンス: Link先を確認 | Xuaner Cecilia Zhang, Jonathan T. Barron, Yun-Ta Tsai, Rohit Pandey, Xiuming Zhang, Ren Ng, David E. Jacobs | (参考訳) カジュアルに撮影されたポートレート写真は、環境の条件が最適でないため、膨らまない照明や影に苦しむことが多い。
シャドーの位置や柔らかさ、顔の明るい部分と暗い部分の照明比といった美的特性は、写真家によってではなく環境の制約によってしばしば決定される。
プロフェッショナルは、リム、バウンスカード、フラッシュなどのライトシェイピングツールを追加することでこの問題に対処する。
本稿では, カジュアルなフォトグラファーに対して, この制御をある程度与えた計算手法を提案する。
提案手法は,外部の物体が投射する外部の影を取り除くニューラルネットワークと,被写体の特徴によって投射される顔の影を柔らかくし,合成したフィラーライトを加えることで照明比を向上させる。
最初のネットワークをトレーニングするために、私たちは、合成された外国の影が顔にレンダリングされる現実世界の肖像画のデータセットを構築します。
第2のネットワークをトレーニングするために、人間の顔の光ステージスキャンのデータセットを使用して、小さな光源によって厳しく照らされた入力画像の入出力対を構築し、各顔の変動的に軟化および充満する出力画像を作成しました。
顔の対称性を明示的に符号化する手法を提案し,我々のデータセットとトレーニング手順により,野生で撮影された画像にモデルを一般化できることを示す。
これらのネットワークは、現実世界の肖像画における影と光の現実的で美的な強化を可能にする Casually-taken portrait photographs often suffer from unflattering lighting and shadowing because of suboptimal conditions in the environment. Aesthetic qualities such as the position and softness of shadows and the lighting ratio between the bright and dark parts of the face are frequently determined by the constraints of the environment rather than by the photographer. Professionals address this issue by adding light shaping tools such as scrims, bounce cards, and flashes. In this paper, we present a computational approach that gives casual photographers some of this control, thereby allowing poorly-lit portraits to be relit post-capture in a realistic and easily-controllable way. Our approach relies on a pair of neural networks---one to remove foreign shadows cast by external objects, and another to soften facial shadows cast by the features of the subject and to add a synthetic fill light to improve the lighting ratio. To train our first network we construct a dataset of real-world portraits wherein synthetic foreign shadows are rendered onto the face, and we show that our network learns to remove those unwanted shadows. To train our second network we use a dataset of Light Stage scans of human subjects to construct input/output pairs of input images harshly lit by a small light source, and variably softened and fill-lit output images of each face. We propose a way to explicitly encode facial symmetry and show that our dataset and training procedure enable the model to generalize to images taken in the wild. Together, these networks enable the realistic and aesthetically pleasing enhancement of shadows and lights in real-world portrait images | 翻訳日:2022-12-02 00:25:36 公開日:2020-05-20 |
# 消費者健康問題に対する回答の質問駆動要約 Question-Driven Summarization of Answers to Consumer Health Questions ( http://arxiv.org/abs/2005.09067v2 ) ライセンス: Link先を確認 | Max Savery, Asma Ben Abacha, Soumya Gayen, Dina Demner-Fushman | (参考訳) 自然言語の自動要約は、コンピュータ科学において広く研究されている分野であり、日常的に大量の情報を理解する必要がある人に広く適用できる。
例えば、医療分野において、深層学習による自動要約へのアプローチの進歩は、患者や消費者にとってより容易に健康情報にアクセスできるようにする可能性がある。
しかし, 健康情報の自動生成サマリーの品質を評価するためには, ゴールドスタンダード, 人為的なサマリーが必要である。
国立医学図書館の消費者健康質問応答システム(consumer health question answering system)による回答を用いて,消費者健康質問に対する回答の質問駆動要約を含む,最初の要約集であるmediqa answers summarization dataset(mediqa answer summarization dataset)を提案する。
このデータセットは、抽出的または抽象的アプローチを用いてアルゴリズムによって生成された単一または複数文書の要約を評価するのに使うことができる。
データセットをベンチマークするために、ベースラインおよび最先端のディープラーニング要約モデルの結果を含み、このデータセットが、質問駆動型マシン生成要約を効果的に評価し、医学的質問応答における機械学習研究を促進できることを実証する。 Automatic summarization of natural language is a widely studied area in computer science, one that is broadly applicable to anyone who routinely needs to understand large quantities of information. For example, in the medical domain, recent developments in deep learning approaches to automatic summarization have the potential to make health information more easily accessible to patients and consumers. However, to evaluate the quality of automatically generated summaries of health information, gold-standard, human generated summaries are required. Using answers provided by the National Library of Medicine's consumer health question answering system, we present the MEDIQA Answer Summarization dataset, the first summarization collection containing question-driven summaries of answers to consumer health questions. This dataset can be used to evaluate single or multi-document summaries generated by algorithms using extractive or abstractive approaches. In order to benchmark the dataset, we include results of baseline and state-of-the-art deep learning summarization models, demonstrating that this dataset can be used to effectively evaluate question-driven machine-generated summaries and promote further machine learning research in medical question answering. | 翻訳日:2022-12-01 23:39:13 公開日:2020-05-20 |
# リレーショナルデータベースの埋め込みによるニューヨーク市犯罪監視の解錠 Unlocking New York City Crime Insights using Relational Database Embeddings ( http://arxiv.org/abs/2005.09617v2 ) ライセンス: Link先を確認 | Apoorva Nitsure and Rajesh Bordawekar and Jose Neves | (参考訳) このバージョンは、著者が提出時点でライセンスに同意する権利を持っていなかったため、arXiv管理者によって取り下げられた。 This version withdrawn by arXiv administrators because the author did not have the right to agree to our license at the time of submission. | 翻訳日:2022-12-01 14:32:57 公開日:2020-05-20 |
# 人間と物体の対を識別する銃器キャリアの局在化 Localizing Firearm Carriers by Identifying Human-Object Pairs ( http://arxiv.org/abs/2005.09329v2 ) ライセンス: Link先を確認 | Abdul Basit, Muhammad Akhtar Munir, Mohsen Ali, Arif Mahmood | (参考訳) 群衆における銃撃犯の視覚的識別は難しい問題であり、被写体(銃器)との関連を解消する必要がある。
本稿では,人間と対象の相互作用(および非相互作用)のバウンディングボックスを定義することにより,この問題に新たなアプローチを提案する。
ある画像では、人間と銃器が別々に検出される。
検出された各人間は、検出された各銃器とペアリングされ、オブジェクトと人間の両方を含む、ペア化されたバウンディングボックスを作成できる。
ネットワークは、これらのペアドバウンディングボックスを、特定された銃器を運ぶかどうかを人間に分類するように訓練される。
アルゴリズムの有効性を評価するために広範な実験が行われ、人間の完全なポーズ、手指のキーポイント、銃器との関連付けなどが行われた。
空間的局所化特徴の知識は,適応平均プールを用いたマルチサイズ提案を用いることで,本手法の成功の鍵となる。
我々はまた、人間と銃のペア(銃器と銃器のバウンディングボックスを含む)の拡張データセットに、より多くの画像とタグを追加することで、以前の銃器検出データセットを拡張した。
実験結果(ap_{hold} = 78.5$)は,提案手法の有効性を示す。 Visual identification of gunmen in a crowd is a challenging problem, that requires resolving the association of a person with an object (firearm). We present a novel approach to address this problem, by defining human-object interaction (and non-interaction) bounding boxes. In a given image, human and firearms are separately detected. Each detected human is paired with each detected firearm, allowing us to create a paired bounding box that contains both object and the human. A network is trained to classify these paired-bounding-boxes into human carrying the identified firearm or not. Extensive experiments were performed to evaluate effectiveness of the algorithm, including exploiting full pose of the human, hand key-points, and their association with the firearm. The knowledge of spatially localized features is key to success of our method by using multi-size proposals with adaptive average pooling. We have also extended a previously firearm detection dataset, by adding more images and tagging in extended dataset the human-firearm pairs (including bounding boxes for firearms and gunmen). The experimental results ($AP_{hold} = 78.5$) demonstrate effectiveness of the proposed method. | 翻訳日:2022-12-01 14:06:23 公開日:2020-05-20 |
# 経験強化:オフポリティ・マルチエージェント強化学習の促進と加速 Experience Augmentation: Boosting and Accelerating Off-Policy Multi-Agent Reinforcement Learning ( http://arxiv.org/abs/2005.09453v2 ) ライセンス: Link先を確認 | Zhenhui Ye, Yining Chen, Guanghua Song, Bowei Yang, Shen Fan | (参考訳) 高次元状態行動空間の探索は強化学習(RL)、特にマルチエージェント領域における最大の課題の1つである。
本稿では,環境への高速で公平かつ徹底的な探索に基づいて,時間効率と学習の促進を可能にする,経験向上という新しい手法を提案する。
任意のオフポリシーmarlアルゴリズムと組み合わせることができ、均質または異質な環境に適用できる。
本手法は,MADDPGと組み合わせた2つの同種環境と1つの異種環境における性能を検証する。
最高のシナリオでは、経験増強を伴う MADDPG は、バニラ MADDPG の1/4 実時間収束報酬に到達し、その収束率は元のモデルよりもかなりの差となる。
我々のアブレーション研究は、経験増強がトレーニングプロセスを加速し、収束を促進する重要な要素であることを示している。 Exploration of the high-dimensional state action space is one of the biggest challenges in Reinforcement Learning (RL), especially in multi-agent domain. We present a novel technique called Experience Augmentation, which enables a time-efficient and boosted learning based on a fast, fair and thorough exploration to the environment. It can be combined with arbitrary off-policy MARL algorithms and is applicable to either homogeneous or heterogeneous environments. We demonstrate our approach by combining it with MADDPG and verifing the performance in two homogeneous and one heterogeneous environments. In the best performing scenario, the MADDPG with experience augmentation reaches to the convergence reward of vanilla MADDPG with 1/4 realistic time, and its convergence beats the original model by a significant margin. Our ablation studies show that experience augmentation is a crucial ingredient which accelerates the training process and boosts the convergence. | 翻訳日:2022-12-01 13:41:06 公開日:2020-05-20 |
# ストレージ容量を超える:データ駆動充足可能性移行 Beyond the storage capacity: data driven satisfiability transition ( http://arxiv.org/abs/2005.09992v1 ) ライセンス: Link先を確認 | Pietro Rotondo, Mauro Pastore, Marco Gherardi | (参考訳) データ構造はニューラルネットワークの性質に劇的な影響を与えるが、確立された理論的枠組みにおけるその重要性はよく分かっていない。
ここでは、等ラベル付きサブセットにグループ化されたデータを操作するカーネルマシンのVapnik-Chervonenkisエントロピーを計算する。
アントロピーは、非構造化シナリオとばらつきがある場合、トレーニングセットのサイズで非単調であり、記憶容量以外に追加の臨界点を表示する。
驚くべきことに、同じ挙動はランダムにラベル付けされたデータであってもマージン分類器で発生し、遷移をコードするシナプスボリュームを同定することによって解明される。
これらの結果から, 記憶容量の凝縮した記述を超える表現性の側面が明らかとなり, ニューラルネットワークの一般化誤差に対するより現実的な境界への道のりが示唆された。 Data structure has a dramatic impact on the properties of neural networks, yet its significance in the established theoretical frameworks is poorly understood. Here we compute the Vapnik-Chervonenkis entropy of a kernel machine operating on data grouped into equally labelled subsets. At variance with the unstructured scenario, entropy is non-monotonic in the size of the training set, and displays an additional critical point besides the storage capacity. Remarkably, the same behavior occurs in margin classifiers even with randomly labelled data, as is elucidated by identifying the synaptic volume encoding the transition. These findings reveal aspects of expressivity lying beyond the condensed description provided by the storage capacity, and they indicate the path towards more realistic bounds for the generalization error of neural networks. | 翻訳日:2022-12-01 06:20:49 公開日:2020-05-20 |
# アクティブ分散ネットワークにおけるインバータ型volt-var制御のための2段階深層強化学習 Two-stage Deep Reinforcement Learning for Inverter-based Volt-VAR Control in Active Distribution Networks ( http://arxiv.org/abs/2005.11142v1 ) ライセンス: Link先を確認 | Haotian Liu, Wenchuan Wu | (参考訳) モデルに基づくVol/VAR最適化手法は、電圧違反を排除し、ネットワーク損失を減らすために広く用いられている。
しかし, アクティブ分布ネットワーク (ADN) のパラメータは同定されていないため, モデルに重大な誤りが生じ, モデルに基づく手法が実現不可能となる可能性がある。
この問題に対処するために、オフラインステージとオンラインステージからなるインバータベースのエネルギー資源を規制することにより、電圧プロファイルを改善するための新しい2段階深部強化学習法(DRL)を提案する。
オフライン段階では、モデルミスマッチに頑健なオフラインエージェントを訓練するために、高い効率の対向強化学習アルゴリズムが開発された。
シーケンシャルなオンラインステージでは、オフラインエージェントをオンラインエージェントとして安全に転送し、継続的な学習とオンライン制御を行い、安全性と効率を大幅に向上させる。
ieeeテストケースにおける数値シミュレーションは,提案手法が最先端アルゴリズムよりも優れていることを示すだけでなく,提案する2段階法がオンラインアプリケーションにおける既存のdrl法よりもはるかに優れた性能を実現することを示すものである。 Model-based Vol/VAR optimization method is widely used to eliminate voltage violations and reduce network losses. However, the parameters of active distribution networks(ADNs) are not onsite identified, so significant errors may be involved in the model and make the model-based method infeasible. To cope with this critical issue, we propose a novel two-stage deep reinforcement learning (DRL) method to improve the voltage profile by regulating inverter-based energy resources, which consists of offline stage and online stage. In the offline stage, a highly efficient adversarial reinforcement learning algorithm is developed to train an offline agent robust to the model mismatch. In the sequential online stage, we transfer the offline agent safely as the online agent to perform continuous learning and controlling online with significantly improved safety and efficiency. Numerical simulations on IEEE test cases not only demonstrate that the proposed adversarial reinforcement learning algorithm outperforms the state-of-art algorithm, but also show that our proposed two-stage method achieves much better performance than the existing DRL based methods in the online application. | 翻訳日:2022-12-01 06:20:14 公開日:2020-05-20 |
# 電力需要分散予測のための添加物積み重ね Additive stacking for disaggregate electricity demand forecasting ( http://arxiv.org/abs/2005.10092v1 ) ライセンス: Link先を確認 | Christian Capezza, Biagio Palumbo, Yannig Goude, Simon N. Wood and Matteo Fasiolo | (参考訳) 将来のグリッド管理システムは、分散生産と貯蔵資源を協調して管理し、コスト効率の良い方法で、輸送の電化と天候依存生産の高割合による負荷と変動の増加を管理する。
低アグリゲーションレベルの電力需要予測は、このようなシステムにとって重要な入力となる。
我々は,信号対雑音比の低さと世帯間での消費パターンの不均一性から,総需要予測よりも難しい世帯レベルでの需要予測に焦点をあてた。
個別の慣用性に適応しつつ,世帯間で力を借りる確率的予測のための新しいアンサンブル手法を提案する。
特に、さまざまな需要動態を捉える一連のモデルや'専門家'を開発し、それぞれの家庭のデータに適合させます。
次に,データセット全体からアンサンブル重みを推定する専門家の集まりを構築し,加法モデル構造を採用することにより,重みを共変量と異なるものにするという大きな革新を実現した。
特に, 提案手法は回帰重み付け(Breiman, 1996)の拡張であり, 混合重み付けはパラメトリック, 滑らか, ランダムな効果の線形結合を用いてモデル化される。
GamFactory Rパッケージは、https://github.com/mfasiolo/gamFactoryで入手できる。 Future grid management systems will coordinate distributed production and storage resources to manage, in a cost effective fashion, the increased load and variability brought by the electrification of transportation and by a higher share of weather dependent production. Electricity demand forecasts at a low level of aggregation will be key inputs for such systems. We focus on forecasting demand at the individual household level, which is more challenging than forecasting aggregate demand, due to the lower signal-to-noise ratio and to the heterogeneity of consumption patterns across households. We propose a new ensemble method for probabilistic forecasting, which borrows strength across the households while accommodating their individual idiosyncrasies. In particular, we develop a set of models or 'experts' which capture different demand dynamics and we fit each of them to the data from each household. Then we construct an aggregation of experts where the ensemble weights are estimated on the whole data set, the main innovation being that we let the weights vary with the covariates by adopting an additive model structure. In particular, the proposed aggregation method is an extension of regression stacking (Breiman, 1996) where the mixture weights are modelled using linear combinations of parametric, smooth or random effects. The methods for building and fitting additive stacking models are implemented by the gamFactory R package, available at https://github.com/mfasiolo/gamFactory. | 翻訳日:2022-12-01 06:18:03 公開日:2020-05-20 |
# 薬物構造を知らない薬物・薬物相互作用予測のための最小入力多層パーセプトロン A Minimal-Input Multilayer Perceptron for Predicting Drug-Drug Interactions Without Knowledge of Drug Structure ( http://arxiv.org/abs/2005.10644v1 ) ライセンス: Link先を確認 | Alun Stokes, William Hum, Jonathan Zaslavsky | (参考訳) 薬物発見産業における予測モデルの必要性は過小評価できない。
有用と考えられる化合物の量が増えるにつれて、薬物間の重なり合う相互作用を計算的に調査することがますます難しくなってきている。
これを理解することは、処方薬と同じ厳格な警告を持っていないレクリエーション薬を使用する人々にとって、何が出来るか、混合できないかを知る必要のある一般人にとっても重要である。
薬物の組み合わせごとに決定論的で実験的な結果が得られなければ、この知識ギャップを埋める他の方法が必要である。
理想的には、そのような方法は最小限の入力を必要とし、高い精度で計算可能となる。
これらの基準をすべて満たすモデルには至っていません。
そこで本研究では、2つの薬物間の相互作用を予測する最小入力多層パーセプトロンを提案する。
このモデルは、関係する分子の構造的な知識を必要としないという大きな利点があり、代わりに実験で利用できる化学的性質と物理的性質のみを用いる。
既知の薬物と薬物の相互作用と関連する薬物の性質を使って、約65万項目のデータセットでモデルをトレーニングしました。
モデルが訓練された薬物間の相互作用サンプルの0.968の精度と、不明薬物間の相互作用サンプルの0.942の精度を報告した。
これは有望で拡張性の高いモデルであり、さらなるチューニングによって高い一般化された予測精度の可能性を秘めていると考えています。 The necessity of predictive models in the drug discovery industry cannot be understated. With the sheer volume of potentially useful compounds that are considered for use, it is becoming increasingly computationally difficult to investigate the overlapping interactions between drugs. Understanding this is also important to the layperson who needs to know what they can and cannot mix, especially for those who use recreational drugs - which do not have the same rigorous warnings as prescription drugs. Without access to deterministic, experimental results for every drug combination, other methods are necessary to bridge this knowledge gap. Ideally, such a method would require minimal inputs, have high accuracy, and be computationally feasible. We have not come across a model that meets all these criteria. To this end, we propose a minimal-input multi-layer perceptron that predicts the interactions between two drugs. This model has a great advantage of requiring no structural knowledge of the molecules in question, and instead only uses experimentally accessible chemical and physical properties - 20 per compound in total. Using a set of known drug-drug interactions, and associated properties of the drugs involved, we trained our model on a dataset of about 650,000 entries. We report an accuracy of 0.968 on unseen samples of interactions between drugs on which the model was trained, and an accuracy of 0.942 on unseen samples of interactions between unseen drugs. We believe this to be a promising and highly extensible model that has potential for high generalized predictive accuracy with further tuning. | 翻訳日:2022-12-01 06:15:45 公開日:2020-05-20 |
# 文脈におけるアクティブスピーカー Active Speakers in Context ( http://arxiv.org/abs/2005.09812v1 ) ライセンス: Link先を確認 | Juan Leon Alcazar, Fabian Caba Heilbron, Long Mai, Federico Perazzi, Joon-Young Lee, Pablo Arbelaez, and Bernard Ghanem | (参考訳) 能動話者検出のための現在の手法は、単一話者からの短期音声視覚情報をモデル化することに焦点を当てている。
この戦略は、単一話者シナリオに対処するのに十分であるが、タスクが多くの候補話者が話しているかを識別するときに正確な検出を防止する。
本稿では,複数話者間の関係を長期にわたってモデル化する新しい表現であるActive Speaker Contextを紹介する。
我々のアクティブ話者コンテキストは、オーディオ・視覚観測の構造化されたアンサンブルからペアワイズと時間的関係を学習するように設計されている。
本実験では,構造化機能アンサンブルがアクティブな話者検出性能にすでに有益であることを示す。
さらに,提案するアクティブ話者コンテキストは,av-activespeakerデータセットの最先端を87.1%のマップで改善することを示す。
本研究は,この結果が長期多話者分析の直接的な結果であることを示すアブレーション研究である。 Current methods for active speak er detection focus on modeling short-term audiovisual information from a single speaker. Although this strategy can be enough for addressing single-speaker scenarios, it prevents accurate detection when the task is to identify who of many candidate speakers are talking. This paper introduces the Active Speaker Context, a novel representation that models relationships between multiple speakers over long time horizons. Our Active Speaker Context is designed to learn pairwise and temporal relations from an structured ensemble of audio-visual observations. Our experiments show that a structured feature ensemble already benefits the active speaker detection performance. Moreover, we find that the proposed Active Speaker Context improves the state-of-the-art on the AVA-ActiveSpeaker dataset achieving a mAP of 87.1%. We present ablation studies that verify that this result is a direct consequence of our long-term multi-speaker analysis. | 翻訳日:2022-12-01 06:15:02 公開日:2020-05-20 |
# ヒューマンマシンテキスト対話の対話的側面をスコアリングするためのリカレント・メモリ・アテンションベースアーキテクチャの検討 Exploring Recurrent, Memory and Attention Based Architectures for Scoring Interactional Aspects of Human-Machine Text Dialog ( http://arxiv.org/abs/2005.09834v1 ) ライセンス: Link先を確認 | Vikram Ramanarayanan and Matthew Mulholland and Debanjan Ghosh | (参考訳) 英語学習者が会話能力を向上させるための重要なステップは、対話能力とその後の目標フィードバックの複数の側面の自動スコアリングである。
本稿は,複数のニューラルアーキテクチャ(リカレント,アテンション,メモリベース)と,テキストダイアログデータの対話的およびトピック開発を自動評価するための特徴工学的モデルについて検討する。
本研究は,対話能力の多次元に沿って3次元に配置された,クラウドベースの対話システムと対話する人間学習者の会話対話データベースの実験を行った。
複数のアーキテクチャの融合は、専門家間の合意に対して、我々の自動スコアリングタスクにおいて有能に機能することがわかった。
(i)サポートベクター学習者に渡される手作業による特徴と
(ii) 融合に最も寄与する変圧器ベースのアーキテクチャ。 An important step towards enabling English language learners to improve their conversational speaking proficiency involves automated scoring of multiple aspects of interactional competence and subsequent targeted feedback. This paper builds on previous work in this direction to investigate multiple neural architectures -- recurrent, attention and memory based -- along with feature-engineered models for the automated scoring of interactional and topic development aspects of text dialog data. We conducted experiments on a conversational database of text dialogs from human learners interacting with a cloud-based dialog system, which were triple-scored along multiple dimensions of conversational proficiency. We find that fusion of multiple architectures performs competently on our automated scoring task relative to expert inter-rater agreements, with (i) hand-engineered features passed to a support vector learner and (ii) transformer-based architectures contributing most prominently to the fusion. | 翻訳日:2022-12-01 06:14:48 公開日:2020-05-20 |
# 人口規模薬剤疫学データセットの相互探索 Interactive exploration of population scale pharmacoepidemiology datasets ( http://arxiv.org/abs/2005.09890v1 ) ライセンス: Link先を確認 | Tengel Ekrem Skar, Einar Holsb{\o}, Kristian Svendsen, Lars Ailo Bongo | (参考訳) 有害薬物反応(ADR)データに関連付けられた集団規模の薬物処方データは、より小さなデータセットで従来の方法では検出できない薬物使用やADRパターンを検出するのに十分な大きさのモデルの適合をサポートする。
しかし、大規模データセットにおけるadrパターンの検出には、スケーラブルなデータ処理、データ分析のための機械学習、インタラクティブな可視化のためのツールが必要である。
私たちの知る限り、既存の薬理疫学ツールが3つの要件すべてをサポートすることはない。
そこで我々は、数百万のサンプルで処方用データセットのパターンをインタラクティブに探索するツールを開発した。
Sparkを使ってデータを機械学習やSQLクエリを使用した分析のために前処理します。
我々はkerasとscikit-learnフレームワークにモデルを実装した。
モデル結果はjupyterのライブpythonコーディングを使って可視化され、解釈される。
我々は,ノルウェーの処方薬データベースから3億8400万件の処方薬データを検索し,入院した高齢者の処方薬を6200万件検索した。
データを2分で前処理し、モデルを秒単位でトレーニングし、結果をミリ秒でプロットします。
以上の結果から,人口規模薬剤疫学データセットの分析において,計算能力,計算時間の短縮,使いやすさの両立効果が示された。
コードはオープンソースで、https://github.com/uit-hdl/norpd_prescription_analysesで入手できる。 Population-scale drug prescription data linked with adverse drug reaction (ADR) data supports the fitting of models large enough to detect drug use and ADR patterns that are not detectable using traditional methods on smaller datasets. However, detecting ADR patterns in large datasets requires tools for scalable data processing, machine learning for data analysis, and interactive visualization. To our knowledge no existing pharmacoepidemiology tool supports all three requirements. We have therefore created a tool for interactive exploration of patterns in prescription datasets with millions of samples. We use Spark to preprocess the data for machine learning and for analyses using SQL queries. We have implemented models in Keras and the scikit-learn framework. The model results are visualized and interpreted using live Python coding in Jupyter. We apply our tool to explore a 384 million prescription data set from the Norwegian Prescription Database combined with a 62 million prescriptions for elders that were hospitalized. We preprocess the data in two minutes, train models in seconds, and plot the results in milliseconds. Our results show the power of combining computational power, short computation times, and ease of use for analysis of population scale pharmacoepidemiology datasets. The code is open source and available at: https://github.com/uit-hdl/norpd_prescription_analyses | 翻訳日:2022-12-01 06:08:20 公開日:2020-05-20 |
# 3次元医用画像データのためのAutoMLセグメンテーション:MSD Challenge 2018への貢献 AutoML Segmentation for 3D Medical Image Data: Contribution to the MSD Challenge 2018 ( http://arxiv.org/abs/2005.09978v1 ) ライセンス: Link先を確認 | Oliver Rippel, Leon Weninger, Dorit Merhof | (参考訳) 機械学習の最近の進歩によって、医療画像コンピューティングコミュニティにとって意味セグメンテーションの分野は大きな進歩を遂げている。
しかし、開発アルゴリズムはしばしば1つのタスクのみに基づいて手動で最適化され、検証される。
小さなデータセットと組み合わせると、結果の一般化可能性の解釈は難しいことが多い。
Medical Segmentation Decathlonはこの問題に対処し、手動のパラメトリゼーションを必要としない一般化可能な3Dセマンティックセマンティクスアルゴリズムの開発を促進することを目指している。
このようなアルゴリズムが開発され,本論文で紹介される。
残差接続、スキップ接続、マルチレベル予測生成を利用したエンコーダデコーダアーキテクチャを備えた3次元畳み込みニューラルネットワークで構成されている。
異方性ボクセルジオメトリで動作し、異方性深さ、すなわちダウンサンプリングステップの数はタスク固有のパラメータである。
これらの深さは、トレーニング前に各タスクに対して自動的に推測される。
この柔軟なアーキテクチャとオンザフライのデータ拡張とほとんど前処理や後処理を組み合わせることで、有望な結果が得られる。
このチャレンジのために開発されたコードは、最終締め切りの後にオンラインで入手できる。 Fueled by recent advances in machine learning, there has been tremendous progress in the field of semantic segmentation for the medical image computing community. However, developed algorithms are often optimized and validated by hand based on one task only. In combination with small datasets, interpreting the generalizability of the results is often difficult. The Medical Segmentation Decathlon challenge addresses this problem, and aims to facilitate development of generalizable 3D semantic segmentation algorithms that require no manual parametrization. Such an algorithm was developed and is presented in this paper. It consists of a 3D convolutional neural network with encoder-decoder architecture employing residual-connections, skip-connections and multi-level generation of predictions. It works on anisotropic voxel-geometries and has anisotropic depth, i.e., the number of downsampling steps is a task-specific parameter. These depths are automatically inferred for each task prior to training. By combining this flexible architecture with on-the-fly data augmentation and little-to-no pre-- or postprocessing, promising results could be achieved. The code developed for this challenge will be available online after the final deadline at: https://github.com/ORippler/MSD_2018 | 翻訳日:2022-12-01 06:07:33 公開日:2020-05-20 |
# 安定化ビデオにおけるソースデバイス同定のための修正フーリエ・メリンアプローチ A Modified Fourier-Mellin Approach for Source Device Identification on Stabilized Videos ( http://arxiv.org/abs/2005.09984v1 ) ライセンス: Link先を確認 | Sara Mandelli, Fabrizio Argenti, Paolo Bestagini, Massimo Iuliani, Alessandro Piva, Stefano Tubaro | (参考訳) デジタル映像が所定の装置で撮影されたかどうかを判定するために、マルチメディア鑑識ツールは、通常、取得したフレームにカメラセンサが残した特性ノイズトレースを利用する。
この分析では,カメラを特徴付けるノイズパターンと,解析対象の映像フレームから抽出したノイズパターンを幾何学的に整列させる必要がある。
しかし、多くの現実的なシナリオではこれは起こらないため、再調整や同期を行う必要がある。
現在の解はしばしば、配向変換パラメータの探索に時間を要する。
本稿では,周波数領域におけるスケーリングパラメータと回転パラメータを探索することにより,この制限を克服する。
提案したアルゴリズムは、よく知られた最先端データセットの実際のビデオでテストされ、有望な結果を示している。 To decide whether a digital video has been captured by a given device, multimedia forensic tools usually exploit characteristic noise traces left by the camera sensor on the acquired frames. This analysis requires that the noise pattern characterizing the camera and the noise pattern extracted from video frames under analysis are geometrically aligned. However, in many practical scenarios this does not occur, thus a re-alignment or synchronization has to be performed. Current solutions often require time consuming search of the realignment transformation parameters. In this paper, we propose to overcome this limitation by searching scaling and rotation parameters in the frequency domain. The proposed algorithm tested on real videos from a well-known state-of-the-art dataset shows promising results. | 翻訳日:2022-12-01 06:07:14 公開日:2020-05-20 |
# octに基づく力推定のための4次元時空間データ表現を用いた深層学習 Deep learning with 4D spatio-temporal data representations for OCT-based force estimation ( http://arxiv.org/abs/2005.10033v1 ) ライセンス: Link先を確認 | Nils Gessert, Marcel Bengs, Matthias Schl\"uter, and Alexander Schlaefer | (参考訳) 機械と組織の間に作用する力の推定は、ロボット支援による最小侵襲手術において難しい課題である。
近年,電気機械的なアプローチを代替する視覚に基づく手法が数多く提案されている。
さらに,光コヒーレンストモグラフィ(OCT)と深層学習を用いて,体積画像データに観測された変形に基づく力の推定を行った。
この手法は,3次元ボリュームデータを用いた2次元奥行き画像を用いた深層学習の利点を実証した。
本研究では,深層学習に基づく力推定の問題を,3D OCTボリュームのストリームを用いた4次元時空間データに拡張する。
本研究では,時空間的深層学習を4次元に拡張する手法をいくつか設計し,評価する。
さらに、力推定のための多次元画像データ表現の奥行き解析を行い、4次元のアプローチを従来の低次元の手法と比較した。
また, 時間情報の影響を分析し, 安全性特性を向上できる短期的未来力値の予測について検討した。
4次元力推定アーキテクチャでは、空間的および時間的処理の効率的な分離が有利である。
4次元時空間データを用いることで,従来使用していたデータ表現を10.7mnの平均絶対誤差で上回ることがわかった。
時間情報は力の推定に有用であり, 力予測の可能性を示す。 Estimating the forces acting between instruments and tissue is a challenging problem for robot-assisted minimally-invasive surgery. Recently, numerous vision-based methods have been proposed to replace electro-mechanical approaches. Moreover, optical coherence tomography (OCT) and deep learning have been used for estimating forces based on deformation observed in volumetric image data. The method demonstrated the advantage of deep learning with 3D volumetric data over 2D depth images for force estimation. In this work, we extend the problem of deep learning-based force estimation to 4D spatio-temporal data with streams of 3D OCT volumes. For this purpose, we design and evaluate several methods extending spatio-temporal deep learning to 4D which is largely unexplored so far. Furthermore, we provide an in-depth analysis of multi-dimensional image data representations for force estimation, comparing our 4D approach to previous, lower-dimensional methods. Also, we analyze the effect of temporal information and we study the prediction of short-term future force values, which could facilitate safety features. For our 4D force estimation architectures, we find that efficient decoupling of spatial and temporal processing is advantageous. We show that using 4D spatio-temporal data outperforms all previously used data representations with a mean absolute error of 10.7mN. We find that temporal information is valuable for force estimation and we demonstrate the feasibility of force prediction. | 翻訳日:2022-12-01 06:07:02 公開日:2020-05-20 |
# 地図生成のための量子手続き A quantum procedure for map generation ( http://arxiv.org/abs/2005.10327v1 ) ライセンス: Link先を確認 | James R. Wootton | (参考訳) 量子計算は、幅広いユースケースを約束する新興技術である。
この約束は主に、今後10年間は実現できないであろうアルゴリズムに基づいている。
近い将来のアプリケーションでは、量子ソフトウェアを利用可能なハードウェアに注意深く調整する必要がある。
本稿では,コンピュータゲームの作成と実装に有用なツールを,短期的な量子コンピュータが提供できるかどうかを検討する。
ジオポリティカルマップの手続き的生成とその関連する歴史は、モチベーションの例として考えられている。
これは、短期デバイスに適した量子プロシージャ内で、各国の初歩的な意思決定プロセスを符号化することで実現される。
手続き生成の分野における量子コンピューティングの斬新さを考えると、関連する基本的な概念についても紹介する。 Quantum computation is an emerging technology that promises a wide range of possible use cases. This promise is primarily based on algorithms that are unlikely to be viable over the coming decade. For near-term applications, quantum software needs to be carefully tailored to the hardware available. In this paper, we begin to explore whether near-term quantum computers could provide tools that are useful in the creation and implementation of computer games. The procedural generation of geopolitical maps and their associated history is considered as a motivating example. This is performed by encoding a rudimentary decision making process for the nations within a quantum procedure that is well-suited to near-term devices. Given the novelty of quantum computing within the field of procedural generation, we also provide an introduction to the basic concepts involved. | 翻訳日:2022-12-01 06:06:15 公開日:2020-05-20 |
# 脳コンピュータインタフェースを用いた注意パターン検出 Attention Patterns Detection using Brain Computer Interfaces ( http://arxiv.org/abs/2005.11151v1 ) ライセンス: Link先を確認 | Felix G. Hamza-Lup, Adytia Suri, Ionut E. Iacob, Ioana R. Goldbach, Lateef Rasheed and Paul N. Borza | (参考訳) 人間の脳は感情の表現、呼吸速度の制御など様々な機能を提供しており、その研究は長年にわたって科学者の関心を惹きつけてきた。
機械学習モデルが洗練され、新しい非侵襲技術によってバイオメトリックデータがより容易に利用できるようになると、人間のコンピュータインタラクションに革命をもたらす可能性のある興味深いバイオメトリックデータにアクセスできるようになる。
本研究では,人間の注意レベルとその学習への影響を評価・定量化する手法を提案する。
本研究では脳波を検知し、対応する脳波図(EEG)を表示する脳コンピュータインタフェース(BCI)を用いた。
我々は、個人が実行しているアクティビティのタイプを特定するために、繰り返しニューラルネットワーク(RNNS)を訓練する。 The human brain provides a range of functions such as expressing emotions, controlling the rate of breathing, etc., and its study has attracted the interest of scientists for many years. As machine learning models become more sophisticated, and bio-metric data becomes more readily available through new non-invasive technologies, it becomes increasingly possible to gain access to interesting biometric data that could revolutionize Human-Computer Interaction. In this research, we propose a method to assess and quantify human attention levels and their effects on learning. In our study, we employ a brain computer interface (BCI) capable of detecting brain wave activity and displaying the corresponding electroencephalograms (EEG). We train recurrent neural networks (RNNS) to identify the type of activity an individual is performing. | 翻訳日:2022-12-01 06:06:05 公開日:2020-05-20 |
# モデル修復:過パラメータ化統計モデルのロバスト回復 Model Repair: Robust Recovery of Over-Parameterized Statistical Models ( http://arxiv.org/abs/2005.09912v1 ) ライセンス: Link先を確認 | Chao Gao and John Lafferty | (参考訳) 新しいタイプのロバスト推定問題が導入され、データから推定された後に破損した統計モデルを復元することを目的としている。
教師あり学習環境において,モデルに適合する応答値ではなく,設計のみを用いてモデルを"調整"する手法を提案する。
モデル修復には2つの重要な材料が必要であることを示す理論が開発され、統計モデルは過度にパラメータ化されなければならない。
特に、確率勾配降下に基づく推定器はモデル修復に適しているが、スパース推定器は一般には修理不可能である。
問題を定式化し、ロバストな推定に関する重要な技術的補題を確立した後、過パラメータ化線形モデル、ランダム特徴モデル、人工ニューラルネットワークの修復について一連の結果を示す。
シミュレーション研究により, 理論的知見をコーロボレートし, 示す。 A new type of robust estimation problem is introduced where the goal is to recover a statistical model that has been corrupted after it has been estimated from data. Methods are proposed for "repairing" the model using only the design and not the response values used to fit the model in a supervised learning setting. Theory is developed which reveals that two important ingredients are necessary for model repair---the statistical model must be over-parameterized, and the estimator must incorporate redundancy. In particular, estimators based on stochastic gradient descent are seen to be well suited to model repair, but sparse estimators are not in general repairable. After formulating the problem and establishing a key technical lemma related to robust estimation, a series of results are presented for repair of over-parameterized linear models, random feature models, and artificial neural networks. Simulation studies are presented that corroborate and illustrate the theoretical findings. | 翻訳日:2022-12-01 06:05:52 公開日:2020-05-20 |
# 小児脳MRIにおける脳組織分類の局所的半教師的アプローチ Local semi-supervised approach to brain tissue classification in child brain MRI ( http://arxiv.org/abs/2005.09871v1 ) ライセンス: Link先を確認 | Nataliya Portman, Paule-J Toussaint, Alan C. Evans (McConnell Brain Imaging Centre, Montreal Neurological Institute, McGill University, Montreal, QC, Canada) | (参考訳) 小児脳mriのほとんどのセグメンテーション法は監視され、主要な脳構造のグローバルな強度分布に基づいている。
教師付きアプローチの成功は、年齢に応じた確率的脳アトラスの有効性に依存する。
初期の正常な脳の発達の研究において、そのような脳のアトラスの構築は重要な課題である。
さらに、大域的強度統計を用いて、発達初期の脳を構成する部分におけるmr信号のかなりの強度変化により、主要な脳組織クラスが不正確な検出に繋がる。
これらの方法論的制約を克服するために,局所的な半教師付きフレームワークを開発する。
パターン認識のためのkernel fisher discriminant analysis(kfda)と、知覚的画像品質評価のためのobjective structure similarity index(ssim)を組み合わせたものである。
提案手法は, 平均強度値の異なるサブドメインに最適な脳分割を行い, 続いて構成脳部分間の表面分離のSSIM誘導計算を行う。
分類された画像サブドメインは、シミュレートされたアニーリングによってスライスされ、分類された脳の全体像を形成する。
本稿では,脳脊髄液を主組織(白質と灰白質)と脳脊髄液(脳脊髄液)に分類し,8歳から11ヶ月,44歳から60ヶ月の脳テンプレートの例を示す。
本手法は, 部分体積推定法として知られる最先端の分類手法との比較により, 組織クラスの検出性が向上することを示す。 Most segmentation methods in child brain MRI are supervised and are based on global intensity distributions of major brain structures. The successful implementation of a supervised approach depends on availability of an age-appropriate probabilistic brain atlas. For the study of early normal brain development, the construction of such a brain atlas remains a significant challenge. Moreover, using global intensity statistics leads to inaccurate detection of major brain tissue classes due to substantial intensity variations of MR signal within the constituent parts of early developing brain. In order to overcome these methodological limitations we develop a local, semi-supervised framework. It is based on Kernel Fisher Discriminant Analysis (KFDA) for pattern recognition, combined with an objective structural similarity index (SSIM) for perceptual image quality assessment. The proposed method performs optimal brain partitioning into subdomains having different average intensity values followed by SSIM-guided computation of separating surfaces between the constituent brain parts. The classified image subdomains are then stitched slice by slice via simulated annealing to form a global image of the classified brain. In this paper, we consider classification into major tissue classes (white matter and grey matter) and the cerebrospinal fluid and illustrate the proposed framework on examples of brain templates for ages 8 to 11 months and ages 44 to 60 months. We show that our method improves detection of the tissue classes by its comparison to state-of-the-art classification techniques known as Partial Volume Estimation. | 翻訳日:2022-12-01 05:59:41 公開日:2020-05-20 |
# PyChain: エンドツーエンドASRのためのLF-MMIの完全並列化PyTorch実装 PyChain: A Fully Parallelized PyTorch Implementation of LF-MMI for End-to-End ASR ( http://arxiv.org/abs/2005.09824v1 ) ライセンス: Link先を確認 | Yiwen Shao, Yiming Wang, Daniel Povey, Sanjeev Khudanpur | (参考訳) 我々は、カルディ自動音声認識(ASR)ツールキットにおいて、いわゆる「emph{chain model}」のためのLF-MMIトレーニングを完全並列化したPyTorch実装であるPyChainを提案する。
他のPyTorchおよびKaldiベースのASRツールキットとは異なり、PyChainは可能な限り柔軟で軽量に設計されており、新しいプロジェクトであるPyChain-exampleと既存のエンドツーエンドのASRツールキットであるEspressoによって、新しいASRプロジェクトや他の既存のPyTorchベースのASRツールに簡単に接続できるように設計されている。
PyChainの効率性と柔軟性は、数値/デノミネータグラフのフルGPUトレーニング、不等長シーケンスのサポートなど、新しい機能によって実証されている。
wsjデータセットでの実験では、単純なニューラルネットワークと一般的な機械学習技術によって、pychainはkaldiと同等で、他のエンドツーエンドのasrシステムよりも優れた競合結果を得ることができる。 We present PyChain, a fully parallelized PyTorch implementation of end-to-end lattice-free maximum mutual information (LF-MMI) training for the so-called \emph{chain models} in the Kaldi automatic speech recognition (ASR) toolkit. Unlike other PyTorch and Kaldi based ASR toolkits, PyChain is designed to be as flexible and light-weight as possible so that it can be easily plugged into new ASR projects, or other existing PyTorch-based ASR tools, as exemplified respectively by a new project PyChain-example, and Espresso, an existing end-to-end ASR toolkit. PyChain's efficiency and flexibility is demonstrated through such novel features as full GPU training on numerator/denominator graphs, and support for unequal length sequences. Experiments on the WSJ dataset show that with simple neural networks and commonly used machine learning techniques, PyChain can achieve competitive results that are comparable to Kaldi and better than other end-to-end ASR systems. | 翻訳日:2022-12-01 05:59:03 公開日:2020-05-20 |
# 音声認識と直接翻訳のための相対位置符号化 Relative Positional Encoding for Speech Recognition and Direct Translation ( http://arxiv.org/abs/2005.09940v1 ) ライセンス: Link先を確認 | Ngoc-Quan Pham, Thanh-Le Ha, Tuan-Nam Nguyen, Thai-Son Nguyen, Elizabeth Salesky, Sebastian Stueker, Jan Niehues and Alexander Waibel | (参考訳) トランスフォーマーモデルは、音声入力を書き起こしや翻訳に直接マッピングできる強力なシーケンスからシーケンスへのアーキテクチャである。
しかし,本モデルの位置をモデル化するメカニズムはテキスト・モデリングに適しており,音響入力には適していない。
本研究では, キー付加が自己接続ネットワークにおける入力状態間の相対距離である音声トランスに対して, 相対位置符号化方式を適用する。
その結果、ネットワークは音声データに存在する可変分布にうまく適応することができる。
実験の結果,提案手法は,非拡張条件下でのSwitchboardベンチマークで最高の認識結果と,MST-C音声翻訳ベンチマークで最高の出力結果が得られることがわかった。
また,このモデルはトランスフォーマよりも合成データの利用が良好であり,音声翻訳における可変文分割品質に適合することを示す。 Transformer models are powerful sequence-to-sequence architectures that are capable of directly mapping speech inputs to transcriptions or translations. However, the mechanism for modeling positions in this model was tailored for text modeling, and thus is less ideal for acoustic inputs. In this work, we adapt the relative position encoding scheme to the Speech Transformer, where the key addition is relative distance between input states in the self-attention network. As a result, the network can better adapt to the variable distributions present in speech data. Our experiments show that our resulting model achieves the best recognition result on the Switchboard benchmark in the non-augmentation condition, and the best published result in the MuST-C speech translation benchmark. We also show that this model is able to better utilize synthetic data than the Transformer, and adapts better to variable sentence segmentation quality for speech translation. | 翻訳日:2022-12-01 05:58:03 公開日:2020-05-20 |
# 時間的行動解析による行動内・間理解 Intra- and Inter-Action Understanding via Temporal Action Parsing ( http://arxiv.org/abs/2005.10229v1 ) ライセンス: Link先を確認 | Dian Shao, Yue Zhao, Bo Dai and Dahua Lin | (参考訳) 現在の行動認識の方法は、視覚特徴と運動特徴の特徴埋め込みを導出するために、主に深い畳み込みネットワークに依存している。
これらの手法は標準的なベンチマークで顕著な性能を示してきたが、ビデオ、特に内部構造がハイレベルなセマンティクスにどのように関係しているかをよりよく理解する必要がある。
この目的に向けて,スポーツビデオにサブアクションの手動アノテーションを付加した新しいデータセットTAPOSを構築し,その上で時間的行動解析の研究を行う。
本研究は,スポーツ活動が複数のサブアクションから成り,そのような時間的構造に対する認識が行動認識に有用であることを示す。
また,複数の時間的解析手法についても検討し,そのラベルを知らずにトレーニングデータからサブアクションをマイニングできる改良手法を提案する。
構築したtaposにおいて,提案手法は動作内情報,すなわち,動作インスタンスがどのようにサブアクションから作られるか,動作間情報,すなわち1つの特定のサブアクションが様々なアクションに現れるかを明らかにする。 Current methods for action recognition primarily rely on deep convolutional networks to derive feature embeddings of visual and motion features. While these methods have demonstrated remarkable performance on standard benchmarks, we are still in need of a better understanding as to how the videos, in particular their internal structures, relate to high-level semantics, which may lead to benefits in multiple aspects, e.g. interpretable predictions and even new methods that can take the recognition performances to a next level. Towards this goal, we construct TAPOS, a new dataset developed on sport videos with manual annotations of sub-actions, and conduct a study on temporal action parsing on top. Our study shows that a sport activity usually consists of multiple sub-actions and that the awareness of such temporal structures is beneficial to action recognition. We also investigate a number of temporal parsing methods, and thereon devise an improved method that is capable of mining sub-actions from training data without knowing the labels of them. On the constructed TAPOS, the proposed method is shown to reveal intra-action information, i.e. how action instances are made of sub-actions, and inter-action information, i.e. one specific sub-action may commonly appear in various actions. | 翻訳日:2022-12-01 05:50:45 公開日:2020-05-20 |
# Maplets: コミュニケーションおよび計算制約下での協調SLAMマップ構築のための効率的なアプローチ Maplets: An Efficient Approach for Cooperative SLAM Map Building Under Communication and Computation Constraints ( http://arxiv.org/abs/2005.10310v1 ) ライセンス: Link先を確認 | Kevin M. Brink, Jincheng Zhang, Andrew R. Willis, Ryan E. Sherrill, Jamie L. Godwin | (参考訳) 本稿では, 大規模, 近地, 地下, 室内空間の協調的探索とマッピングを, 地域情報エージェントマップデータのための新しい統合フレームワークを用いて支援する手法を提案する。
この取り組みは、必要な通信と冗長な処理を制限することを重視したサイズ、重量、パワー(SWaP)エージェントを限定的にターゲットとしている。
このアプローチは、非常に効率的な2層最適化構造を実現するために、バッチ最適化エンジンのユニークな組織を使用する。
tier iはローカルマップレット(ローカルマップ、サイズ制限)を作成して共有するエージェントで構成されており、同時ローカライゼーション・マッピング(slam)マップ構築ソフトウェアを使って生成され、よりコンパクトなパラメータ化に限界化される。
mapletは重なり合う方法で生成され、重なり合うmaplet間の変換と不確かさを推定するために使用され、mapletのローカルフレーム間の正確なコンパクトなオドメトリまたはデルタポス表現を提供する。
デルタポーズはエージェント間で共有することができ、mapletが正常な特徴を持つ場合(ループクロージャの場合)、mapletのコンパクトな表現も共有できる。
第2の最適化層はグローバルオプティマイザで構成されており、これらのmaplet-to-maplet変換を最適化しようとしている。
これにより、高密度の点雲を操作することなく、トラバース空間の正確なグローバルな「スケルトン」を提供することができる。
地図データのこのコンパクトバージョンは、多くの個々のマップレット、または低忠実度レンダリングが望まれる場合にのみ共有される限られた通信要求で、スケーラブルで協調的な探索を可能にする。 This article introduces an approach to facilitate cooperative exploration and mapping of large-scale, near-ground, underground, or indoor spaces via a novel integration framework for locally-dense agent map data. The effort targets limited Size, Weight, and Power (SWaP) agents with an emphasis on limiting required communications and redundant processing. The approach uses a unique organization of batch optimization engines to enable a highly efficient two-tier optimization structure. Tier I consist of agents that create and potentially share local maplets (local maps, limited in size) which are generated using Simultaneous Localization and Mapping (SLAM) map-building software and then marginalized to a more compact parameterization. Maplets are generated in an overlapping manner and used to estimate the transform and uncertainty between those overlapping maplets, providing accurate and compact odometry or delta-pose representation between maplet's local frames. The delta poses can be shared between agents, and in cases where maplets have salient features (for loop closures), the compact representation of the maplet can also be shared. The second optimization tier consists of a global optimizer that seeks to optimize those maplet-to-maplet transformations, including any loop closures identified. This can provide an accurate global "skeleton"' of the traversed space without operating on the high-density point cloud. This compact version of the map data allows for scalable, cooperative exploration with limited communication requirements where most of the individual maplets, or low fidelity renderings, are only shared if desired. | 翻訳日:2022-12-01 05:49:57 公開日:2020-05-20 |
# TAO:任意のオブジェクトを追跡するための大規模ベンチマーク TAO: A Large-Scale Benchmark for Tracking Any Object ( http://arxiv.org/abs/2005.10356v1 ) ライセンス: Link先を確認 | Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan | (参考訳) 長年にわたり、マルチオブジェクトトラッキングベンチマークはいくつかのカテゴリに焦点を当ててきた。
主に監視と自動運転のアプリケーションによって動機付けられ、これらのデータセットは人、車、動物のためのトラックを提供し、世界のほとんどのオブジェクトを無視している。
対照的に、オブジェクト検出の関連分野において、大規模で多様なデータセット(例えばCOCO)の導入は、高度に堅牢なソリューションの開発において大きな進歩をもたらした。
このギャップを埋めるために、同様の多様なTracking Any Object (TAO)データセットを導入します。
ビデオは2,907本で、さまざまな環境で撮影され、平均して30分の長さだ。
重要なことは,従来の追跡ベンチマークよりも桁違いに大きい853カテゴリの語彙を発見するためにボトムアップアプローチを採用することである。
この目的のために、アノテータにビデオの任意の時点で動くオブジェクトにラベルを付け、ファクトラムに名前を付けるよう依頼する。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
アノテーションのスケーラビリティを確保するために、ビデオ内の関連するオブジェクト(例えば、移動しているオブジェクト)のトラックのラベル付けに手作業で集中するフェデレーションアプローチを採用しています。
我々は,最先端トラッカの広範な評価を行い,オープンワールドにおける大規模ボキャブラリー追跡に関する重要な発見を数多く行う。
特に,既存のシングルオブジェクトトラッカーとマルチオブジェクトトラッカーは,このシナリオに適用した場合に困難であり,検出ベースのマルチオブジェクトトラッカーは実際にユーザ初期化トラッカーと競合していることを示す。
当社のデータセットと分析が,トラッキングコミュニティのさらなる進展を促進することを願っています。 For many years, multi-object tracking benchmarks have focused on a handful of categories. Motivated primarily by surveillance and self-driving applications, these datasets provide tracks for people, vehicles, and animals, ignoring the vast majority of objects in the world. By contrast, in the related field of object detection, the introduction of large-scale, diverse datasets (e.g., COCO) have fostered significant progress in developing highly robust solutions. To bridge this gap, we introduce a similarly diverse dataset for Tracking Any Object (TAO). It consists of 2,907 high resolution videos, captured in diverse environments, which are half a minute long on average. Importantly, we adopt a bottom-up approach for discovering a large vocabulary of 833 categories, an order of magnitude more than prior tracking benchmarks. To this end, we ask annotators to label objects that move at any point in the video, and give names to them post factum. Our vocabulary is both significantly larger and qualitatively different from existing tracking datasets. To ensure scalability of annotation, we employ a federated approach that focuses manual effort on labeling tracks for those relevant objects in a video (e.g., those that move). We perform an extensive evaluation of state-of-the-art trackers and make a number of important discoveries regarding large-vocabulary tracking in an open-world. In particular, we show that existing single- and multi-object trackers struggle when applied to this scenario in the wild, and that detection-based, multi-object trackers are in fact competitive with user-initialized ones. We hope that our dataset and analysis will boost further progress in the tracking community. | 翻訳日:2022-12-01 05:49:13 公開日:2020-05-20 |
# ポジティブ感情がeコマースのネガティブレビューのランク付けに役立つ Positive emotions help rank negative reviews in e-commerce ( http://arxiv.org/abs/2005.09837v1 ) ライセンス: Link先を確認 | Di Weng, Jichang Zhao | (参考訳) 負のレビュー、購入後の評価の低さは、電子商取引、特に将来の販売と企業株形成に不可欠の役割を果たす。
しかし、現在の研究では、より良いサービスや製品を提供する能力の強化において、販売者や生産者にとっての潜在的な価値を調査することはめったにない。
電子商取引保持者の視点でレビューの有用性を利用した場合、代わりに顧客向けのランキング手法が開発された。
このギャップを埋めるため,説明テキストと感情極性の結合という観点からは,オンライン販売者や製作者に対して,特定の製品属性の下で最も有用な否定的レビューを提供することが目的である。
より合理的な評価手順を適用することで、関連するバックグラウンドを持つ専門家が雇用され、ランキングアプローチに投票する。
当社のランキング手法は,販売者や生産者に対するネガティブレビューのランク付けに信頼性が高く,BM25などのベースラインよりも8%高い結果が得られた。
本稿では,これまでの感情の理解を深めてレビューを評価する。
特に、否定的評価のランク付けにおいて、否定的感情よりも肯定的な感情の方が有益であることがわかった。
ランキングにおけるポジティブな感情からの予期せぬ強化は、実際にはネガティブな経験に対する偏りのないレビューが、より合理的なフィードバックを提供し、販売者や生産者に役立つことを示唆している。
提示されたランキング手法は、オンライン消費者のネガティブレビューを効果的かつ効果的に活用する方法を提供する。 Negative reviews, the poor ratings in postpurchase evaluation, play an indispensable role in e-commerce, especially in shaping future sales and firm equities. However, extant studies seldom examine their potential value for sellers and producers in enhancing capabilities of providing better services and products. For those who exploited the helpfulness of reviews in the view of e-commerce keepers, the ranking approaches were developed for customers instead. To fill this gap, in terms of combining description texts and emotion polarities, the aim of the ranking method in this study is to provide the most helpful negative reviews under a certain product attribute for online sellers and producers. By applying a more reasonable evaluating procedure, experts with related backgrounds are hired to vote for the ranking approaches. Our ranking method turns out to be more reliable for ranking negative reviews for sellers and producers, demonstrating a better performance than the baselines like BM25 with a result of 8% higher. In this paper, we also enrich the previous understandings of emotions in valuing reviews. Specifically, it is surprisingly found that positive emotions are more helpful rather than negative emotions in ranking negative reviews. The unexpected strengthening from positive emotions in ranking suggests that less polarized reviews on negative experience in fact offer more rational feedbacks and thus more helpfulness to the sellers and producers. The presented ranking method could provide e-commerce practitioners with an efficient and effective way to leverage negative reviews from online consumers. | 翻訳日:2022-12-01 05:48:19 公開日:2020-05-20 |
# チーム計画における因果関係,責任,責任 Causality, Responsibility and Blame in Team Plans ( http://arxiv.org/abs/2005.10297v1 ) ライセンス: Link先を確認 | Natasha Alechina, Joseph Y. Halpern, and Brian Logan | (参考訳) 多くの目的を達成できる(あるいはより効果的に達成できる)のは、チームプランを実行するエージェントのグループのみである。
チームの計画が失敗した場合、失敗の原因、失敗に対する各エージェントの責任の程度、各エージェントに付随する責任の程度を決定することは、しばしば関心の対象になります。
続いて,halpern [2015] が導入した因果関係の定義とchockler と halpern [2004] が導入した責任と責任の程度を適用し,失敗の原因とその責任/ブレードの程度を決定する。
また、計算因果関係の複雑さと責任度と責任度に関する新たな結果が証明され、多くのチーム計画において多項式時間で決定できることが示される。 Many objectives can be achieved (or may be achieved more effectively) only by a group of agents executing a team plan. If a team plan fails, it is often of interest to determine what caused the failure, the degree of responsibility of each agent for the failure, and the degree of blame attached to each agent. We show how team plans can be represented in terms of structural equations, and then apply the definitions of causality introduced by Halpern [2015] and degree of responsibility and blame introduced by Chockler and Halpern [2004] to determine the agent(s) who caused the failure and what their degree of responsibility/blame is. We also prove new results on the complexity of computing causality and degree of responsibility and blame, showing that they can be determined in polynomial time for many team plans of interest. | 翻訳日:2022-12-01 05:47:56 公開日:2020-05-20 |
# ロボットにおける無意識のMDP MDPs with Unawareness in Robotics ( http://arxiv.org/abs/2005.10381v1 ) ライセンス: Link先を確認 | Nan Rong, Joseph Y. Halpern, Ashutosh Saxena | (参考訳) ロボット工学における意思決定問題と自動制御を連続的なMDPと連続的な時間間隔で行う動作を用いて定式化する。
次に、より細かい離散化とより細かい離散化を用いて連続mdpを近似する。
この結果、非常に大きなアクション空間を持つシステムのファミリーとなるが、いくつかのアクションだけが「興味深い」ものである。
意思決定者はどのアクションが"興味深い"かを知らないと見なすことができます。
我々はMDPUや無意識のMDPを使ってこれをモデル化することができる。
示すように、MDPUはロボット問題におけるタスク学習の一般的なフレームワークとして使用できる。
本研究は,MDPUの連続作業における準最適政策を学習することの難しさを実証するものである。
これらのアイデアを、ヒューマノイドロボットが独自の歩行方法を学ぶという問題に適用する。 We formalize decision-making problems in robotics and automated control using continuous MDPs and actions that take place over continuous time intervals. We then approximate the continuous MDP using finer and finer discretizations. Doing this results in a family of systems, each of which has an extremely large action space, although only a few actions are "interesting". We can view the decision maker as being unaware of which actions are "interesting". We can model this using MDPUs, MDPs with unawareness, where the action space is much smaller. As we show, MDPUs can be used as a general framework for learning tasks in robotic problems. We prove results on the difficulty of learning a near-optimal policy in an an MDPU for a continuous task. We apply these ideas to the problem of having a humanoid robot learn on its own how to walk. | 翻訳日:2022-12-01 05:47:41 公開日:2020-05-20 |
# 騒音環境における資源制限下における情報獲得 Information Acquisition Under Resource Limitations in a Noisy Environment ( http://arxiv.org/abs/2005.10383v1 ) ライセンス: Link先を確認 | Matvey Soloviev, Joseph Y. Halpern | (参考訳) 雑音環境における資源制限下での情報獲得の理論モデルを提案する。
エージェントは、与えられたブール式$\varphi$の真理値を、論理式中の変数の真理値の有界なテストの後に推測しなければならない。
一般に、$\phi$の最適テスト戦略を見つけるという問題は難しいが、有用ヒューリスティックであることが示唆されている。
つまり、関連する情報を無視することが合理的である場合(最適戦略は$$\phi$と明確に関係のある変数をテストすることはほとんどないかもしれない)、(2)公式を学習/記憶しにくくする問題である。 We introduce a theoretical model of information acquisition under resource limitations in a noisy environment. An agent must guess the truth value of a given Boolean formula $\varphi$ after performing a bounded number of noisy tests of the truth values of variables in the formula. We observe that, in general, the problem of finding an optimal testing strategy for $\phi$ is hard, but we suggest a useful heuristic. The techniques we use also give insight into two apparently unrelated, but well-studied problems: (1) \emph{rational inattention}, that is, when it is rational to ignore pertinent information (the optimal strategy may involve hardly ever testing variables that are clearly relevant to $\phi$), and (2) what makes a formula hard to learn/remember. | 翻訳日:2022-12-01 05:41:52 公開日:2020-05-20 |
# 群衆数量の関連する地域予測 Relevant Region Prediction for Crowd Counting ( http://arxiv.org/abs/2005.09816v1 ) ライセンス: Link先を確認 | Xinya Chen, Yanrui Bin, Changxin Gao, Nong Sang, and Hao Tang | (参考訳) 群衆のカウントはコンピュータビジョンにおいて関心深く挑戦的なタスクである。
既存の密度マップに基づく手法は、密集したシーンにおける群衆カウントのパフォーマンスを損なう個人の位置を過度に重視する。
また、異なる密度の領域間の依存性も無視される。
本稿では,Relevant Region Prediction (RRP) を,Count Map と Region Relation-Aware Module (RRAM) で構成されるクラウドカウントに提案する。
計数マップの各ピクセルは、入力画像内の対応する局所領域に落下する頭部の数を表し、詳細な空間情報を破棄し、ネットワークが個人をローカライズするよりもカウントに注意を払うように強制する。
グラフ畳み込みネットワーク(GCN)に基づいて、重要な領域依存を捕捉して活用するために、リージョン関係認識モジュールを提案する。
モジュールは、各ノード(リージョン)が重み付けされた大域プール特徴によって表現される異なる密度の領域間で完全に連結された有向グラフを構築し、GCNはこの領域グラフを関係対応の領域表現の集合にマッピングすることを学習する。
3つのデータセットにおける実験結果から,本手法が既存の最新手法よりも明らかに優れていることが判明した。 Crowd counting is a concerned and challenging task in computer vision. Existing density map based methods excessively focus on the individuals' localization which harms the crowd counting performance in highly congested scenes. In addition, the dependency between the regions of different density is also ignored. In this paper, we propose Relevant Region Prediction (RRP) for crowd counting, which consists of the Count Map and the Region Relation-Aware Module (RRAM). Each pixel in the count map represents the number of heads falling into the corresponding local area in the input image, which discards the detailed spatial information and forces the network pay more attention to counting rather than localizing individuals. Based on the Graph Convolutional Network (GCN), Region Relation-Aware Module is proposed to capture and exploit the important region dependency. The module builds a fully connected directed graph between the regions of different density where each node (region) is represented by weighted global pooled feature, and GCN is learned to map this region graph to a set of relation-aware regions representations. Experimental results on three datasets show that our method obviously outperforms other existing state-of-the-art methods. | 翻訳日:2022-12-01 05:41:40 公開日:2020-05-20 |
# 自動運転におけるLiDARポイントクラウドのためのディープラーニング: レビュー Deep Learning for LiDAR Point Clouds in Autonomous Driving: A Review ( http://arxiv.org/abs/2005.09830v1 ) ライセンス: Link先を確認 | Ying Li, Lingfei Ma, Zilong Zhong, Fei Liu, Dongpu Cao, Jonathan Li, and Michael A. Chapman | (参考訳) 近年,3次元LiDARデータからの識別的特徴学習におけるディープラーニングの進歩が,自動運転分野の急速な発展につながっている。
しかし、自動化された処理の不均一、非構造、ノイズ、巨大な3Dポイントクラウドは困難で面倒な作業です。
本稿では,lidar point cloudに適用される既存の魅力的なディープラーニングアーキテクチャを体系的にレビューし,セグメンテーションや検出,分類といった自律運転における特定のタスクを詳述する。
自動運転車のコンピュータビジョンにおける特定のトピックに焦点を当てた研究論文がいくつか発表されているが、LiDARポイントクラウドに適用されたディープラーニングに関する一般的な調査は存在しない。
したがって,本論文の目的は,このトピックのギャップを狭めることである。
マイルストーンとなる3D深層アーキテクチャ、3Dセマンティックセグメンテーションにおける注目すべきディープラーニングアプリケーション、オブジェクト検出と分類、特定のデータセット、評価指標、アートパフォーマンスの状態など、この5年間で140以上の重要なコントリビューションが要約されている。
最後に,残りの課題と今後の研究をまとめる。 Recently, the advancement of deep learning in discriminative feature learning from 3D LiDAR data has led to rapid development in the field of autonomous driving. However, automated processing uneven, unstructured, noisy, and massive 3D point clouds is a challenging and tedious task. In this paper, we provide a systematic review of existing compelling deep learning architectures applied in LiDAR point clouds, detailing for specific tasks in autonomous driving such as segmentation, detection, and classification. Although several published research papers focus on specific topics in computer vision for autonomous vehicles, to date, no general survey on deep learning applied in LiDAR point clouds for autonomous vehicles exists. Thus, the goal of this paper is to narrow the gap in this topic. More than 140 key contributions in the recent five years are summarized in this survey, including the milestone 3D deep architectures, the remarkable deep learning applications in 3D semantic segmentation, object detection, and classification; specific datasets, evaluation metrics, and the state of the art performance. Finally, we conclude the remaining challenges and future researches. | 翻訳日:2022-12-01 05:41:18 公開日:2020-05-20 |
# ニューラルアーキテクチャ探索における性能推定の再考 Rethinking Performance Estimation in Neural Architecture Search ( http://arxiv.org/abs/2005.09917v1 ) ライセンス: Link先を確認 | Xiawu Zheng, Rongrong Ji, Qiang Wang, Qixiang Ye, Zhenguo Li, Yonghong Tian, Qi Tian | (参考訳) ニューラルアーキテクチャサーチ(NAS)は依然として困難な問題であり、性能推定(PE)の必須かつ時間を要する要素である。
本稿では, 資源制約型PE(Bed budgeted PE, BPE)におけるPEの体系的再考を行い, アーキテクチャ空間からサンプリングしたアーキテクチャの性能を正確に, 効果的に推定する。
評価のために多数のネットワークをトレーニングする必要があるため,最適なBPEを探索するのには非常に時間がかかるため,ミニマム・コンパタンス・プルーニング(MIP)アプローチを提案する。
データセットとBPE検索空間が与えられた場合、MIPはランダムフォレストを用いてハイパーパラメータの重要性を推定し、その後、次のイテレーションから最小のパラメータを抽出する。
このようにして、MIPはより重要でないハイパーパラメーターを効果的に作成し、より重要なパラメーターにより多くの計算資源を割り当てる。
BPEと強化学習、進化アルゴリズム、ランダム探索、および微分可能なアーキテクチャ探索を含む様々な探索アルゴリズムを組み合わせることで、SOTAと比較して1,000倍のNAS速度を達成することができる。 Neural architecture search (NAS) remains a challenging problem, which is attributed to the indispensable and time-consuming component of performance estimation (PE). In this paper, we provide a novel yet systematic rethinking of PE in a resource constrained regime, termed budgeted PE (BPE), which precisely and effectively estimates the performance of an architecture sampled from an architecture space. Since searching an optimal BPE is extremely time-consuming as it requires to train a large number of networks for evaluation, we propose a Minimum Importance Pruning (MIP) approach. Given a dataset and a BPE search space, MIP estimates the importance of hyper-parameters using random forest and subsequently prunes the minimum one from the next iteration. In this way, MIP effectively prunes less important hyper-parameters to allocate more computational resource on more important ones, thus achieving an effective exploration. By combining BPE with various search algorithms including reinforcement learning, evolution algorithm, random search, and differentiable architecture search, we achieve 1, 000x of NAS speed up with a negligible performance drop comparing to the SOTA | 翻訳日:2022-12-01 05:41:01 公開日:2020-05-20 |
# 計算境界と低帯域分散3次元グラフSLAM Compute-Bound and Low-Bandwidth Distributed 3D Graph-SLAM ( http://arxiv.org/abs/2005.10222v1 ) ライセンス: Link先を確認 | Jincheng Zhang, Andrew R. Willis and Jamie Godwin | (参考訳) 本稿では,分散3次元SLAMマップ構築のための新しいアプローチについて述べる。
本稿の重要な貢献は、ロボットプラットフォームの帯域幅と計算要求に応答する分散グラフ-SLAMマップ構築アーキテクチャの作成である。
応答性は3dポイントクラウドと平面クラウド圧縮アルゴリズムの統合によって実現され、局所平面パッチを用いて密度の高い3dポイントクラウドを近似する。
計算境界プラットフォームは圧縮アルゴリズムの計算時間を制限することができ、低帯域プラットフォームは圧縮結果のサイズを制限することができる。
このアプローチのバックボーンは、超高速適応型3d圧縮アルゴリズムで、3d平面表面データのスワスを画像テクスチャによる平面パッチに変換する。
提案手法では,dvo slamを用いた3dマッピングのためのリーディングアルゴリズムを用いて,地図統合タスクを局所的誘導,ナビゲーション,制御タスクから計算的に分離し,圧縮面のクラウドを共有するためのネットワークプロトコルを追加して拡張する。
これらの貢献により、3dセンシング能力を持つエージェントは、搭載された計算リソースと通信チャネル容量で、圧縮地図情報を計算し、通信することができる。
これにより、SLAMのマッピングを、他のSLAMソリューションを禁止した計算およびメモリ制限を持つ新しいロボットプラットフォームに開放する。 This article describes a new approach for distributed 3D SLAM map building. The key contribution of this article is the creation of a distributed graph-SLAM map-building architecture responsive to bandwidth and computational needs of the robotic platform. Responsiveness is afforded by the integration of a 3D point cloud to plane cloud compression algorithm that approximates dense 3D point cloud using local planar patches. Compute bound platforms may restrict the computational duration of the compression algorithm and low-bandwidth platforms can restrict the size of the compression result. The backbone of the approach is an ultra-fast adaptive 3D compression algorithm that transforms swaths of 3D planar surface data into planar patches attributed with image textures. Our approach uses DVO SLAM, a leading algorithm for 3D mapping, and extends it by computationally isolating map integration tasks from local Guidance, Navigation, and Control tasks and includes an addition of a network protocol to share the compressed plane clouds. The joint effect of these contributions allows agents with 3D sensing capabilities to calculate and communicate compressed map information commensurate with their onboard computational resources and communication channel capacities. This opens SLAM mapping to new categories of robotic platforms that may have computational and memory limits that prohibit other SLAM solutions. | 翻訳日:2022-12-01 05:39:03 公開日:2020-05-20 |
# wikipedia current events ポータルからの大規模マルチドキュメント要約データセット A Large-Scale Multi-Document Summarization Dataset from the Wikipedia Current Events Portal ( http://arxiv.org/abs/2005.10070v1 ) ライセンス: Link先を確認 | Demian Gholipour Ghalandari, Chris Hokamp, Nghia The Pham, John Glover, Georgiana Ifrim | (参考訳) 多文書要約(MDS)は,大規模な文書コレクションの内容を短い要約に圧縮することを目的としており,ニュースフィードのストーリークラスタリング,検索結果の表示,タイムライン生成に重要な応用がある。
しかし、このようなユースケースに現実的に対処するデータセットは、このタスクのために教師付きモデルをトレーニングするのに十分な規模で存在しない。
この研究は、文書クラスタの総数と個々のクラスタのサイズの両方で大きいMDS用の新しいデータセットを示す。
このデータセットはWikipedia Current Events Portal(WCEP)を利用して構築され、ニュースイベントの簡潔で中立的な要約と外部ソース記事へのリンクを提供する。
また、common crawlアーカイブで関連記事を探すことで、これらのソース記事を自動的に拡張します。
我々は、いくつかの最先端MDS技術に対するデータセットと実験結果の定量的分析を行う。 Multi-document summarization (MDS) aims to compress the content in large document collections into short summaries and has important applications in story clustering for newsfeeds, presentation of search results, and timeline generation. However, there is a lack of datasets that realistically address such use cases at a scale large enough for training supervised models for this task. This work presents a new dataset for MDS that is large both in the total number of document clusters and in the size of individual clusters. We build this dataset by leveraging the Wikipedia Current Events Portal (WCEP), which provides concise and neutral human-written summaries of news events, with links to external source articles. We also automatically extend these source articles by looking for related articles in the Common Crawl archive. We provide a quantitative analysis of the dataset and empirical results for several state-of-the-art MDS techniques. | 翻訳日:2022-12-01 05:32:11 公開日:2020-05-20 |
# ニュースタイムライン要約における現状の検討 Examining the State-of-the-Art in News Timeline Summarization ( http://arxiv.org/abs/2005.10107v1 ) ライセンス: Link先を確認 | Demian Gholipour Ghalandari and Georgiana Ifrim | (参考訳) tls(automatic news timeline summarization)に関する以前の作業は、このタスクが一般的にどのようにアプローチされ、現在どのように解決されているのか、はっきりしない部分を残している。
これは主に、日付の選択や日付の要約といった個別のサブタスクに焦点が当てられていることと、TLSタスクに対する以前の適切な評価基準の欠如が原因である。
本稿では,様々なtls戦略を適切な評価フレームワークを用いて比較し,テスト済みベンチマークの最先端性能を向上させる手法の簡易かつ効果的な組み合わせを提案する。
より堅牢な評価のために、我々はまた、以前のデータセットよりも大きく、長い時間にまたがる新しいtlsデータセットも提示する。 Previous work on automatic news timeline summarization (TLS) leaves an unclear picture about how this task can generally be approached and how well it is currently solved. This is mostly due to the focus on individual subtasks, such as date selection and date summarization, and to the previous lack of appropriate evaluation metrics for the full TLS task. In this paper, we compare different TLS strategies using appropriate evaluation frameworks, and propose a simple and effective combination of methods that improves over the state-of-the-art on all tested benchmarks. For a more robust evaluation, we also present a new TLS dataset, which is larger and spans longer time periods than previous datasets. | 翻訳日:2022-12-01 05:31:56 公開日:2020-05-20 |
# 共同多次元アノテーションを用いた心理言語規範の文レベル推定 Sentence level estimation of psycholinguistic norms using joint multidimensional annotations ( http://arxiv.org/abs/2005.10232v1 ) ライセンス: Link先を確認 | Anil Ramakrishna, Shrikanth Narayanan | (参考訳) 精神言語学的規範は、数値スコアを用いて様々な情緒的・精神的な構成を表し、自然言語処理における様々な応用に用いられる。
これらは文レベルで一般的に用いられ、そのスコアは単純な集約戦略を用いて単語レベルのスコアを外挿することによって推定される。
本研究では,文章レベルでの心理言語規範を推定する新しい手法を提案する。
単語レベルのアノテーションに多次元アノテーション融合モデルを適用し、異なるノルム間の関係をキャプチャするパラメータを推定する。
次に、このパラメータを文レベルで使用してノルムを推定する。
本手法は,様々な基準次元の文レベルスコアを予測し,標準単語集約スキームと比較することで評価する。 Psycholinguistic normatives represent various affective and mental constructs using numeric scores and are used in a variety of applications in natural language processing. They are commonly used at the sentence level, the scores of which are estimated by extrapolating word level scores using simple aggregation strategies, which may not always be optimal. In this work, we present a novel approach to estimate the psycholinguistic norms at sentence level. We apply a multidimensional annotation fusion model on annotations at the word level to estimate a parameter which captures relationships between different norms. We then use this parameter at sentence level to estimate the norms. We evaluate our approach by predicting sentence level scores for various normative dimensions and compare with standard word aggregation schemes. | 翻訳日:2022-12-01 05:31:28 公開日:2020-05-20 |
# 対照文目標による事前学習は言語モデルの談話性能を向上させる Pretraining with Contrastive Sentence Objectives Improves Discourse Performance of Language Models ( http://arxiv.org/abs/2005.10389v1 ) ライセンス: Link先を確認 | Dan Iter, Kelvin Guu, Larry Lansing, Dan Jurafsky | (参考訳) テキストの教師なし表現学習のための最近のモデルは、文脈的単語表現を改善するために多くの技術を採用しているが、談話レベルの表現にはほとんど焦点を当てていない。
会話の一貫性と文間の距離をモデル化する事前学習言語モデルのためのconponoを提案する。
アンカー文が与えられた場合, 候補がコーパスからランダムにサンプリングされた文と近傍の文からなるサンプルソフトマックス目標を用いて, テキスト k 文の予測を訓練する。
談話表現ベンチマークのDiscoEvalでは、7つのタスクで平均4%の絶対値で、従来の最先端技術よりも最大13%改善しています。
私たちのモデルはBERT-Baseと同じサイズですが、ずっと大きなBERT- Largeモデルや、談話を含む最近のアプローチよりも優れています。
また,会話を明示的に評価していないタスクに対して,ConPONOが2%-6%の絶対値を得ることを示す: テキストエンターメント(RTE),常識推論(COPA),読解理解(ReCoRD)である。 Recent models for unsupervised representation learning of text have employed a number of techniques to improve contextual word representations but have put little focus on discourse-level representations. We propose CONPONO, an inter-sentence objective for pretraining language models that models discourse coherence and the distance between sentences. Given an anchor sentence, our model is trained to predict the text k sentences away using a sampled-softmax objective where the candidates consist of neighboring sentences and sentences randomly sampled from the corpus. On the discourse representation benchmark DiscoEval, our model improves over the previous state-of-the-art by up to 13% and on average 4% absolute across 7 tasks. Our model is the same size as BERT-Base, but outperforms the much larger BERT- Large model and other more recent approaches that incorporate discourse. We also show that CONPONO yields gains of 2%-6% absolute even for tasks that do not explicitly evaluate discourse: textual entailment (RTE), common sense reasoning (COPA) and reading comprehension (ReCoRD). | 翻訳日:2022-12-01 05:30:44 公開日:2020-05-20 |
# モンテカルロ逆折り畳み Monte Carlo Inverse Folding ( http://arxiv.org/abs/2005.09961v1 ) ライセンス: Link先を確認 | Tristan Cazenave and Thomas Fournier | (参考訳) RNA逆フォールディング問題は計算生物学に由来する。
目的は、所定の折りたたみを持つ分子を見つけることである。
生物工学、薬学研究、生化学、合成生物学、rnaナノ構造などの科学分野において重要である。
Nested Monte Carlo Searchはこの問題に対して優れた結果を出している。
本稿では,RNA逆フォールディング問題に対するモンテカルロ探索アルゴリズムの適応と評価を提案する。 The RNA Inverse Folding problem comes from computational biology. The goal is to find a molecule that has a given folding. It is important for scientific fields such as bioengineering, pharmaceutical research, biochemistry, synthetic biology and RNA nanostructures. Nested Monte Carlo Search has given excellent results for this problem. We propose to adapt and evaluate different Monte Carlo Search algorithms for the RNA Inverse Folding problem. | 翻訳日:2022-12-01 05:30:11 公開日:2020-05-20 |
# 専門家の因果判断と潜在的に異なる焦点領域の組み合わせ Combining the Causal Judgments of Experts with Possibly Different Focus Areas ( http://arxiv.org/abs/2005.10131v1 ) ライセンス: Link先を確認 | Meir Friedenberg and Joseph Y. Halpern | (参考訳) 多くの現実世界において、意思決定者は、効果的な政策を決定するために、異なる専門家が提供した情報を組み合わせる必要がある。
Alrajeh, Chockler, Halpern [2018] は、両方のモデルに現れる変数に対して、専門家が因果構造に同意するという意味で互換性のある因果モデルを組み合わせる方法を示した。
本研究は,焦点領域が異なるため,両モデルに現れる変数の因果構造に専門家が同意できない場合において,因果モデルがどのように組み合わされるかを示す。
この設定で、モデルの互換性に関する新しい形式的な定義を提供し、互換性モデルをどのように組み合わせるかを示します。
また、モデルが互換性があるかどうかを決定する複雑さについても検討する。
この研究で定義された概念は、自然、社会的、医療科学の設定で生じる多くの実践的な意思決定シナリオに直接関連していると信じています。 In many real-world settings, a decision-maker must combine information provided by different experts in order to decide on an effective policy. Alrajeh, Chockler, and Halpern [2018] showed how to combine causal models that are compatible in the sense that, for variables that appear in both models, the experts agree on the causal structure. In this work we show how causal models can be combined in cases where the experts might disagree on the causal structure for variables that appear in both models due to having different focus areas. We provide a new formal definition of compatibility of models in this setting and show how compatible models can be combined. We also consider the complexity of determining whether models are compatible. We believe that the notions defined in this work are of direct relevance to many practical decision making scenarios that come up in natural, social, and medical science settings. | 翻訳日:2022-12-01 05:30:05 公開日:2020-05-20 |
# TinyLSTMs: 難聴者に対する効率的な音声強調 TinyLSTMs: Efficient Neural Speech Enhancement for Hearing Aids ( http://arxiv.org/abs/2005.11138v1 ) ライセンス: Link先を確認 | Igor Fedorov, Marko Stamenovic, Carl Jensen, Li-Chia Yang, Ari Mandell, Yiming Gan, Matthew Mattina, Paul N. Whatmough | (参考訳) 現代の音声強調アルゴリズムは、大きなリカレントニューラルネットワーク(RNN)を用いて顕著なノイズ抑圧を実現する。
しかし、大規模なRNNは、バッテリー駆動でメモリ容量と計算能力に制限のあるマイクロコントローラユニット(MCU)上で動作する補聴器ハードウェア(HW)フォームファクタの実用的展開を制限している。
本研究では,このギャップを埋めるためにモデル圧縮技術を用いる。
我々は、HWによってRNNに課される制約を定義し、それらを満たす方法を記述する。
モデル圧縮技術は研究の活発な領域であるが,重み/アクティベーションのプルーニングと整数量子化を用いて,RNN音声強調の有効性を初めて実証する。
また、状態更新スキップを実証し、計算負荷を削減する。
最後に,圧縮モデルの知覚的評価を行い,音声品質の検証を行った。
その結果、圧縮されたモデルのベースライン上で、それぞれ1.9$\times$と2.9$\times$のモデルサイズと操作が減少し、聴取好みの統計的差はなく、0.55dB SDRの損失しか示さなかった。
我々のモデルは計算遅延を2.39msで達成し、目標の10ミリ秒以内で351$\times$が以前の作業より優れている。 Modern speech enhancement algorithms achieve remarkable noise suppression by means of large recurrent neural networks (RNNs). However, large RNNs limit practical deployment in hearing aid hardware (HW) form-factors, which are battery powered and run on resource-constrained microcontroller units (MCUs) with limited memory capacity and compute capability. In this work, we use model compression techniques to bridge this gap. We define the constraints imposed on the RNN by the HW and describe a method to satisfy them. Although model compression techniques are an active area of research, we are the first to demonstrate their efficacy for RNN speech enhancement, using pruning and integer quantization of weights/activations. We also demonstrate state update skipping, which reduces the computational load. Finally, we conduct a perceptual evaluation of the compressed models to verify audio quality on human raters. Results show a reduction in model size and operations of 11.9$\times$ and 2.9$\times$, respectively, over the baseline for compressed models, without a statistical difference in listening preference and only exhibiting a loss of 0.55dB SDR. Our model achieves a computational latency of 2.39ms, well within the 10ms target and 351$\times$ better than previous work. | 翻訳日:2022-12-01 05:24:21 公開日:2020-05-20 |
# 先行画像を用いた不十分なデータからのデータ一貫性CT再構成 Data Consistent CT Reconstruction from Insufficient Data with Learned Prior Images ( http://arxiv.org/abs/2005.10034v1 ) ライセンス: Link先を確認 | Yixing Huang, Alexander Preuhs, Michael Manhart, Guenter Lauritsch, Andreas Maier | (参考訳) 不十分なデータからの画像再構成はCT(Computerd tomography)において一般的であり、例えば、切り離されたデータ、限られた角度のデータ、スパースビューデータからの画像再構成である。
ディープラーニングはこの分野で素晴らしい成果を上げています。
しかし,深層学習法の頑健性は,以下の2つの課題により臨床応用においてもなお懸念されている。
a) 十分なトレーニングデータへのアクセスが限られている場合において、学習深層学習モデルは、見当たらないデータに対して十分に一般化できない場合がある。
b) ディープラーニングモデルはノイズに敏感である。
したがって、ニューラルネットワークによって処理される画像の品質は不十分である。
本研究では,CT画像再構成における深層学習の堅牢性について,偽陰性および偽陽性病変を呈示することにより検討した。
誤った構造を持つ学習ベース画像は、計測された投影データと一致しない可能性が高いため、圧縮されたセンシングと深層学習の利点を組み合わせた、画像品質を改善するためのデータ一貫性再構築(DCR)手法を提案する。
その後、事前画像の前方投影により、未測定の投影データが塗装される。
最後に,再重み付けされた全変動正規化による反復的再構成を行い,測定データに対するデータ一貫性と欠測データに対する学習済み事前情報を統合する。
提案手法の有効性は,円錐ビームCTにおいて,トランキャットデータ,リミテッドアングルデータ,スパースビューデータで示される。
例えば、truncatedデータの場合、DCRは24HUの平均ルート平均二乗誤差とノイズの場合のフィールド・オブ・ビュー内の平均構造類似度指数0.999を達成し、最先端のU-Net法はそれぞれ55HUと0.995を達成している。 Image reconstruction from insufficient data is common in computed tomography (CT), e.g., image reconstruction from truncated data, limited-angle data and sparse-view data. Deep learning has achieved impressive results in this field. However, the robustness of deep learning methods is still a concern for clinical applications due to the following two challenges: a) With limited access to sufficient training data, a learned deep learning model may not generalize well to unseen data; b) Deep learning models are sensitive to noise. Therefore, the quality of images processed by neural networks only may be inadequate. In this work, we investigate the robustness of deep learning in CT image reconstruction by showing false negative and false positive lesion cases. Since learning-based images with incorrect structures are likely not consistent with measured projection data, we propose a data consistent reconstruction (DCR) method to improve their image quality, which combines the advantages of compressed sensing and deep learning: First, a prior image is generated by deep learning. Afterwards, unmeasured projection data are inpainted by forward projection of the prior image. Finally, iterative reconstruction with reweighted total variation regularization is applied, integrating data consistency for measured data and learned prior information for missing data. The efficacy of the proposed method is demonstrated in cone-beam CT with truncated data, limited-angle data and sparse-view data, respectively. For example, for truncated data, DCR achieves a mean root-mean-square error of 24 HU and a mean structure similarity index of 0.999 inside the field-of-view for different patients in the noisy case, while the state-of-the-art U-Net method achieves 55 HU and 0.995 respectively for these two metrics. | 翻訳日:2022-12-01 05:22:52 公開日:2020-05-20 |
# 大規模不完全かつ不正確なデータラベルからのマップ生成 Map Generation from Large Scale Incomplete and Inaccurate Data Labels ( http://arxiv.org/abs/2005.10053v1 ) ライセンス: Link先を確認 | Rui Zhang, Conrad Albrecht, Wei Zhang, Xiaodong Cui, Ulrich Finkler, David Kung, Siyuan Lu | (参考訳) 正確なグローバルマッピングは、ルーティング、規制コンプライアンス監視、自然災害対応管理などのアプリケーションにおいて、重要かつ困難なタスクである。
本稿では,高分解能空中画像を用いた地図作成プロセスを自動化するアルゴリズムパイプラインと分散計算システムの開発の進展について述べる。
これまでの研究とは異なり、ほとんどが世界中のいくつかの都市でのみ利用可能なデータセットを使用しており、我々は公開されている画像と地図データを利用しており、どちらも連続する米国(conus)をカバーしている。
我々は、u-netやcycleganのような最先端の畳み込みニューラルネットワークアーキテクチャを用いて、道路や住宅などの人工的なインフラのラベルがより正確で完全なマップを漸進的に生成する、不正確で不完全なトレーニングデータの技術的課題にアプローチする。
並列化のためのCONUSコールへのマッピングタスクのスケーリング以降、並列化のための非同期分散確率的並列勾配降下訓練スキームを採用し、ほぼ線形スピードアップで計算負荷をGPUクラスタに分散する。 Accurately and globally mapping human infrastructure is an important and challenging task with applications in routing, regulation compliance monitoring, and natural disaster response management etc.. In this paper we present progress in developing an algorithmic pipeline and distributed compute system that automates the process of map creation using high resolution aerial images. Unlike previous studies, most of which use datasets that are available only in a few cities across the world, we utilizes publicly available imagery and map data, both of which cover the contiguous United States (CONUS). We approach the technical challenge of inaccurate and incomplete training data adopting state-of-the-art convolutional neural network architectures such as the U-Net and the CycleGAN to incrementally generate maps with increasingly more accurate and more complete labels of man-made infrastructure such as roads and houses. Since scaling the mapping task to CONUS calls for parallelization, we then adopted an asynchronous distributed stochastic parallel gradient descent training scheme to distribute the computational workload onto a cluster of GPUs with nearly linear speed-up. | 翻訳日:2022-12-01 05:22:24 公開日:2020-05-20 |
# 物理インフォームド生成逆数ネットワークを用いた弾性率の逆推定 Inverse Estimation of Elastic Modulus Using Physics-Informed Generative Adversarial Networks ( http://arxiv.org/abs/2006.05791v1 ) ライセンス: Link先を確認 | James E. Warner, Julian Cuevas, Geoffrey F. Bomarito, Patrick E. Leser, William P. Leser | (参考訳) 標準生成逆数ネットワーク(GAN)は未知の確率分布を学習するためのトレーニングデータにのみ依存するが、物理インフォームドGAN(PI-GAN)は自動微分を用いた確率偏微分方程式(PDE)の形で物理法則を符号化する。
観測データをPDEを通して観測されていない量の興味に関連付けることにより、PI-GANは直接測定(逆問題)なしで基礎となる確率分布を推定できる。
GANのスケーラブルな性質は、高次元、空間依存的な確率分布(すなわちランダム場)を推論し、PDEを通じて事前情報を組み込むことで、トレーニングデータセットを比較的小さくすることができる。
本研究では, PI-GANを機械的試験における弾性率推定に適用した。
測定された変形データから, 空間変動弾性率(剛性)の確率分布を求める。
2つのフィードフォワードディープニューラルネットワークジェネレータを使用して、2次元領域にわたる変形と材料剛性をモデル化する。
勾配ペナルティを持つwasserstein gansは安定性を高めるために用いられる。
明示的なトレーニングデータがない場合、PI-GANは、測定された変形に関連するPDEを組み込んで、物質硬さの現実的で物理的に許容可能な実現を学習することを示した。
これらの厳密度サンプルの統計(平均、標準偏差、点方向分布、相関長)は、真の分布とよく一致していることが示されている。 While standard generative adversarial networks (GANs) rely solely on training data to learn unknown probability distributions, physics-informed GANs (PI-GANs) encode physical laws in the form of stochastic partial differential equations (PDEs) using auto differentiation. By relating observed data to unobserved quantities of interest through PDEs, PI-GANs allow for the estimation of underlying probability distributions without their direct measurement (i.e. inverse problems). The scalable nature of GANs allows high-dimensional, spatially-dependent probability distributions (i.e., random fields) to be inferred, while incorporating prior information through PDEs allows the training datasets to be relatively small. In this work, PI-GANs are demonstrated for the application of elastic modulus estimation in mechanical testing. Given measured deformation data, the underlying probability distribution of spatially-varying elastic modulus (stiffness) is learned. Two feed-forward deep neural network generators are used to model the deformation and material stiffness across a two dimensional domain. Wasserstein GANs with gradient penalty are employed for enhanced stability. In the absence of explicit training data, it is demonstrated that the PI-GAN learns to generate realistic, physically-admissible realizations of material stiffness by incorporating the PDE that relates it to the measured deformation. It is shown that the statistics (mean, standard deviation, point-wise distributions, correlation length) of these generated stiffness samples have good agreement with the true distribution. | 翻訳日:2022-12-01 05:21:45 公開日:2020-05-20 |
# 抽象的マルチドキュメント要約を改善するグラフの活用 Leveraging Graph to Improve Abstractive Multi-Document Summarization ( http://arxiv.org/abs/2005.10043v1 ) ライセンス: Link先を確認 | Wei Li, Xinyan Xiao, Jiachen Liu, Hua Wu, Haifeng Wang, Junping Du | (参考訳) テキスト単位間の関係をキャプチャするグラフは、複数の文書から有能な情報を検出し、全体コヒーレントな要約を生成するのに大いに役立つ。
本稿では、類似度グラフや談話グラフなどの文書のよく知られたグラフ表現を活用し、複数の入力文書をより効率的に処理し、抽象要約を生成する神経抽象的多文書要約(neural abstractive multi-document summarization, mds)モデルを開発した。
本モデルは,長い文書を要約する上で重要な文書間関係を捉えるために,文書を符号化するグラフを利用する。
私たちのモデルは、グラフを利用してサマリ生成プロセスをガイドすることも可能で、コヒーレントで簡潔なサマリを生成するのに役立ちます。
さらに,事前学習した言語モデルとモデルとの結合も容易であり,要約性能がさらに向上した。
wikisumとmultinewsデータセットでの実証的な結果は、提案されたアーキテクチャがいくつかの強力なベースラインに対して大幅な改善をもたらすことを示している。 Graphs that capture relations between textual units have great benefits for detecting salient information from multiple documents and generating overall coherent summaries. In this paper, we develop a neural abstractive multi-document summarization (MDS) model which can leverage well-known graph representations of documents such as similarity graph and discourse graph, to more effectively process multiple input documents and produce abstractive summaries. Our model utilizes graphs to encode documents in order to capture cross-document relations, which is crucial to summarizing long documents. Our model can also take advantage of graphs to guide the summary generation process, which is beneficial for generating coherent and concise summaries. Furthermore, pre-trained language models can be easily combined with our model, which further improve the summarization performance significantly. Empirical results on the WikiSum and MultiNews dataset show that the proposed architecture brings substantial improvements over several strong baselines. | 翻訳日:2022-12-01 05:21:16 公開日:2020-05-20 |
# ニューラルネットワークによる分子特性予測の不確かさの定量化 Uncertainty Quantification Using Neural Networks for Molecular Property Prediction ( http://arxiv.org/abs/2005.10036v1 ) ライセンス: Link先を確認 | Lior Hirschfeld, Kyle Swanson, Kevin Yang, Regina Barzilay, Connor W. Coley | (参考訳) 不確実性定量化(uq)は分子特性予測の重要な構成要素であり、特にモデル予測が実験的な設計を指示し、予期せぬ不確定化が貴重な時間と資源を無駄にする薬物発見への応用において重要である。
uqの必要性は、ますます標準になりつつあるが解釈が難しいニューラルモデルにとって特に深刻である。
UQに対するいくつかのアプローチが文献で提案されているが、これらのモデルの比較性能について明確なコンセンサスはない。
本稿では,この問題を回帰タスクの文脈で検討する。
複数の相補的な性能指標を用いて,5つのベンチマークデータセット上で複数の手法を体系的に評価した。
私たちの実験では、テストしたどの方法も他のどの方法よりも明らかに優れておらず、複数のデータセットにまたがるエラーの信頼性の高いランク付けは行われていません。
これらの結果は,既存のUQ手法がすべての一般的なユースケースに十分ではないことを示すものであり,さらなる研究のメリットを示すものであるが,既存の手法が他とよく関係していると思われるものについては,実践的な勧告で結論付けている。 Uncertainty quantification (UQ) is an important component of molecular property prediction, particularly for drug discovery applications where model predictions direct experimental design and where unanticipated imprecision wastes valuable time and resources. The need for UQ is especially acute for neural models, which are becoming increasingly standard yet are challenging to interpret. While several approaches to UQ have been proposed in the literature, there is no clear consensus on the comparative performance of these models. In this paper, we study this question in the context of regression tasks. We systematically evaluate several methods on five benchmark datasets using multiple complementary performance metrics. Our experiments show that none of the methods we tested is unequivocally superior to all others, and none produces a particularly reliable ranking of errors across multiple datasets. While we believe these results show that existing UQ methods are not sufficient for all common use-cases and demonstrate the benefits of further research, we conclude with a practical recommendation as to which existing techniques seem to perform well relative to others. | 翻訳日:2022-12-01 05:14:59 公開日:2020-05-20 |
# ノード埋め込みの安定性に及ぼすランダム性の影響 The Effects of Randomness on the Stability of Node Embeddings ( http://arxiv.org/abs/2005.10039v1 ) ライセンス: Link先を確認 | Tobias Schumacher, Hinrikus Wolf, Martin Ritzert, Florian Lemmerich, Jan Bachmann, Florian Frantzen, Max Klabunde, Martin Grohe, Markus Strohmaier | (参考訳) 提案手法は, ランダム性による最先端ノード埋め込みアルゴリズムの安定性, すなわち, 同一のアルゴリズムとグラフが与えられた結果のランダムな変動を, 系統的に評価する。
5つのノード埋め込みアルゴリズム-HOPE, LINE, node2vec, SDNE, GraphSAGE-を合成および実証グラフに適用し, ランダム性による安定性の評価を行う。
(i)埋め込み空間の幾何学だけでなく、埋め込み空間の幾何学
(ii)下流タスクにおけるパフォーマンス。
ノードの中心性に依存しない埋め込み空間の幾何学において重要な不安定性を見出す。
ダウンストリームタスクの評価において,ノード分類の精度はランダムシードの影響を受けないが,ノードの実際の分類は著しく異なることがわかった。
これは、ノード埋め込みを扱う際に不安定性の影響を考慮する必要があることを示唆している。
我々の研究は、ノード埋め込みアプローチの有効性、信頼性、再現性に関心を持つ研究者やエンジニアに関係している。 We systematically evaluate the (in-)stability of state-of-the-art node embedding algorithms due to randomness, i.e., the random variation of their outcomes given identical algorithms and graphs. We apply five node embeddings algorithms---HOPE, LINE, node2vec, SDNE, and GraphSAGE---to synthetic and empirical graphs and assess their stability under randomness with respect to (i) the geometry of embedding spaces as well as (ii) their performance in downstream tasks. We find significant instabilities in the geometry of embedding spaces independent of the centrality of a node. In the evaluation of downstream tasks, we find that the accuracy of node classification seems to be unaffected by random seeding while the actual classification of nodes can vary significantly. This suggests that instability effects need to be taken into account when working with node embeddings. Our work is relevant for researchers and engineers interested in the effectiveness, reliability, and reproducibility of node embedding approaches. | 翻訳日:2022-12-01 05:14:39 公開日:2020-05-20 |
# DisCoveR: 宣言型プロセスモデルの正確かつ効率的な発見 DisCoveR: Accurate & Efficient Discovery of Declarative Process Models ( http://arxiv.org/abs/2005.10085v1 ) ライセンス: Link先を確認 | Christoffer Olling Back, Tijs Slaats, Thomas Troels Hildebrandt, Morten Marquard | (参考訳) 宣言的なプロセスモデリング形式 — 高レベルのプロセス制約をキャプチャする — は、特に柔軟なプロセスのモデリングに対する関心が高まっている。
本稿では,イベントログから動的条件応答(DCR)グラフを学習するための,極めて効率的かつ正確な定式化マイナであるDisCoveRを提案する。
我々はアルゴリズムを正確に定式化し、高効率なビットベクトル実装を記述し、DeclareおよびDCRグラフマイニングにおける最先端技術を表す他の2つの宣言的マイニングに対する性能を厳格に評価する。
DisCoveRはこれら2進分類タスクをそれぞれ上回り、Process Discovery Contest 2019で平均96.2%の精度を達成した。
線形時間の複雑さのため、DisCoveRは宣言的よりも1-2桁の実行時間を達成する。
最後に、モデルレコメンデーションツールとしての最先端の宣言的プロセスモデリングフレームワークにマイナーがどのように統合されているかを示し、モデルタスクの不可欠な部分を発見がどのように果たすかを説明し、統合がエンドユーザのモデリング体験をどのように改善したかを報告する。 Declarative process modeling formalisms - which capture high-level process constraints - have seen growing interest, especially for modeling flexible processes. This paper presents DisCoveR, an extremely efficient and accurate declarative miner for learning Dynamic Condition Response (DCR) Graphs from event logs. We precisely formalize the algorithm, describe a highly efficient bit vector implementation and rigorously evaluate performance against two other declarative miners, representing the state-of-the-art in Declare and DCR Graphs mining. DisCoveR outperforms each of these w.r.t. a binary classification task, achieving an average accuracy of 96.2% in the Process Discovery Contest 2019. Due to its linear time complexity, DisCoveR also achieves run-times 1-2 orders of magnitude below its declarative counterparts. Finally, we show how the miner has been integrated in a state-of-the-art declarative process modeling framework as a model recommendation tool, discuss how discovery can play an integral part of the modeling task and report on how the integration has improved the modeling experience of end-users. | 翻訳日:2022-12-01 05:14:07 公開日:2020-05-20 |
# シームズ畳み込みニューラルネットワークによるカバーソング検出に向けて Towards Cover Song Detection with Siamese Convolutional Neural Networks ( http://arxiv.org/abs/2005.10294v1 ) ライセンス: Link先を確認 | Marko Stamenovic | (参考訳) カバー・ソング(英: cover song)とは、以前に録音された商業的にリリースされた楽曲の新たな演奏または録音である。
オリジナルアーティスト自身か別のアーティストによるもので、キー、アレンジメント、楽器、音色など、予測不可能な方法でオリジナルから変化することができる。
そこで本研究では,楽曲検出作業における音声表現の学習方法を提案する。
私たちは、数万のカバーソングオーディオクリップでニューラルネットワークをトレーニングし、保留セットでそれをテストします。
最小バッチの65%の平均精度@1をランダムな推測の10倍の精度で取得する。
以上の結果から,シャムのネットワーク構成はカバーソング識別問題に接近する可能性が示唆された。 A cover song, by definition, is a new performance or recording of a previously recorded, commercially released song. It may be by the original artist themselves or a different artist altogether and can vary from the original in unpredictable ways including key, arrangement, instrumentation, timbre and more. In this work we propose a novel approach to learning audio representations for the task of cover song detection. We train a neural architecture on tens of thousands of cover-song audio clips and test it on a held out set. We obtain a mean precision@1 of 65% over mini-batches, ten times better than random guessing. Our results indicate that Siamese network configurations show promise for approaching the cover song identification problem. | 翻訳日:2022-12-01 05:13:13 公開日:2020-05-20 |
# テキストと画像解析による高インパクト研究の機械識別 Machine Identification of High Impact Research through Text and Image Analysis ( http://arxiv.org/abs/2005.10321v1 ) ライセンス: Link先を確認 | Marko Stamenovic, Jeibo Luo | (参考訳) 学術論文の提出や出版の量は増え続けている。
この研究の洪水は様々な分野で進展を約束するが、出力高は本質的にノイズの量を増加させる。
そこで本研究では,高い評価率を持つ論文と,高い評価率を持つ論文を自動的に分離するシステムを提案する。
本システムでは,文書全体の外観を推測する視覚的分類器と,コンテンツインフォームド決定のためのテキスト分類器の両方を用いる。
この分野の現在の作業は、個々のカンファレンスの論文で構成される小さなデータセットに焦点を当てている。
大規模なデータセットで同様のテクニックを使用する試みは、一般的に、抽象データのようなドキュメントの抜粋のみを考慮する。
我々は,コンピュータ科学と医学という2つの学術領域に10年間にわたるPDF文書と引用数からなるデータセットを提供することで,これらの問題を是正する。
この新たなデータセットは、時間と学術領域をまたいだ一般化によって、この分野における現在の作業の拡大を可能にします。
さらに、ドメイン間予測モデル(トレーニングされていないドメインで分類器の性能を評価する)を検討し、この重要な問題についてさらなる洞察を得る。 The volume of academic paper submissions and publications is growing at an ever increasing rate. While this flood of research promises progress in various fields, the sheer volume of output inherently increases the amount of noise. We present a system to automatically separate papers with a high from those with a low likelihood of gaining citations as a means to quickly find high impact, high quality research. Our system uses both a visual classifier, useful for surmising a document's overall appearance, and a text classifier, for making content-informed decisions. Current work in the field focuses on small datasets composed of papers from individual conferences. Attempts to use similar techniques on larger datasets generally only considers excerpts of the documents such as the abstract, potentially throwing away valuable data. We rectify these issues by providing a dataset composed of PDF documents and citation counts spanning a decade of output within two separate academic domains: computer science and medicine. This new dataset allows us to expand on current work in the field by generalizing across time and academic domain. Moreover, we explore inter-domain prediction models - evaluating a classifier's performance on a domain it was not trained on - to shed further insight on this important problem. | 翻訳日:2022-12-01 05:12:53 公開日:2020-05-20 |
# 合意駆動学習 Consensus Driven Learning ( http://arxiv.org/abs/2005.10300v1 ) ライセンス: Link先を確認 | Kyle Crandall and Dustin Webb | (参考訳) ニューラルネットワークモデルの複雑さが増すにつれて、トレーニング成功のためのデータと計算要件も増大します。
この問題に対する1つの解決策は、計算機器の分散ネットワークでのトレーニングであり、計算とデータストレージの負荷を分散する。
この戦略は、すでにgoogleや他の企業によって採用されている。
本稿では,ローカルデータセットのみにアクセスしながら,信頼できないネットワーク上での非同期更新を用いて,計算ノードのネットワークがトレーニングを協調する分散分散学習手法を提案する。
これは分散平均化コンセンサスアルゴリズムから着想を得て、様々なノードを協調させることによって達成される。
トレーニングデータの代わりに内部モデルを共有することで、元の生データは計算ノードに残ることができる。
非同期性と集中的なコーディネーションの欠如により、このパラダイムは限られた通信要件で機能することができる。
提案手法は,MNIST,Fashion MNIST,CIFAR10データセット上で実証する。
この調整手法により,高度に偏りのあるデータセットや間欠的な通信障害の存在下でモデルを学習できることを示す。 As the complexity of our neural network models grow, so too do the data and computation requirements for successful training. One proposed solution to this problem is training on a distributed network of computational devices, thus distributing the computational and data storage loads. This strategy has already seen some adoption by the likes of Google and other companies. In this paper we propose a new method of distributed, decentralized learning that allows a network of computation nodes to coordinate their training using asynchronous updates over an unreliable network while only having access to a local dataset. This is achieved by taking inspiration from Distributed Averaging Consensus algorithms to coordinate the various nodes. Sharing the internal model instead of the training data allows the original raw data to remain with the computation node. The asynchronous nature and lack of centralized coordination allows this paradigm to function with limited communication requirements. We demonstrate our method on the MNIST, Fashion MNIST, and CIFAR10 datasets. We show that our coordination method allows models to be learned on highly biased datasets, and in the presence of intermittent communication failure. | 翻訳日:2022-12-01 05:05:57 公開日:2020-05-20 |
# 人工炭化水素ネットワークを用いた教師付き学習 : オープンソース実装とその応用 Supervised learning with artificial hydrocarbon networks: an open source implementation and its applications ( http://arxiv.org/abs/2005.10348v1 ) ライセンス: Link先を確認 | Jose Roberto Ayala-Solares, Hiram Ponce | (参考訳) 人工炭化水素ネットワーク(AHN)は、有機化合物の構造と内部化学機構に触発された新しい教師付き学習手法である。
他の最先端アルゴリズムと同様に、エンコーディングの時間消費と、他の技術と接続するための複雑化という2つの課題に直面している。
大規模でオープンソースなプラットフォームは、後者の課題に対する代替ソリューションであることが証明されている。
そこで本研究では, AHN を実装した R 用 Ahnr パッケージを提案する。
AHNを作成し、トレーニングし、テストし、視覚化するいくつかの機能を提供する。
また、訓練されたモデルと容易に相互作用する従来の機能も含まれている。
イラストの目的で、工学における ahn の応用に関するいくつかの例と、それを使用する方法を示す。
このパッケージは、機械学習とデータモデリングに関心を持つ科学者や応用研究者にとって非常に有用である。
パッケージの可用性はComprehensive R Archive Networkにある。 Artificial hydrocarbon networks (AHN) is a novel supervised learning method inspired on the structure and the inner chemical mechanisms of organic compounds. As any other cutting-edge algorithm, there are two challenges to be faced: time-consuming for encoding and complications to connect with other technologies. Large and open source platforms have proved to be an alternative solution to the latter challenges. In that sense, this paper aims to introduce the ahnr package for R that implements AHN. It provides several functions to create, train, test and visualize AHN. It also includes conventional functions to easily interact with the trained models. For illustration purposes, it presents several examples about the applications of AHN in engineering, as well as, the way to use it. This package is intended to be very useful for scientists and applied researchers interested in machine learning and data modeling. Package availability is in the Comprehensive R Archive Network. | 翻訳日:2022-12-01 05:05:42 公開日:2020-05-20 |
# 高レベルキャラクタ制御のための深層強化学習 Deep Reinforcement Learning for High Level Character Control ( http://arxiv.org/abs/2005.10391v1 ) ライセンス: Link先を確認 | Caio Souza and Luiz Velho | (参考訳) 本稿では,従来のアニメーション,ヒューリスティックな動作,強化学習をコンピュータメディアのためのインテリジェントな文字生成に利用することを提案する。
伝統的なアニメーションとヒューリスティックは動作を芸術的に制御し、強化学習は一般化をもたらす。
提示されるユースケースは、3D環境での高レベルコントローラを備えたドッグキャラクタで、アイテムのフェッチなど、学習すべき振る舞いを中心に構築されている。
環境の発達が学習の鍵となるため、これらの学習環境の構築方法、環境とエージェントのモデリング選択の影響、トレーニング手順、学習行動の一般化について、さらなる分析が行われる。
この分析は、前述の要因の洞察を構築し、環境全般の発展のガイドとなる可能性がある。 In this paper, we propose the use of traditional animations, heuristic behavior and reinforcement learning in the creation of intelligent characters for computational media. The traditional animation and heuristic gives artistic control over the behavior while the reinforcement learning adds generalization. The use case presented is a dog character with a high-level controller in a 3D environment which is built around the desired behaviors to be learned, such as fetching an item. As the development of the environment is the key for learning, further analysis is conducted of how to build those learning environments, the effects of environment and agent modeling choices, training procedures and generalization of the learned behavior. This analysis builds insight of the aforementioned factors and may serve as guide in the development of environments in general. | 翻訳日:2022-12-01 05:05:28 公開日:2020-05-20 |
# 多変量時系列における情報不足のニューラルネットワーク Neural ODEs for Informative Missingness in Multivariate Time Series ( http://arxiv.org/abs/2005.10693v1 ) ライセンス: Link先を確認 | Mansura Habiba, Barak A. Pearlmutter | (参考訳) 連続時系列のデジタル処理では、異なる時点における1つ以上の観測値が欠落しているため、情報不足は避けられない。
このような観察の欠如は、深層学習を用いた時系列処理の大きな限界の1つである。
センサデータ、医療、天気といった実用的な応用は、真に連続しているデータを生成し、情報不足はこれらのデータセットでよく見られる現象である。
これらのデータセットは、しばしば複数の変数で構成され、しばしば1つまたは多くの変数の値が欠落している。
この特徴により、時系列予測がより難しくなり、最終的な出力の精度に欠落した入力観測の影響が顕著となる。
GRU-Dと呼ばれる最近の新しいディープラーニングモデルは、時系列データにおける情報不足に対処するための初期の試みである。
一方、ニューラルネットワークの新しいファミリーであるNeural ODEs(正規微分方程式)は、時間内に連続した時系列データを処理するのに自然で効率的である。
本稿では,gru-dの効果的なインプテーションと,ニューラルオデムの時間的連続性を活用した深層学習モデルを提案する。
PhysioNetデータセット上で実行される時系列分類タスクは、このアーキテクチャのパフォーマンスを示す。 Informative missingness is unavoidable in the digital processing of continuous time series, where the value for one or more observations at different time points are missing. Such missing observations are one of the major limitations of time series processing using deep learning. Practical applications, e.g., sensor data, healthcare, weather, generates data that is in truth continuous in time, and informative missingness is a common phenomenon in these datasets. These datasets often consist of multiple variables, and often there are missing values for one or many of these variables. This characteristic makes time series prediction more challenging, and the impact of missing input observations on the accuracy of the final output can be significant. A recent novel deep learning model called GRU-D is one early attempt to address informative missingness in time series data. On the other hand, a new family of neural networks called Neural ODEs (Ordinary Differential Equations) are natural and efficient for processing time series data which is continuous in time. In this paper, a deep learning model is proposed that leverages the effective imputation of GRU-D, and the temporal continuity of Neural ODEs. A time series classification task performed on the PhysioNet dataset demonstrates the performance of this architecture. | 翻訳日:2022-12-01 05:05:18 公開日:2020-05-20 |
# 未知タスクの抑制による乱れ表現によるオーバーラーニングの削減 Reducing Overlearning through Disentangled Representations by Suppressing Unknown Tasks ( http://arxiv.org/abs/2005.10220v1 ) ライセンス: Link先を確認 | Naveen Panwar, Tarun Tater, Anush Sankaran, Senthil Mani | (参考訳) 視覚機能を学ぶ既存のディープラーニングアプローチは、目の前のタスクに必要なものよりも多くの情報を理解し、抽出する傾向がある。
プライバシー保護の観点からは、入力された視覚情報はモデルから保護されない。
新たなタスク学習を抑圧する現在のアプローチは、トレーニング中に抑制すべきタスクの基底真理ラベルの存在を前提としている。
本研究では,3倍の新規貢献を提案する。
(i)未知のタスクをすべて抑制し、モデルオーバーラーニングを減らすためのモデル非依存のソリューション。
(ii)訓練された深層学習モデルの信頼度を測定するための新しい指標
(iii)モデルの一般化性を研究するために、5つの基本的な画像分類タスクを持つ、シミュレーションされたベンチマークデータセットであるreservationtask。
最初の実験では、不整合表現を学び、VGG16、VGG19、Inception-v1、MobileNet、DenseNetの5つの人気のあるディープラーニングモデルの過剰学習を抑制する。
さらに,色-MNISTデータセットと顔の多様性(DiF)とIMDB-Wikiデータセットにおける顔属性保存の実践的応用について検討した。 Existing deep learning approaches for learning visual features tend to overlearn and extract more information than what is required for the task at hand. From a privacy preservation perspective, the input visual information is not protected from the model; enabling the model to become more intelligent than it is trained to be. Current approaches for suppressing additional task learning assume the presence of ground truth labels for the tasks to be suppressed during training time. In this research, we propose a three-fold novel contribution: (i) a model-agnostic solution for reducing model overlearning by suppressing all the unknown tasks, (ii) a novel metric to measure the trust score of a trained deep learning model, and (iii) a simulated benchmark dataset, PreserveTask, having five different fundamental image classification tasks to study the generalization nature of models. In the first set of experiments, we learn disentangled representations and suppress overlearning of five popular deep learning models: VGG16, VGG19, Inception-v1, MobileNet, and DenseNet on PreserverTask dataset. Additionally, we show results of our framework on color-MNIST dataset and practical applications of face attribute preservation in Diversity in Faces (DiF) and IMDB-Wiki dataset. | 翻訳日:2022-12-01 05:05:00 公開日:2020-05-20 |
# ガウス過程パラメータ検索における入力ノイズの計算 Accounting for Input Noise in Gaussian Process Parameter Retrieval ( http://arxiv.org/abs/2005.09907v1 ) ライセンス: Link先を確認 | J. Emmanuel Johnson, Valero Laparra, Gustau Camps-Valls | (参考訳) ガウス過程(英: Gaussian process、GP)は、パラメータ探索、モデル反転、エミュレーションのための地球科学およびリモートセンシングアプリケーションにおいて非常に有用であることが示されているケルネル法の一種である。
シンプルで柔軟性があり、正確な見積もりを提供するため、広く使われている。
GPはベイズ統計フレームワークに基づいており、各推定に対して後続確率関数を提供する。
したがって、通常の予測(この場合は平均関数で示される)に加えて、GPは各予測に対して予測分散(すなわちエラーバー、信頼区間)を得ることができる。
残念なことに、gpの定式化は、通常、入力にノイズはなく、観測のみである、と仮定する。
しかし、測定器誤差の正確な評価が典型的に可能であり、また、処理パイプラインを通してエラーの伝播を特徴づけることに大きな関心がある地球観測では、この問題は起こらないことが多い。
本稿では,予測平均関数の導関数を用いて誤差項を伝搬するGPモデル定式化を用いて,入力雑音推定をいかに説明できるかを示す。
得られた予測分散項を分析し,赤外線観測データから温度予測問題におけるモデル誤差をより正確に表現する方法を示す。 Gaussian processes (GPs) are a class of Kernel methods that have shown to be very useful in geoscience and remote sensing applications for parameter retrieval, model inversion, and emulation. They are widely used because they are simple, flexible, and provide accurate estimates. GPs are based on a Bayesian statistical framework which provides a posterior probability function for each estimation. Therefore, besides the usual prediction (given in this case by the mean function), GPs come equipped with the possibility to obtain a predictive variance (i.e., error bars, confidence intervals) for each prediction. Unfortunately, the GP formulation usually assumes that there is no noise in the inputs, only in the observations. However, this is often not the case in earth observation problems where an accurate assessment of the measuring instrument error is typically available, and where there is huge interest in characterizing the error propagation through the processing pipeline. In this letter, we demonstrate how one can account for input noise estimates using a GP model formulation which propagates the error terms using the derivative of the predictive mean function. We analyze the resulting predictive variance term and show how they more accurately represent the model error in a temperature prediction problem from infrared sounding data. | 翻訳日:2022-12-01 04:57:17 公開日:2020-05-20 |
# 分岐境界アルゴリズムにおける可変選択のための強化学習 Reinforcement Learning for Variable Selection in a Branch and Bound Algorithm ( http://arxiv.org/abs/2005.10026v1 ) ライセンス: Link先を確認 | Marc Etheve and Zacharie Al\`es and C\^ome Bissuel and Olivier Juan and Safia Kedad-Sidhoum | (参考訳) 混合整数線形プログラムは分岐および境界アルゴリズムによって一般に解かれる。
最も成功した商用問題解決者の効率の重要な要素は、細調整されたヒューリスティックスである。
本稿では,実世界のインスタンスのパターンを活用して,与えられた問題に対して最適化された新たな分岐戦略をスクラッチから学習し,それを商用解法と比較する。
本稿では,この課題に特化して設計された新しい強化学習手法FMSTSを提案する。
本手法の強みは,局所値関数と大域的関心度との整合性にある。
さらに、既知のRLテクニックをブランチとバウンド設定に適用するための洞察を提供し、文献から着想を得た新しいニューラルネットワークアーキテクチャを提案する。
私たちの知る限り、分岐戦略を完全に最適化するために強化学習が使用されたのは初めてです。
計算実験では,提案手法が適切であり,新しいインスタンスにうまく一般化できることを示す。 Mixed integer linear programs are commonly solved by Branch and Bound algorithms. A key factor of the efficiency of the most successful commercial solvers is their fine-tuned heuristics. In this paper, we leverage patterns in real-world instances to learn from scratch a new branching strategy optimised for a given problem and compare it with a commercial solver. We propose FMSTS, a novel Reinforcement Learning approach specifically designed for this task. The strength of our method lies in the consistency between a local value function and a global metric of interest. In addition, we provide insights for adapting known RL techniques to the Branch and Bound setting, and present a new neural network architecture inspired from the literature. To our knowledge, it is the first time Reinforcement Learning has been used to fully optimise the branching strategy. Computational experiments show that our method is appropriate and able to generalise well to new instances. | 翻訳日:2022-12-01 04:56:06 公開日:2020-05-20 |
# 複ガウス分布のリーマン幾何学:再帰的変化検出への応用 Riemannian geometry for Compound Gaussian distributions: application to recursive change detection ( http://arxiv.org/abs/2005.10087v1 ) ライセンス: Link先を確認 | Florent Bouchard, Ammar Mian, Jialun Zhou, Salem Said, Guillaume Ginolhac, and Yannick Berthoumieu | (参考訳) 複合ガウス分布の新しいリーマン幾何学が提案されている。
特に、対応する測地線と距離関数とともにフィッシャー情報計量が得られる。
この新たな幾何は、多変量画像時系列における変化検出問題に適用され、リーマン最適化に基づく再帰的アプローチが開発された。
シミュレーションデータに示すように、計算効率を向上しながら最適な性能に達することができる。 A new Riemannian geometry for the Compound Gaussian distribution is proposed. In particular, the Fisher information metric is obtained, along with corresponding geodesics and distance function. This new geometry is applied on a change detection problem on Multivariate Image Times Series: a recursive approach based on Riemannian optimization is developed. As shown on simulated data, it allows to reach optimal performance while being computationally more efficient. | 翻訳日:2022-12-01 04:55:52 公開日:2020-05-20 |
# 予測における離散化の有効性:ニューラル時系列モデルに関する実証的研究 The Effectiveness of Discretization in Forecasting: An Empirical Study on Neural Time Series Models ( http://arxiv.org/abs/2005.10111v1 ) ライセンス: Link先を確認 | Stephan Rabanser, Tim Januschowski, Valentin Flunkert, David Salinas, Jan Gasthaus | (参考訳) 近年、深層学習に基づく時系列モデリング技術は、特にデータに基づく設定において、複数の時系列にまたがるパターンを抽出できるグローバルモデルを学ぶことを目的として、多くの進歩を遂げている。
適切なデータの事前処理とスケーリングの重要性は、先行研究でしばしば指摘されているが、ほとんどの研究はモデルアーキテクチャの改善に焦点を当てている。
本稿では,複数のニューラル予測アーキテクチャの予測性能に対するデータ入力と出力変換の影響を実証的に検討する。
特に,フィードフォワード,リカレントニューラルネットワーク,畳み込みに基づくシーケンスモデルと組み合わせた場合の,実数値時系列をカテゴリー的時系列に変換するデータバイナリ化の有効性について検討する。
これらのモデルが非常に成功した多くの非放送アプリケーションでは、モデル入力と出力はカテゴリ(例えば、自然言語処理アプリケーションにおける固定語彙の単語やコンピュータビジョンにおける量子化ピクセル色強度)である。
時系列が実際に評価されるアプリケーションでは、様々なアドホックデータ変換が提案されているが、体系的に比較されていない。
これを改善するために,データスケーリングとビンニングの異なるタイプと組み合わせることで,上記のモデルクラスのインスタンスの予測精度を評価する。
バイナリ化は(正規化された実値入力と比較して)ほぼ常に性能を改善するが、選択した特定のタイプのバイナリはより重要ではない。 Time series modeling techniques based on deep learning have seen many advancements in recent years, especially in data-abundant settings and with the central aim of learning global models that can extract patterns across multiple time series. While the crucial importance of appropriate data pre-processing and scaling has often been noted in prior work, most studies focus on improving model architectures. In this paper we empirically investigate the effect of data input and output transformations on the predictive performance of several neural forecasting architectures. In particular, we investigate the effectiveness of several forms of data binning, i.e. converting real-valued time series into categorical ones, when combined with feed-forward, recurrent neural networks, and convolution-based sequence models. In many non-forecasting applications where these models have been very successful, the model inputs and outputs are categorical (e.g. words from a fixed vocabulary in natural language processing applications or quantized pixel color intensities in computer vision). For forecasting applications, where the time series are typically real-valued, various ad-hoc data transformations have been proposed, but have not been systematically compared. To remedy this, we evaluate the forecasting accuracy of instances of the aforementioned model classes when combined with different types of data scaling and binning. We find that binning almost always improves performance (compared to using normalized real-valued inputs), but that the particular type of binning chosen is of lesser importance. | 翻訳日:2022-12-01 04:55:34 公開日:2020-05-20 |
# マルコフ雑音下での線形関数近似によるGQの有限サンプル解析 Finite-sample Analysis of Greedy-GQ with Linear Function Approximation under Markovian Noise ( http://arxiv.org/abs/2005.10175v1 ) ライセンス: Link先を確認 | Yue Wang and Shaofeng Zou | (参考訳) Greedy-GQは、強化学習における最適制御のためのオフポリティクス2時間スケールアルゴリズムである。
本稿では,マルコフ雑音下での線形関数近似を用いたGreedy-GQアルゴリズムの最初の有限サンプル解析法を開発する。
有限サンプル解析は、この2つの時間スケールアルゴリズムのステップ選択の理論的正当化を提供し、収束率と得られたポリシーの品質のトレードオフを示唆する。
本稿では,2つの時間スケール強化学習アルゴリズムの有限サンプル解析を,政策評価から最適制御まで拡張する。
具体的には、GTD、GTD2、TDCという2つの時間スケールの手法に対する既存の有限サンプル解析とは対照的に、Greedy-GQアルゴリズムの目的関数は非凸である。
さらに、greedy-gqアルゴリズムは線形2時間スケール確率近似アルゴリズムではない。
本稿では,非凸値に基づく強化学習アルゴリズムの有限サンプル解析のための汎用フレームワークを提案する。 Greedy-GQ is an off-policy two timescale algorithm for optimal control in reinforcement learning. This paper develops the first finite-sample analysis for the Greedy-GQ algorithm with linear function approximation under Markovian noise. Our finite-sample analysis provides theoretical justification for choosing stepsizes for this two timescale algorithm for faster convergence in practice, and suggests a trade-off between the convergence rate and the quality of the obtained policy. Our paper extends the finite-sample analyses of two timescale reinforcement learning algorithms from policy evaluation to optimal control, which is of more practical interest. Specifically, in contrast to existing finite-sample analyses for two timescale methods, e.g., GTD, GTD2 and TDC, where their objective functions are convex, the objective function of the Greedy-GQ algorithm is non-convex. Moreover, the Greedy-GQ algorithm is also not a linear two-timescale stochastic approximation algorithm. Our techniques in this paper provide a general framework for finite-sample analysis of non-convex value-based reinforcement learning algorithms for optimal control. | 翻訳日:2022-12-01 04:54:49 公開日:2020-05-20 |
# 専門家の因果判断を組み合わせる Combining Experts' Causal Judgments ( http://arxiv.org/abs/2005.10180v1 ) ライセンス: Link先を確認 | Dalal Alrajeh, Hana Chockler, and Joseph Y. Halpern | (参考訳) 現在望ましくない状況を変えるために実行すべき介入を決定する政策立案者を考える。
政策立案者は、それぞれが結果に寄与するさまざまな要因間の因果関係を自分自身で理解している専門家のチームを捨てます。
政策立案者は専門家の意見に様々な信頼度を持っている。
彼女は最も効果的な介入を決定するために彼らの意見を組み合わせることを望んでいます。
我々は,効果的な介入の概念を正式に定義し,最も効果的な介入を決定するために専門家の因果判断をどのように組み合わせるかを検討する。
2つの因果モデルを \emph{ compatible} と定義し、どのように両因果モデルをマージできるかを示す。
そして、専門家の因果判断を組み合わせる基礎として利用する。
また、因果モデルに対する分解の定義も提供し、モデルが互換性のない場合に備える。
私たちは多くの実例で私たちのアプローチを説明します。 Consider a policymaker who wants to decide which intervention to perform in order to change a currently undesirable situation. The policymaker has at her disposal a team of experts, each with their own understanding of the causal dependencies between different factors contributing to the outcome. The policymaker has varying degrees of confidence in the experts' opinions. She wants to combine their opinions in order to decide on the most effective intervention. We formally define the notion of an effective intervention, and then consider how experts' causal judgments can be combined in order to determine the most effective intervention. We define a notion of two causal models being \emph{compatible}, and show how compatible causal models can be merged. We then use it as the basis for combining experts' causal judgments. We also provide a definition of decomposition for causal models to cater for cases when models are incompatible. We illustrate our approach on a number of real-life examples. | 翻訳日:2022-12-01 04:48:45 公開日:2020-05-20 |
# ニューラル常微分方程式に基づくリカレントニューラルネットワークモデル Neural Ordinary Differential Equation based Recurrent Neural Network Model ( http://arxiv.org/abs/2005.09807v1 ) ライセンス: Link先を確認 | Mansura Habiba, Barak A. Pearlmutter | (参考訳) 神経微分方程式はニューラルネットワークファミリーにおいて有望な新しいメンバーである。
時系列データ解析における微分方程式の可能性を示す。
本稿では, 常微分方程式(ODE)の強度を新しい拡張法で探索する。
この研究の主な目標は、以下の質問に答えることです。
(i)~odeは既存のニューラルネットワークモデルを再定義するために使えるか?
(ii)〜can Neural ODEは、既存のニューラルネットワークモデルの連続時系列(長さと動的性質)に対する不規則サンプリング率の課題を解決する。
(iii)─既存のニューラルネットワークodeシステムのトレーニングと評価時間をいかに短縮するか?
この研究はODEの数学的基盤を活用し、Long Short-Term Memory(LSTM)やGated Recurrent Unit(GRU)といった従来のRNNを再設計する。
本論文の主な貢献は、ODEソルバを用いて、任意の時点における隠れ状態とセル状態を計算する2つの新しいODEベースRNNモデル(GRU-ODEモデルとLSTM-ODE)の設計について述べることである。
これらのモデルは、隠れ状態とセル状態の計算オーバーヘッドを膨大な量削減する。
これら2つの連続時系列学習モデルの性能評価を不規則なサンプリング率で行った。
実験により、これらの新しいODEベースのRNNモデルは、遅延ODEや従来のニューラルODEよりもトレーニング時間が少ないことが示された。
それらは素早く高い精度を達成でき、ニューラルネットワークの設計は従来のニューラルodeシステムよりもシンプルである。 Neural differential equations are a promising new member in the neural network family. They show the potential of differential equations for time series data analysis. In this paper, the strength of the ordinary differential equation (ODE) is explored with a new extension. The main goal of this work is to answer the following questions: (i)~can ODE be used to redefine the existing neural network model? (ii)~can Neural ODEs solve the irregular sampling rate challenge of existing neural network models for a continuous time series, i.e., length and dynamic nature, (iii)~how to reduce the training and evaluation time of existing Neural ODE systems? This work leverages the mathematical foundation of ODEs to redesign traditional RNNs such as Long Short-Term Memory (LSTM) and Gated Recurrent Unit (GRU). The main contribution of this paper is to illustrate the design of two new ODE-based RNN models (GRU-ODE model and LSTM-ODE) which can compute the hidden state and cell state at any point of time using an ODE solver. These models reduce the computation overhead of hidden state and cell state by a vast amount. The performance evaluation of these two new models for learning continuous time series with irregular sampling rate is then demonstrated. Experiments show that these new ODE based RNN models require less training time than Latent ODEs and conventional Neural ODEs. They can achieve higher accuracy quickly, and the design of the neural network is simpler than, previous neural ODE systems. | 翻訳日:2022-12-01 04:48:34 公開日:2020-05-20 |
# スペクトル帯域におけるベストアーム識別 Best Arm Identification in Spectral Bandits ( http://arxiv.org/abs/2005.09841v1 ) ライセンス: Link先を確認 | Tom\'a\v{s} Koc\'ak, Aur\'elien Garivier | (参考訳) グラフの滑らか度制約を伴う帯域モデルにおいて,信頼度を固定したベストアーム識別について検討する。
非滑らかな最大ミン問題の解法として、この問題のサンプル複雑性を計算するための効率的な勾配上昇アルゴリズム(非拘束ケースの簡易解析をパスすること)を提案し、解析する。
このアルゴリズムに基づいて漸近的最適戦略を提案する。
さらに,戦略の効率とスムーズ性制約が試料の複雑さに与える影響を数値実験により明らかにした。
BAI(Best Arm Identification)は、パラメータチューニングから臨床試験まで、多くの応用において重要な課題である。
現在ではバニラバンディットモデルではよく理解されているが、現実の問題は通常、より複雑なモデルを必要とする腕間の依存を伴う。
腕にグラフ構造を仮定することは、この現象を包含するエレガントな実践的な方法であるが、それは後悔の最小化のためだけに行われてきた。
baiをグラフ制約で扱うには,本論文が提示する微妙な最適化問題を含む。 We study best-arm identification with fixed confidence in bandit models with graph smoothness constraint. We provide and analyze an efficient gradient ascent algorithm to compute the sample complexity of this problem as a solution of a non-smooth max-min problem (providing in passing a simplified analysis for the unconstrained case). Building on this algorithm, we propose an asymptotically optimal strategy. We furthermore illustrate by numerical experiments both the strategy's efficiency and the impact of the smoothness constraint on the sample complexity. Best Arm Identification (BAI) is an important challenge in many applications ranging from parameter tuning to clinical trials. It is now very well understood in vanilla bandit models, but real-world problems typically involve some dependency between arms that requires more involved models. Assuming a graph structure on the arms is an elegant practical way to encompass this phenomenon, but this had been done so far only for regret minimization. Addressing BAI with graph constraints involves delicate optimization problems for which the present paper offers a solution. | 翻訳日:2022-12-01 04:48:14 公開日:2020-05-20 |
# reluコード空間:精度に加えてネットワーク品質の評価の基礎 ReLU Code Space: A Basis for Rating Network Quality Besides Accuracy ( http://arxiv.org/abs/2005.09903v1 ) ライセンス: Link先を確認 | Natalia Shepeleva, Werner Zellinger, Michal Lewandowski and Bernhard Moser | (参考訳) 本稿では,最近,安全性,ロバスト性,信頼性に強く関係していることが判明した入力空間における,その要素と多面体との等長性を確立する,切断ハミング距離を備えたreluアクティベーション符号の新しい計量空間を提案する。
このアイソメトリーは多面体間の隣接関係の効率的な計算を可能にする。
MNISTとCIFAR-10の実験では、精度以外の情報はコード空間に格納される可能性がある。 We propose a new metric space of ReLU activation codes equipped with a truncated Hamming distance which establishes an isometry between its elements and polyhedral bodies in the input space which have recently been shown to be strongly related to safety, robustness, and confidence. This isometry allows the efficient computation of adjacency relations between the polyhedral bodies. Experiments on MNIST and CIFAR-10 indicate that information besides accuracy might be stored in the code space. | 翻訳日:2022-12-01 04:46:18 公開日:2020-05-20 |
# 局所とグローバルな対数線の組み合わせによる早期LM統合 Early Stage LM Integration Using Local and Global Log-Linear Combination ( http://arxiv.org/abs/2005.10049v1 ) ライセンス: Link先を確認 | Wilfried Michel and Ralf Schl\"uter and Hermann Ney | (参考訳) 暗黙的なアライメント機構(注意など)を持つシーケンス-シーケンスモデルでは、自動音声認識タスクのための従来のハイブリッド隠れマルコフモデル(hmm)に対するパフォーマンスギャップが解消されている。
両方のケースで単語エラー率を改善する重要な要因は、大きなテキストのみのコーパスでトレーニングされた外部言語モデル(LM)を使用することである。
言語モデルの統合は、古典的HMMに基づくモデリングにおいて、音響モデルと言語モデルの明確な分離により容易である。
対照的に、注意モデルのための複数の統合スキームが提案されている。
本研究では,暗黙アライメントに基づくシーケンス・ツー・シーケンスモデルに言語モデルを統合する新しい手法を提案する。
音響モデルと言語モデルの対数線形モデルの組み合わせは、トーケン毎に正規化される。
これにより、トレーニングとテストの両方において、完全な正規化項を効率的に計算できます。
これは、訓練に浅い融合を適用するのと同等のグローバル再正規化スキームと比較される。
提案手法は,我々の最先端Librispeechシステムにおける標準モデル組合せ(浅層融合)よりも優れた改善を示す。
さらに、LMをトレーニング後により強力なものと交換しても改善は持続する。 Sequence-to-sequence models with an implicit alignment mechanism (e.g. attention) are closing the performance gap towards traditional hybrid hidden Markov models (HMM) for the task of automatic speech recognition. One important factor to improve word error rate in both cases is the use of an external language model (LM) trained on large text-only corpora. Language model integration is straightforward with the clear separation of acoustic model and language model in classical HMM-based modeling. In contrast, multiple integration schemes have been proposed for attention models. In this work, we present a novel method for language model integration into implicit-alignment based sequence-to-sequence models. Log-linear model combination of acoustic and language model is performed with a per-token renormalization. This allows us to compute the full normalization term efficiently both in training and in testing. This is compared to a global renormalization scheme which is equivalent to applying shallow fusion in training. The proposed methods show good improvements over standard model combination (shallow fusion) on our state-of-the-art Librispeech system. Furthermore, the improvements are persistent even if the LM is exchanged for a more powerful one after training. | 翻訳日:2022-12-01 04:39:39 公開日:2020-05-20 |
# GM-CTSC at SemEval-2020 Task 1: Gaussian Mixtures Cross Temporal similarity Clustering GM-CTSC at SemEval-2020 Task 1: Gaussian Mixtures Cross Temporal Similarity Clustering ( http://arxiv.org/abs/2005.09946v1 ) ライセンス: Link先を確認 | Pierluigi Cassotti, Annalina Caputo, Marco Polignano, Pierpaolo Basile | (参考訳) 本稿では,SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detectionを提案する。
私たちは検出問題にアプローチを集中した。
時間的単語埋め込みによって捉えられた単語の意味を考慮し,対象単語がいつ獲得されたか,あるいはゆるめたかを検出するための教師なし手法について検討する。
この目的のために、我々はガウス混合モデルに基づく新しいアルゴリズムを定義し、2つの周期で計算された目標類似性をクラスタリングした。
提案手法を類似度に基づくしきい値と比較した。
検出手法の性能は単語埋め込みアルゴリズムによって異なるが,ガウス混合とテンポラル参照の組み合わせにより,最高のシステムが得られることがわかった。 This paper describes the system proposed for the SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection. We focused our approach on the detection problem. Given the semantics of words captured by temporal word embeddings in different time periods, we investigate the use of unsupervised methods to detect when the target word has gained or loosed senses. To this end, we defined a new algorithm based on Gaussian Mixture Models to cluster the target similarities computed over the two periods. We compared the proposed approach with a number of similarity-based thresholds. We found that, although the performance of the detection methods varies across the word embedding algorithms, the combination of Gaussian Mixture with Temporal Referencing resulted in our best system. | 翻訳日:2022-12-01 04:39:02 公開日:2020-05-20 |
# 語彙資源から抽出した知識による単語埋め込みの強化 Enhancing Word Embeddings with Knowledge Extracted from Lexical Resources ( http://arxiv.org/abs/2005.10048v1 ) ライセンス: Link先を確認 | Magdalena Biesialska, Bardia Rafieian, Marta R. Costa-juss\`a | (参考訳) 本研究では,単語ベクトル表現のセマンティック・スペシャライゼーションに有効な手法を提案する。
この目的のために,従来の単語埋め込みと特殊化手法を用いて単語間の意味的関係をよりよく把握する。
このアプローチでは,BabelNetのようなリッチな語彙資源から外部知識を活用する。
また,ワッサースタイン距離の対向ニューラルネットワークに基づく特徴化後手法により,単語類似性と対話状態追跡という2つのタスクにおける最先端手法の改善が期待できることを示す。 In this work, we present an effective method for semantic specialization of word vector representations. To this end, we use traditional word embeddings and apply specialization methods to better capture semantic relations between words. In our approach, we leverage external knowledge from rich lexical resources such as BabelNet. We also show that our proposed post-specialization method based on an adversarial neural network with the Wasserstein distance allows to gain improvements over state-of-the-art methods on two tasks: word similarity and dialog state tracking. | 翻訳日:2022-12-01 04:38:49 公開日:2020-05-20 |
# BlaBla: 複数の言語の臨床解析のための言語的特徴抽出 BlaBla: Linguistic Feature Extraction for Clinical Analysis in Multiple Languages ( http://arxiv.org/abs/2005.10219v1 ) ライセンス: Link先を確認 | Abhishek Shivkumar, Jack Weston, Raphael Lenain, Emil Fristed | (参考訳) 複数の言語にまたがる神経疾患や精神疾患の臨床的関連性が証明された言語特徴を抽出するための,オープンソースのpythonライブラリblablaを紹介する。
BlaBlaは、臨床言語研究を加速し、単純化するための統一的なフレームワークである。
このライブラリは最先端のNLPフレームワーク上に構築されており、ネイティブPython呼び出しとコマンドラインインターフェースの両方を介してマルチスレッド/GPU対応の機能抽出をサポートする。
我々はBlaBlaのアーキテクチャと12の疾患にまたがる特徴の臨床的検証について述べる。
さらに,AphasiaBankデータセットから得られた実際の臨床データに基づいて,言語障害の可視化と分類を行うタスクへのBlaBlaの適用を実証する。
私たちは、次世代の臨床言語研究のための一貫性のある、十分に検証された基礎を提供することを期待して、コードベースを研究者に無料で提供します。 We introduce BlaBla, an open-source Python library for extracting linguistic features with proven clinical relevance to neurological and psychiatric diseases across many languages. BlaBla is a unifying framework for accelerating and simplifying clinical linguistic research. The library is built on state-of-the-art NLP frameworks and supports multithreaded/GPU-enabled feature extraction via both native Python calls and a command line interface. We describe BlaBla's architecture and clinical validation of its features across 12 diseases. We further demonstrate the application of BlaBla to a task visualizing and classifying language disorders in three languages on real clinical data from the AphasiaBank dataset. We make the codebase freely available to researchers with the hope of providing a consistent, well-validated foundation for the next generation of clinical linguistic research. | 翻訳日:2022-12-01 04:38:23 公開日:2020-05-20 |
# 繊維製造プロセスにおける強化学習に基づく意思決定支援システム A reinforcement learning based decision support system in textile manufacturing process ( http://arxiv.org/abs/2005.09867v1 ) ライセンス: Link先を確認 | Zhenglei He (GEMTEX), Kim Phuc Tran (GEMTEX), S\'ebastien Thomassey (GEMTEX), Xianyi Zeng (GEMTEX), Changhai Yi | (参考訳) 本稿では,繊維製造プロセスにおける強化学習に基づく意思決定支援システムを提案する。
カラーフェーディングオゾン化の解最適化問題を議論し、タプル {S, A, P, R} の観点からマルコフ決定過程(MDP)として設定する。
q-learningは,報酬rを蓄積することで,エージェントと設定環境との相互作用を訓練するために用いられる。本論文では,提案するmdpモデルが繊維製造プロセスの最適化問題をよく表しており,本分野における意思決定を支援する強化学習の利用が有望な予測に当てはまることを証明している。 This paper introduced a reinforcement learning based decision support system in textile manufacturing process. A solution optimization problem of color fading ozonation is discussed and set up as a Markov Decision Process (MDP) in terms of tuple {S, A, P, R}. Q-learning is used to train an agent in the interaction with the setup environment by accumulating the reward R. According to the application result, it is found that the proposed MDP model has well expressed the optimization problem of textile manufacturing process discussed in this paper, therefore the use of reinforcement learning to support decision making in this sector is conducted and proven that is applicable with promising prospects. | 翻訳日:2022-12-01 04:37:20 公開日:2020-05-20 |
# 隠れマルコフモデルとその障害イベント予測への応用 Hidden Markov Models and their Application for Predicting Failure Events ( http://arxiv.org/abs/2005.09971v1 ) ライセンス: Link先を確認 | Paul Hofmann and Zaid Tashman | (参考訳) マルコフ混合会員モデル(MMMM)を用いて資産の劣化を予測する方法について述べる。
個々の資産の劣化経路をモデル化し、全体の失敗率を予測する。
各隠れた状態に対する個別の分布の代わりに、指数関数族内の分布の階層的混合を用いる。
我々のアプローチでは、状態の観測分布は、すべての状態間で共有される小さな(より単純な)分布の有限混合分布である。
結合混合観測分布を用いると、いくつかの利点が得られる。
混合物は典型的に非常にスパースな問題の正規化として機能し、発見すべき分布が少ないため、学習アルゴリズムの計算労力を削減する。
共有混合を使用することで、マルコフ状態間の統計強度の共有が可能になり、学習の伝達が可能になる。
個々の資産に対して,mmmmと部分可観測マルコフ決定プロセス(pomdp)を組み合わせることで,障害リスクと長時間の運用時間のトレードオフを判断し,資産の維持時期と維持方法についてのポリシーを動的に最適化する。 We show how Markov mixed membership models (MMMM) can be used to predict the degradation of assets. We model the degradation path of individual assets, to predict overall failure rates. Instead of a separate distribution for each hidden state, we use hierarchical mixtures of distributions in the exponential family. In our approach the observation distribution of the states is a finite mixture distribution of a small set of (simpler) distributions shared across all states. Using tied-mixture observation distributions offers several advantages. The mixtures act as a regularization for typically very sparse problems, and they reduce the computational effort for the learning algorithm since there are fewer distributions to be found. Using shared mixtures enables sharing of statistical strength between the Markov states and thus transfer learning. We determine for individual assets the trade-off between the risk of failure and extended operating hours by combining a MMMM with a partially observable Markov decision process (POMDP) to dynamically optimize the policy for when and how to maintain the asset. | 翻訳日:2022-12-01 04:37:09 公開日:2020-05-20 |
# 制約付き機械学習のための正規化アプローチの解析 An Analysis of Regularized Approaches for Constrained Machine Learning ( http://arxiv.org/abs/2005.10674v1 ) ライセンス: Link先を確認 | Michele Lombardi, Federico Baldo, Andrea Borghesi, Michela Milano | (参考訳) 機械学習(ML)に制約を注入する正規化ベースのアプローチを導入し、専門家の知識を通じて予測モデルを改善する。
本研究では,損失(学習者の精度)と正規化期間(制約満足度)の適切なバランスを求める問題に取り組む。
本論文の重要な結果は,この手法がすべての最適解を見つけることを保証できないという形式的実証である。
特に、非凸の場合、任意の乗数値に対応しない制約付き問題に対して最適であるかもしれない。 Regularization-based approaches for injecting constraints in Machine Learning (ML) were introduced to improve a predictive model via expert knowledge. We tackle the issue of finding the right balance between the loss (the accuracy of the learner) and the regularization term (the degree of constraint satisfaction). The key results of this paper is the formal demonstration that this type of approach cannot guarantee to find all optimal solutions. In particular, in the non-convex case there might be optima for the constrained problem that do not correspond to any multiplier value. | 翻訳日:2022-12-01 04:29:30 公開日:2020-05-20 |
# 深層学習CNNを用いた銅合金結晶粒径自動評価 Automated Copper Alloy Grain Size Evaluation Using a Deep-learning CNN ( http://arxiv.org/abs/2005.09634v1 ) ライセンス: Link先を確認 | George S. Baggs, Paul Guerrier, Andrew Loeb, Jason C. Jones | (参考訳) Moog Inc. は深層学習畳み込みニューラルネットワーク (CNN) を用いて銅 (Cu) 合金粒径の評価を自動化した。
概念実証自動画像取得とバッチ画像処理は、飛行クリティカルな航空機のハードウェアに使用するcu合金棒のストックを承認する全体的なターンアラウンドタイムを短縮し、大幅な労力削減、粒度評価の精度の向上をもたらす。
Cu合金クーポンの個々のサブイメージの分類精度91.1%を達成した。
プロセス開発には、取得した画像の色、明るさ、解像度の変化を最小限にして、12300のサブイメージを持つデータセットを作成すること、そしてこのデータセット上のcnnハイパーパラメータを統計的実験設計(doe)を用いて最適化することが含まれる。
自動Cu合金粒度評価の開発を通じて, 個々の小さなサブイメージの分類結果の検査によりCNNアンサンブル画像の出力を説明する能力により, 大規模原画像から多数の小さなデータセットサブイメージへの分解に基づいて, 人工知能(XAI)出力の「説明可能性」の程度を実現した。 Moog Inc. has automated the evaluation of copper (Cu) alloy grain size using a deep-learning convolutional neural network (CNN). The proof-of-concept automated image acquisition and batch-wise image processing offers the potential for significantly reduced labor, improved accuracy of grain evaluation, and decreased overall turnaround times for approving Cu alloy bar stock for use in flight critical aircraft hardware. A classification accuracy of 91.1% on individual sub-images of the Cu alloy coupons was achieved. Process development included minimizing the variation in acquired image color, brightness, and resolution to create a dataset with 12300 sub-images, and then optimizing the CNN hyperparameters on this dataset using statistical design of experiments (DoE). Over the development of the automated Cu alloy grain size evaluation, a degree of "explainability" in the artificial intelligence (XAI) output was realized, based on the decomposition of the large raw images into many smaller dataset sub-images, through the ability to explain the CNN ensemble image output via inspection of the classification results from the individual smaller sub-images. | 翻訳日:2022-12-01 04:29:23 公開日:2020-05-20 |