このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200925となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 時間誘起2次超伝導体 Time-induced second-order topological superconductors ( http://arxiv.org/abs/2003.05181v2 ) ライセンス: Link先を確認 | Raditya Weda Bomantara | (参考訳) 近年,境界線(橋や角)における位相的保護状態を持つ高次トポロジカル材料が注目されている。
本稿では,2次トポロジカルキャラクタリゼーションを許さない2次トポロジカル超伝導体をシステムから生成するために,時間周期駆動を利用する。
これは、時間領域において本質的に非三次巻線を示す周期ドライブの設計によって実現される。
空間次元と時間次元のトポロジーの相互作用を通じて、非キラルマヨラナモードは系の隅に現れ、時にはキラルマヨラナモードと共存する。
本提案は,システム複雑性が最小限のフロッケ工学とその量子情報処理への応用に一意な機会を与える。 Higher-order topological materials with topologically protected states at the boundaries of their boundaries (hinges or corners) have attracted attention in recent years. In this paper, we utilize time-periodic driving to generate second-order topological superconductors out of systems which otherwise do not even allow second-order topological characterization. This is made possible by the design of the periodic drives which inherently exhibit nontrival winding in the time-domain. Through the interplay of topology in both spatial and temporal dimensions, nonchiral Majorana modes may emerge at the systems corners and sometimes even coexist with chiral Majorana modes. Our proposal thus presents a unique opportunity to Floquet engineering with minimal system complexity and its application in quantum information processing. | 翻訳日:2023-05-29 11:17:48 公開日:2020-09-25 |
# 量子クエンチダイナミクスにおけるトポロジーのシグネチャと相互関係 Signatures of topology in quantum quench dynamics and their interrelation ( http://arxiv.org/abs/2003.07874v3 ) ライセンス: Link先を確認 | Lorenzo Pastori, Simone Barbarino, Jan Carl Budich | (参考訳) 平衡から離れた量子系の研究の最近の実験的進歩により、量子クエンチ後のコヒーレント時間進化におけるトポロジーのいくつかの動的シグネチャの関係を考察した。
具体的には、絡み合いスペクトルの交差、動的量子相転移、動的チャーン数の出現条件について検討する。
非相互作用モデルに対しては、一般にこれら3つの量の間に直接関係がないことを示す。
代わりに、エンタングルメントスペクトルにおけるレベルクロスの存在と、従来の意味で位相的起源ではないような局所的な境界モードを関連づける。
最後に, 時間依存密度行列再正規化群シミュレーションを用いて, エンタングルメントスペクトル交差と動的量子相転移の存在に相互作用がどのように影響するかを検討した。 Motivated by recent experimental progress in the study of quantum systems far from equilibrium, we investigate the relation between several dynamical signatures of topology in the coherent time-evolution after a quantum quench. Specifically, we study the conditions for the appearance of entanglement spectrum crossings, dynamical quantum phase transitions, and dynamical Chern numbers. For non-interacting models, we show that in general there is no direct relation between these three quantities. Instead, we relate the presence of level crossings in the entanglement spectrum to localized boundary modes that may not be of topological origin in the conventional sense. Finally, we investigate how interactions influence the presence of entanglement spectrum crossings and dynamical quantum phase transitions, by means of time-dependent density matrix renormalization group simulations. | 翻訳日:2023-05-28 22:10:36 公開日:2020-09-25 |
# 2次元強磁性二層膜における谷分極磁壁マグノン Valley-polarized domain wall magnons in 2D ferromagnetic bilayers ( http://arxiv.org/abs/2003.12791v3 ) ライセンス: Link先を確認 | Doried Ghader | (参考訳) バレートロニクスは、新しい電子機能を達成するためにバレー自由度に依存する先駆的な技術分野である。
二層グラフェンのドメイン壁に閉じ込められたトポロジカルバレー偏極電子は、バレートロニクスのポテンシャルの観点から広く研究された。
本稿では,2次元ハニカム強磁性二層膜(FBL)における磁壁励起の磁化バージョンについて検討する。
特に, 層状ドメイン壁に閉じ込められた1Dマグノンの存在と特性について, ジアロシンスキー-モリヤ相互作用 (DMI) と静電ドーピング (ED) の影響について検討した。
DMI と ED の共存は FBL の位相を豊かにするが、対応する領域壁マグノンは明確に定義されたバレー指数を持たない。
一方,DMIを含まないFBL層は,地層偏極マグノンの弾道輸送のための1次元チャネルを構成することを示す。
我々の理論的結果は、原子的に薄いトポロジカル磁気材料に基づくマグノン・バレートロニクスデバイスへの期待を喚起する。 Valleytronics is a pioneering technological field relying on the valley degree of freedom to achieve novel electronic functionalities. Topological valley-polarized electrons confined to domain walls in bilayer graphene were extensively studied in view of their potentials in valleytronics. Here, we study the magnonic version of domain wall excitations in 2D honeycomb ferromagnetic bilayers (FBL) with collinear order. In particular, we explore the implications of Dzyaloshinskii-Moriya interaction (DMI) and electrostatic doping (ED) on the existence and characteristics of 1D magnons confined to layer stacking domain walls in FBL. The coexistence of DMI and ED is found to enrich the topology in FBL, yet the corresponding domain wall magnons do not carry a well-defined valley index. On the other hand, we show that layer stacking domain walls in DMI-free FBL constitute 1D channels for ballistic transport of topological valley-polarized magnons. Our theoretical results raise hope towards magnon valleytronic devices based on atomically thin topological magnetic materials. | 翻訳日:2023-05-27 16:18:17 公開日:2020-09-25 |
# 量子真空からの古典構造の発生 Emergence of classical structures from the quantum vacuum ( http://arxiv.org/abs/2004.07249v4 ) ライセンス: Link先を確認 | Mainak Mukhopadhyay, Tanmay Vachaspati, George Zahariade | (参考訳) 量子相転移の後、量子真空は分裂して古典的な位相欠陥を形成する。
相転移の異なるクエンチ率に対して、z_2$対称性を持つスカラー場モデルのこの過程について検討する。
晩期におけるキンクの数密度は、モデルにおける質量スケールである$c m^{1/2} t^{-1/2}$と、熱相転移のキブル・ズレークスケールとは対照的に、クエンチ時間スケールに依存しない。
キンク密度に対するサブリーディング補正 $\propto t^{-3/2}$ は相転移の詳細に依存する。 After a quantum phase transition the quantum vacuum can break up to form classical topological defects. We examine this process for scalar field models with $Z_2$ symmetry for different quench rates for the phase transition. We find that the number density of kinks at late times universally scales as $C m^{1/2} t^{-1/2}$ where $m$ is a mass scale in the model and $C\approx 0.22$; it does not depend on the quench timescale in contrast to the Kibble-Zurek scaling for thermal phase transitions. A subleading correction $\propto t^{-3/2}$ to the kink density depends on the details of the phase transition. | 翻訳日:2023-05-23 09:10:50 公開日:2020-09-25 |
# コヒーレントイジングマシン-量子光学とニューラルネットワークの観点から Coherent Ising machines -- Quantum optics and neural network perspectives ( http://arxiv.org/abs/2006.05649v2 ) ライセンス: Link先を確認 | Y. Yamamoto, T. Leleu, S. Ganguli, H. Mabuchi | (参考訳) コヒーレントイジングマシン(英: coherent ising machine、cim)は、与えられたイジング問題の最適解に対応する「最も強い」発振の集団モードを持つ光パラメトリック発振器(opos)のネットワークである。
しかし、ポンプレートやネットワーク結合率をしきい値以下から上まで上昇させると、イジング結合行列[j_ij]の最小固有値の固有ベクトルがしきい値付近に出現し、マシンが真の基底状態へ緩和するのを妨げる。
この問題に対する2つの補完的アプローチについて述べる。
1つのアプローチは、しきい値以下のOPOの圧縮/非定常真空ノイズを利用して、多くの局所的なミニマを量子ノイズ相関によってコヒーレントに拡散させることであり、これによりマシンは、真基底状態または励起状態のいずれかに、しきい値に近い固有エネルギーでアクセスできる。
もう1つのアプローチは、リアルタイムエラー訂正フィードバックループを実装して、探索的な基底状態の探索中にマシンが局所的な最小値から別の状態に移行するようにすることである。
最後に、CIMと従来のコンピュータサイエンス技術を結ぶ定性的な類似点の集合を指摘する。
特に、組合せ最適化に使用される信念の伝播と調査の伝播に触れる。 A coherent Ising machine (CIM) is a network of optical parametric oscillators (OPOs), in which the "strongest" collective mode of oscillation at well above threshold corresponds to an optimum solution of a given Ising problem. When a pump rate or network coupling rate is increased from below to above threshold, however, the eigenvectors with a smallest eigenvalue of Ising coupling matrix [J_ij] appear near threshold and impede the machine to relax to true ground states. Two complementary approaches to attack this problem are described here. One approach is to utilize squeezed/anti-squeezed vacuum noise of OPOs below threshold to produce coherent spreading over numerous local minima via quantum noise correlation, which could enable the machine to access either true ground states or excited states with eigen-energies close enough to that of ground states above threshold. The other approach is to implement real-time error correction feedback loop so that the machine migrates from one local minimum to another during an explorative search for ground states. Finally, a set of qualitative analogies connecting the CIM and traditional computer science techniques are pointed out. In particular, belief propagation and survey propagation used in combinatorial optimization are touched upon. | 翻訳日:2023-05-16 02:59:20 公開日:2020-09-25 |
# Next-to-Nearest-Neighbour相互作用を持つトポロジカルSu-Schrieffer-Heeger鎖における高速で堅牢な量子状態移動 Fast and robust quantum state transfer in a topological Su-Schrieffer-Heeger chain with Next-to-Nearest-Neighbour interactions ( http://arxiv.org/abs/2006.09936v2 ) ライセンス: Link先を確認 | Felippo M. D'Angelis, Felipe A. Pinheiro, David Gu\'ery-Odelin, Stefano Longhi, Fran\c{c}ois Impens | (参考訳) 我々は,NNN相互作用を利用したSu-Schrieffer-Heeger(SSH)連鎖における高速で堅牢な量子状態移動法を提案する。
提案した量子プロトコルは、近辺相互作用の変調によって引き起こされるトポロジカルエッジ状態の1つの急激な変化と、反断熱駆動を行うNNN相互作用の微調整を組み合わせたものである。
後者は、エッジ状態乗数からエネルギーバンドへの非断熱励起をキャンセルする。
本手法は, 2つの二量化su-schrieffer-heeger鎖を異なる位相秩序で接続するインタフェースを用いて, 単一二量化鎖上のエッジ状態の位相的パンピングを行う。
本プロトコルの非相関性障害および相関性障害に対する堅牢性について検討し, 従来のトポロジカルチェーンの断熱プロトコルと比較して, 前者に対して強いレジリエンスを示す。
本研究では,空間的相関を導入することでプロトコルの堅牢性を高め,適用範囲を広げることを示す。 We suggest a method for fast and robust quantum-state transfer in a Su-Schrieffer-Heeger (SSH) chain, which exploits the use of next-to-nearest-neighbour (NNN) interactions. The proposed quantum protocol combines a rapid change in one of the topological edge states, induced by a modulation of nearest-neighbour interactions, with a fine tuning of NNN interactions operating a counter-adiabatic driving. The latter cancels nonadiabatic excitations from the edge state multiplicity to the energy bands. We use this shortcut technique for topological pumping of edge states on a single dimerized chain and also through an interface that connects two dimerized Su-Schrieffer-Heeger chains with different topological order. We investigate the robustness of this protocol against both uncorrelated and correlated disorder, and demonstrate its strong resilience to the former in comparison to traditional adiabatic protocols for topological chains. We show that introducing spatial correlations in the disorder increases the robustness of the protocol, widening the range of its applicability. | 翻訳日:2023-05-13 15:48:09 公開日:2020-09-25 |
# 最大絡み合い状態によるハイゼンベルクスケーリングの達成:到達可能な根平均二乗誤差に対する解析上界 Achieving Heisenberg scaling with maximally entangled states: an analytic upper bound for the attainable root mean square error ( http://arxiv.org/abs/2007.02994v2 ) ライセンス: Link先を確認 | Federico Belliardo and Vittorio Giovannetti | (参考訳) 本稿では,最大絡み合った状態のみを用いることで,位相のハイゼンベルク制限量子メートル法を実現する可能性について検討する。
HigginsらがNew J. Physで導入した推定器から始める。
11,073023 (2009) であり, 本論文の主な結果は, 関連する平均二乗誤差に対する解析上界を, その過程で用いられる量子プローブの数の二乗関数として単調に減少させることである。
分析プロトコルは非適応的であり、原理的には(区別可能なプローブのために)分離可能な測定のみを必要とする。
エンタングルメントサイズに制限がある場合や、損失がある場合においても、メトロジーについても検討する。 In this paper we explore the possibility of performing Heisenberg limited quantum metrology of a phase, without any prior, by employing only maximally entangled states. Starting from the estimator introduced by Higgins et al. in New J. Phys. 11, 073023 (2009), the main result of this paper is to produce an analytical upper bound on the associated Mean Squared Error which is monotonically decreasing as a function of the square of the number of quantum probes used in the process. The analysed protocol is non-adaptive and requires in principle (for distinguishable probes) only separable measurements. We explore also metrology in presence of a limitation on the entanglement size and in presence of loss. | 翻訳日:2023-05-11 03:50:57 公開日:2020-09-25 |
# 新型コロナウイルスと今後のパンデミックのためのモノのインターネット:探索的研究 Internet of Things for Current COVID-19 and Future Pandemics: An Exploratory Study ( http://arxiv.org/abs/2007.11147v2 ) ライセンス: Link先を確認 | Mohammad Nasajpour, Seyedamin Pouriyeh, Reza M. Parizi, Mohsen Dorodchi, Maria Valero, Hamid R. Arabnia | (参考訳) 近年,IoT(Internet of Things,モノのインターネット)は,医学分野や産業分野,特に医療分野における新たな研究分野として,説得力のある研究の場となっている。
IoT革命は、技術的、経済的、社会的見通しを取り入れることで、現代医療システムを再構築している。
従来の医療システムからよりパーソナライズされた医療システムへと進化し、患者を診断、治療、監視しやすくしています。
新型コロナウイルス感染症(COVID-19)の感染拡大に伴う世界的な危機は、1918年のパンデミック以降で最大の公衆衛生危機を招いている。
この論文が書かれた時点では、世界中の新型コロナウイルス感染者が3300万人以上に達していた。
パンデミックが始まって以来、さまざまな研究コミュニティにおいて、この世界的な脅威と戦うために、さまざまなテクノロジを活用するという急速な取り組みが行われており、iotテクノロジはこの分野の先駆者のひとつです。
COVID-19のコンテキストでは、IoTを有効に/リンクされたデバイス/アプリケーションを使用して、早期診断、患者監視、患者の回復後の定義されたプロトコルの実践によって、新型コロナウイルスの感染拡大の可能性を減らす。
本稿では、COVID-19におけるIoT技術の役割を調査し、早期診断、隔離時間、回復を含む3つの主要なフェーズでCOVID-19と戦う最先端のアーキテクチャ、プラットフォーム、アプリケーション、産業用IoTベースのソリューションについてレビューする。 In recent years, the Internet of Things (IoT) has drawn convincing research ground as a new research topic in a wide variety of academic and industrial disciplines, especially in healthcare. The IoT revolution is reshaping modern healthcare systems by incorporating technological, economic, and social prospects. It is evolving healthcare systems from conventional to more personalized healthcare systems through which patients can be diagnosed, treated, and monitored more easily. The current global challenge of the pandemic caused by the novel severe contagious respiratory syndrome coronavirus 2 presents the greatest global public health crisis since the pandemic influenza outbreak of 1918. At the time this paper was written, the number of diagnosed COVID-19 cases around the world had reached more than 31 million. Since the pandemic started, there has been a rapid effort in different research communities to exploit a wide variety of technologies to combat this worldwide threat, and IoT technology is one of the pioneers in this area. In the context of COVID-19, IoT enabled /linked devices/applications are utilized to lower the possible spread of COVID-19 to others by early diagnosis, monitoring patients, and practicing defined protocols after patient recovery. This paper surveys the role of IoT-based technologies in COVID-19 and reviews the state-of-the-art architectures, platforms, applications, and industrial IoT-based solutions combating COVID-19 in three main phases, including early diagnosis, quarantine time, and after recovery. | 翻訳日:2023-05-08 18:47:31 公開日:2020-09-25 |
# グラフェンの部分スペクトル流れとアハロノフ-ボーム効果 Partial spectral flow and the Aharonov-Bohm effect in graphene ( http://arxiv.org/abs/2007.14150v2 ) ライセンス: Link先を確認 | Mikhail I. Katsnelson and Vladimir Nazaikinskii | (参考訳) グラフェンの原子間距離よりも寸法がはるかに大きいグラフェンシートからなる開口管におけるアハロノフ・ボーム効果について検討した。
グラフェンシートの近傍および近傍に外部磁場が消滅し、管内のフラックスが断熱的に切替される。
この過程において、π電子の強結合ハミルトニアンのエネルギー準位がフェルミ準位を不可避的に越え、電子-ホール対が生成されることが示されている。
対の数は、外部磁場の磁束量子数と等しいことが証明されている。
この証明は、凝縮物質物理学において既によく知られた応用(超伝導体や超流動のコプニン力など)を持つ通常のスペクトルフローを一般化する部分スペクトルフローの新しい概念に基づいている。 We study the Aharonov-Bohm effect in an openended tube made of a graphene sheet whose dimensions are much larger than the interatomic distance in graphene. An external magnetic field vanishes on and in the vicinity of the graphene sheet and its flux through the tube is adiabatically switched on. It is shown that, in the process, the energy levels of the tight-binding Hamiltonian of pi-electrons unavoidably cross the Fermi level, which results in the creation of electron-hole pairs. The number of pairs is proven to be equal to the number of magnetic flux quanta of the external field. The proof is based on the new notion of partial spectral flow, which generalizes the ordinary spectral flow already having well-known applications (such as the Kopnin forces in superconductors and superfluids) in condensed matter physics. | 翻訳日:2023-05-07 23:18:19 公開日:2020-09-25 |
# 幾何学状態の絡み合いスペクトル Entanglement spectrum of geometric states ( http://arxiv.org/abs/2008.12430v2 ) ライセンス: Link先を確認 | Wu-zhong Guo | (参考訳) 与えられた部分系の還元密度行列($\rho_A$)はホログラフィック理論における部分領域双対性に関する情報を含む。
本論文では,行列のスペクトル(固有値)を用いて,エンタングルメントスペクトルと呼ばれる情報を抽出することができる。
マイクロカノニカルアンサンブル状態$\rho_{A,m}$における固有状態の密度,一点相関関数,二点相関関数,および固有値$\lambda$をいくつかの例で評価する。
我々は、$\lambda_0$のマイクロカノニカルアンサンブル状態が存在しており、$\rho_A$の近似状態と見なすことができる。
パラメータ $\lambda_0$ は2つの例で得られる。
一般的な幾何学的状態においては、近似的なマイクロカノニカルアンサンブル状態も存在する。
パラメータ $\lambda_0$ は、極限 $n\to \infty$ における $a$ と r\'enyi entropy の絡み合いエントロピーと関係している。
以上の結論の応用として、2次元CFTの真空状態における2区間の絡み合いエントロピーのアラキ・リーブの不等式をホレヴォ情報の条件として再検討する。
固有状態に関する制約を示す。
最後に,未解決の問題と幾何学的状態を理解する上での意義を指摘する。 The reduced density matrix of a given subsystem, denoted by $\rho_A$, contains the information on subregion duality in a holographic theory. We may extract the information by using the spectrum (eigenvalue) of the matrix, called entanglement spectrum in this paper. We evaluate the density of eigenstates, one-point and two-point correlation functions in the microcanonical ensemble state $\rho_{A,m}$ associated with an eigenvalue $\lambda$ for some examples, including a single interval and two intervals in vacuum state of 2D CFTs. We find there exists a microcanonical ensemble state with $\lambda_0$ which can be seen as an approximate state of $\rho_A$. The parameter $\lambda_0$ is obtained in the two examples. For a general geometric state, the approximate microcanonical ensemble state also exists. The parameter $\lambda_0$ is associated with the entanglement entropy of $A$ and R\'enyi entropy in the limit $n\to \infty$. As an application of the above conclusion we reform the equality case of the Araki-Lieb inequality of the entanglement entropies of two intervals in vacuum state of 2D CFTs as conditions of Holevo information. We show the constraints on the eigenstates. Finally, we point out some unsolved problems and their significance on understanding the geometric states. | 翻訳日:2023-05-04 11:49:01 公開日:2020-09-25 |
# 量子トンネルへの確率的アプローチの定量的解析 Quantitative Analysis of the Stochastic Approach to Quantum Tunneling ( http://arxiv.org/abs/2009.00017v2 ) ライセンス: Link先を確認 | Mark P. Hertzberg, Fabrizio Rompineve, Neil Shah | (参考訳) 近年、場理論における量子トンネル計算の代替手法への関心が高まっている。
特に興味のあるのは 確率的なアプローチで
(i)場と運動量共役の確率的初期条件を得るために、自由理論ガウス近似からウィグナー分布へのサンプリング。
(ii) 運動の古典場方程式の下で進化し, ランダムな気泡形成に繋がる。
従来の研究は, この確率的アプローチにおけるトンネル速度の対数と通常のインスタントン近似とのパラメトリックな一致を示した。
しかし、最近の研究[1]はこれらの方法の間の優れた合意を主張した。
ここでは、このアプローチが正確には一致しないことを示す。確率的手法は、インスタントトントンネル速度を過大に予測する傾向がある。
そこで、$\sigma$ はガウス分布の実際の標準偏差であり、$\epsilon$ はファッジ因子であり、$\epsilon = 1$ は物理値である。
1+1次元の様々なポテンシャルの気泡形成率を得るための確率的アプローチを数値的に実装し、例えば [1] のポテンシャルでは $\epsilon \approx 1/2$ が必要となる。
予測におけるミスマッチは、他のウィグナー分布からのサンプリングや、初期量子系を正確にガウス状態に設定した場合でも、単一粒子量子力学において発生する。
この2つの方法の一致を得ることが目的であれば, 確率的アプローチは, ゆらぎに対する最適なファッジ因子を規定する処方薬が開発できる場合に有用であることを示す。 Recently there has been increasing interest in alternate methods to compute quantum tunneling in field theory. Of particular interest is a stochastic approach which involves (i) sampling from the free theory Gaussian approximation to the Wigner distribution in order to obtain stochastic initial conditions for the field and momentum conjugate, then (ii) evolving under the classical field equations of motion, which leads to random bubble formation. Previous work showed parametric agreement between the logarithm of the tunneling rate in this stochastic approach and the usual instanton approximation. However, recent work [1] claimed excellent agreement between these methods. Here we show that this approach does not in fact match precisely; the stochastic method tends to overpredict the instanton tunneling rate. To quantify this, we parameterize the standard deviations in the initial stochastic fluctuations by $\epsilon \sigma$, where $\sigma$ is the actual standard deviation of the Gaussian distribution and $\epsilon$ is a fudge factor; $\epsilon = 1$ is the physical value. We numerically implement the stochastic approach to obtain the bubble formation rate for a range of potentials in 1+1-dimensions, finding that $\epsilon$ always needs to be somewhat smaller than unity to suppress the otherwise much larger stochastic rates towards the instanton rates; for example, in the potential of [1] one needs $\epsilon \approx 1/2$. We find that a mismatch in predictions also occurs when sampling from other Wigner distributions, and in single particle quantum mechanics even when the initial quantum system is prepared in an exact Gaussian state. If the goal is to obtain agreement between the two methods, our results show that the stochastic approach would be useful if a prescription to specify optimal fudge factors for fluctuations can be developed. | 翻訳日:2023-05-04 05:24:26 公開日:2020-09-25 |
# 経路積分と非線形光学トワイザー Path integrals and nonlinear optical tweezers ( http://arxiv.org/abs/2009.06508v2 ) ライセンス: Link先を確認 | Bruno Suassuna, Bruno Melo, Thiago Guerreiro | (参考訳) 非線形光学トワイザーの作用下での粒子の相関関数に対する摂動補正を過減衰状態と過減衰状態の両方で計算するためにパス積分を用いる。
いずれの場合においても、主次非線形性はシステムの特性周波数の変化として表される。
結果は数値シミュレーションと比較される。
本計算により, 標準高調波トワイザーと同様に, 位置データを解析することにより, 非線形光学トラップパラメータへ直接アクセスすることができる。 We use path integrals to calculate perturbative corrections to the correlation function of a particle under the action of nonlinear optical tweezers, both in the overdamped and underdamped regimes. In both cases, it is found that to leading order nonlinearities manifest as shifts in the characteristic frequency of the system. The results are compared to numerical simulations. The present calculations enable a direct experimental method to access the nonlinear optical trap parameters by analyzing position data, similarly to standard harmonic tweezers. | 翻訳日:2023-05-02 06:36:01 公開日:2020-09-25 |
# 非インタラクティブアプライアンス認識のための効率的なマルチディスクリプタ融合 Efficient multi-descriptor fusion for non-intrusive appliance recognition ( http://arxiv.org/abs/2009.08210v2 ) ライセンス: Link先を確認 | Yassine Himeur, Abdullah Alsalemi, Faycal Bensaali, Abbes Amira | (参考訳) アプライアンスレベルでの電力消費に対する意識は、家庭におけるエネルギー効率の促進に役立つ。
本稿では,各機器の特定の消費フットプリントを提供できる優れた非侵入型家電認識手法を提案する。
電気機器は以下の手順で異なる記述子の組み合わせによってよく認識される。
(a)複数の時間領域(TD)特徴抽出方式の性能適合性を考慮した適用性の調査
b) 相補的な特徴を探求すること,及び
(c) アンサンブルバッグングツリー(EBT)分類器の新しい設計を利用する。
その結果,特徴識別能力の向上と認識タスクの最適化を目的とした,TD特徴の融合に基づく強力な特徴抽出手法,すなわちfTDFを提案する。
greendとwithedと呼ばれる2つの異なるデータセットで広範な実験性能評価を行い、それぞれ1hzと44000hzのサンプリング周波数で消費電力のシグネチャを収集した。
その結果,ftdfベースのebtシステムが他のtdディスクリプタや機械学習分類器と比較して最良効率を示した。 Consciousness about power consumption at the appliance level can assist user in promoting energy efficiency in households. In this paper, a superior non-intrusive appliance recognition method that can provide particular consumption footprints of each appliance is proposed. Electrical devices are well recognized by the combination of different descriptors via the following steps: (a) investigating the applicability along with performance comparability of several time-domain (TD) feature extraction schemes; (b) exploring their complementary features; and (c) making use of a new design of the ensemble bagging tree (EBT) classifier. Consequently, a powerful feature extraction technique based on the fusion of TD features is proposed, namely fTDF, aimed at improving the feature discrimination ability and optimizing the recognition task. An extensive experimental performance assessment is performed on two different datasets called the GREEND and WITHED, where power consumption signatures were gathered at 1 Hz and 44000 Hz sampling frequencies, respectively. The obtained results revealed prime efficiency of the proposed fTDF based EBT system in comparison with other TD descriptors and machine learning classifiers. | 翻訳日:2023-05-02 00:19:47 公開日:2020-09-25 |
# ソーシャルメディアにおけるfauxtography利用の理解 Understanding the Use of Fauxtography on Social Media ( http://arxiv.org/abs/2009.11792v2 ) ライセンス: Link先を確認 | Yuping Wang and Fatemeh Tahmasbi and Jeremy Blackburn and Barry Bradlyn and Emiliano De Cristofaro and David Magerman and Savvas Zannettou and Gianluca Stringhini | (参考訳) 画像に基づくコミュニケーションがオンライン談話に与える影響にもかかわらず、偽情報のイメージが果たす役割はいまだよく理解されていない。
本稿では,オンラインコミュニティにおけるニュースの議論において,操作された画像や誤解を招く画像の利用を分析した最初の大規模研究を行う。
まず,fauxtographyを検出するための計算パイプラインを開発し,Twitter,4chan,Redditで議論されたfauxtographyの61万以上のインスタンスを同定する。
次に,投稿がソーシャルメディア上での投稿のエンゲージメントにどのように影響するかを調査し,その投稿がリシェアやいいね!,コメントといった形でより多くのインタラクションを受けることを見出した。
最後に,fauxtography 画像は Web コミュニティによってしばしばミームに変換されることを示す。
以上の結果から,偽情報に対する効果的な緩和には画像の考慮が必要であり,画像に基づく偽情報を扱う上での課題が数多く指摘されている。 Despite the influence that image-based communication has on online discourse, the role played by images in disinformation is still not well understood. In this paper, we present the first large-scale study of fauxtography, analyzing the use of manipulated or misleading images in news discussion on online communities. First, we develop a computational pipeline geared to detect fauxtography, and identify over 61k instances of fauxtography discussed on Twitter, 4chan, and Reddit. Then, we study how posting fauxtography affects engagement of posts on social media, finding that posts containing it receive more interactions in the form of re-shares, likes, and comments. Finally, we show that fauxtography images are often turned into memes by Web communities. Our findings show that effective mitigation against disinformation need to take images into account, and highlight a number of challenges in dealing with image-based disinformation. | 翻訳日:2023-05-01 02:35:14 公開日:2020-09-25 |
# ハイブリッドトポロジカル縦型トランスモン量子ビット The Hybrid Topological Longitudinal Transmon Qubit ( http://arxiv.org/abs/2009.12278v1 ) ライセンス: Link先を確認 | Alec Dinerstein, Caroline S. Gorham, and Eugene F. Dumitrescu | (参考訳) 共振器に縦結合したトランスモンと相互作用するマヨラナ量子ビットからなる新しいハイブリッド量子ビットを提案する。
そこで我々は, 長手形トランスモン量子ビットに位相準粒子を具備し, ヘテロ構造ナノワイヤの配列を担い, マヨラナ量子ビットと共振器とトランスモン自由度との間の電荷・位相相互作用を導出する。
電荷結合を調べた結果、電荷オフセットの法定選択によりマヨラナ自己チャージが排除され、準粒子の空間配置やパリティ構成にかかわらずマヨラナ縮退が維持されることを示した。
実効量子ビット相互作用要素を導出するために解析的および数値計算を行い、状態読み出しと量子誤り訂正の潜在的な有用性について議論する。
さらに, 選択された相互作用は全超伝導パリティに強く依存しており, 有害な準粒子中毒過程を特徴付ける直接的メカニズムを提供する可能性がある。 We introduce a new hybrid qubit consisting of a Majorana qubit interacting with a transmon longitudinally coupled to a resonator. To do so, we equip the longitudinal transmon qubit with topological quasiparticles, supported by an array of heterostructure nanowires, and derive charge- and phase-based interactions between the Majorana qubit and the resonator and transmon degrees of freedom. Inspecting the charge coupling, we demonstrate that the Majorana self-charging can be eliminated by a judicious choice of charge offset, thereby maintaining the Majorana degeneracy regardless of the quasiparticles spatial arrangement and parity configuration. We perform analytic and numerical calculations to derive the effective qubit-qubit interaction elements and discuss their potential utility for state readout and quantum error correction. Further, we find that select interactions depend strongly on the overall superconducting parity, which may provide a direct mechanism to characterize deleterious quasiparticle poisoning processes. | 翻訳日:2023-05-01 00:42:44 公開日:2020-09-25 |
# 高速量子想像時間進化 Fast quantum imaginary time evolution ( http://arxiv.org/abs/2009.12239v1 ) ライセンス: Link先を確認 | Kok Chuan Tan | (参考訳) 高速QITEと呼ばれる量子想像時間進化(QITE)アルゴリズムの高速実装を提案する。
QITEのアルゴリズムコストは通常、トロッターステップごとに非自明に作用する粒子の数で指数関数的にスケールする。
対照的に、Fast QITEの実装は、これを線形スケーリングだけに還元する。
このスピードアップは、QITEアルゴリズムの標準実装では達成できない行列指数の対角要素をサンプリングする際の量子優位性をもたらすことが示されている。
最後に,有限温度シミュレーションのための高速QITEの実装コストについても論じる。 A fast implementation of the quantum imaginary time evolution (QITE) algorithm called Fast QITE is proposed. The algorithmic cost of QITE typically scales exponentially with the number of particles it nontrivially acts on in each Trotter step. In contrast, a Fast QITE implementation reduces this to only a linear scaling. It is shown that this speed up leads to a quantum advantage when sampling diagonal elements of a matrix exponential, which cannot be achieved using the standard implementation of the QITE algorithm. Finally the cost of implementing Fast QITE for finite temperature simulations is also discussed. | 翻訳日:2023-05-01 00:42:26 公開日:2020-09-25 |
# 量子時代の署名情報 Signing Information in the Quantum Era ( http://arxiv.org/abs/2009.12118v1 ) ライセンス: Link先を確認 | K. Longmate, E.M. Ball, E. Dable-Heath, and R.J. Young | (参考訳) 署名は、メッセージの送信者が誰だと主張するかを示すために、主に認証のマークとして使用される。
現在のデジタル時代において、署名は私たちが交換する情報の大部分、特にインターネットのような公共ネットワークにおける信頼の基盤となっている。
しかし、計算複雑性の仮定に基づくデジタル情報に署名するためのスキームは、数学の進歩、コンピュータの能力、量子時代の到来といった課題に直面している。
本稿では,デジタル署名方式の見直しを行い,その起源と脅威の所在について述べる。
次に,量子化後のディジタルスキームについて紹介する。デジタルプロセスやインフラストラクチャに依存しながら,量子アルゴリズムの脅威を緩和する目的で開発が進められている。
最後に,認証可能なセキュリティ指標を約束する量子チャネル上の署名情報のスキームをレビューする。
署名はコミュニケーションを認証するための実践的な手段として考案され、新しい署名スキームの実用性を慎重に検討することが重要であり、このレビューを通じて共通の関心のテーマとして残されている。 Signatures are primarily used as a mark of authenticity, to demonstrate that the sender of a message is who they claim to be. In the current digital age, signatures underpin trust in the vast majority of information that we exchange, particularly on public networks such as the internet. However, schemes for signing digital information which are based on assumptions of computational complexity are facing challenges from advances in mathematics, the capability of computers, and the advent of the quantum era. Here we present a review of digital signature schemes, looking at their origins and where they are under threat. Next, we introduce post-quantum digital schemes, which are being developed with the specific intent of mitigating against threats from quantum algorithms whilst still relying on digital processes and infrastructure. Finally, we review schemes for signing information carried on quantum channels, which promise provable security metrics. Signatures were invented as a practical means of authenticating communications and it is important that the practicality of novel signature schemes is considered carefully, which is kept as a common theme of interest throughout this review. | 翻訳日:2023-05-01 00:42:00 公開日:2020-09-25 |
# 2種類の連続変数非古典状態の同時生成のための資源削減 Resource reduction for simultaneous generation of two types of continuous variable nonclassical states ( http://arxiv.org/abs/2009.12079v1 ) ライセンス: Link先を確認 | Long Tian, Shaoping Shi, Yuhang Tian, Yajun Wang, Yaohui Zheng, and Kunchi Peng | (参考訳) 本研究では, 位相整合型光パラメトリック増幅(OPA)と2種類のリングフィルタキャビティ(RFC)から, 2種類の連続変数非古典状態の同時生成と検出を実験的に実証した。
opaの出力フィールドは、2つのカスケードrfcによって分離されたキャビティ共鳴条件に対するベースバンド {\omega}0とサイドバンドモード {\omega}0+/-n{\omega}fを含む。
最初のRFCはポンプ波長 {\omega}0 の半分と共鳴し、送信されたベースバンド成分は圧縮状態である。
サイドバンドモード {\omega}0+/-{\omega}fを含む第1RFCの反射体は、第2RFCによって分離され、アインシュタイン-ポドルスキー-ローゼン交絡状態を構成する。
サイドバンド分離のためのフィルタキャビティや、これらのサイドバンドの測定のための相対位相を含む全ての自由度は、積極的に安定化される。
圧縮状態のノイズ分散は、ショットノイズリミット(SNL)より10.2dB以下であり、絡み合い状態の2次振幅-sumと4次位相差の相関分散は、対応するSNLより10.0dB以下である。 We demonstrate experimentally the simultaneous generation and detection of two types of continuous variable nonclassical states from one type-0 phase-matching optical parametric amplification (OPA) and subsequent two ring filter cavities (RFCs). The output field of the OPA includes the baseband {\omega}0 and sideband modes {\omega}0+/-n{\omega}f subjects to the cavity resonance condition, which are separated by two cascaded RFCs. The first RFC resonates with half the pump wavelength {\omega}0 and the transmitted baseband component is a squeezed state. The reflected fields of the first RFC, including the sideband modes {\omega}0+/-{\omega}f, are separated by the second RFC, construct Einstein-Podolsky-Rosen entangled state. All freedoms, including the filter cavities for sideband separation and relative phases for the measurements of these sidebands, are actively stabilized. The noise variance of squeezed states is 10.2 dB below the shot noise limit (SNL), the correlation variances of both quadrature amplitude-sum and quadrature phase-difference for the entanglement state are 10.0 dB below the corresponding SNL. | 翻訳日:2023-05-01 00:41:31 公開日:2020-09-25 |
# 絡み合い支援吸収分光法 Entanglement-Assisted Absorption Spectroscopy ( http://arxiv.org/abs/2009.12026v1 ) ライセンス: Link先を確認 | Haowei Shi, Zheshen Zhang, Stefano Pirandola, Quntao Zhuang | (参考訳) 分光法は、材料、化学物質、生物学的サンプルの性質を調べる重要なツールである。
古典的情報源に基づく全ての分光スキームに対する証明可能な量子優位性を達成するために、絡み合いを利用した実用的な送受信システムを設計する。
異なる周波数モード間の透過率パターンをモデル化した吸収スペクトルを探索するため、2モード圧縮真空状態で広帯域信号イドラーペアを用いる。
受信側では、光パラメトリック増幅後に光検出を行う。
最後に, 実分子を考慮した「ワイン・テイスティング」や「ドラッグ・テスト」など, 様々な例において, 最適古典システムよりも次数-次数-次誤差確率を達成し, 測定結果の最大化を図った。
吸収線の存在を検出する際、量子スキームは量子力学によって許容される最適性能を達成する。
本システムにおける量子アドバンテージは,ノイズや損失に対して頑健であり,短期的な実証が可能となる。 Spectroscopy is an important tool for probing the properties of materials, chemicals and biological samples. We design a practical transmitter-receiver system that exploits entanglement to achieve a provable quantum advantage over all spectroscopic schemes based on classical sources. To probe the absorption spectra, modelled as pattern of transmissivities among different frequency modes, we employ broad-band signal-idler pairs in two-mode squeezed vacuum states. At the receiver side, we apply photodetection after optical parametric amplification. Finally, we perform a maximal-likehihood decision test on the measurement results, achieving orders-of-magnitude-lower error probability than the optimum classical systems in various examples, including `wine-tasting' and `drug-testing' where real molecules are considered. In detecting the presence of an absorption line, our quantum scheme achieves the optimum performance allowed by quantum mechanics. The quantum advantage in our system is robust against noise and loss, which makes near-term experimental demonstration possible. | 翻訳日:2023-05-01 00:40:30 公開日:2020-09-25 |
# SeQUeNCe: 量子ネットワークのカスタマイズ可能な離散イベントシミュレータ SeQUeNCe: A Customizable Discrete-Event Simulator of Quantum Networks ( http://arxiv.org/abs/2009.12000v1 ) ライセンス: Link先を確認 | Xiaoliang Wu, Alexander Kolar, Joaquin Chung, Dong Jin, Tian Zhong, Rajkumar Kettimuthu, Martin Suchara | (参考訳) 量子情報科学の最近の進歩は、量子通信ネットワークのプロトタイプの開発を可能にし、フルスタックの量子ネットワークアーキテクチャを研究する機会を生み出した。
この研究は、包括的でカスタマイズ可能な量子ネットワークシミュレータであるSeQUeNCeを開発した。
本シミュレータは,ハードウェアモデル,エンタングルメント管理プロトコル,リソース管理,ネットワーク管理,アプリケーションという5つのモジュールで構成される。
このフレームワークは、現在および将来のハードウェア技術とプロトコルの広さを捉える量子ネットワークプロトタイプのシミュレーションに適している。
我々は,ネットワークプロトコルの包括的スイートを実装し,量子メモリを搭載した9つのルータを用いたフォトニック量子ネットワークをシミュレートしてシーケンスの利用を実証する。
シミュレーション機能は、3つのユースケースで示される。
いくつかのハードウェアパラメータに量子ネットワークスループットが依存していることを示し、古典的な制御メッセージレイテンシの影響について検討する。
また、ルータにおける量子メモリ使用効率を調査し、予測された負荷に応じてメモリの再分配がネットワーク容量を69.1%増加させ、スループットを6.8%向上させることを示した。
我々は、代替量子ネットワーク技術の比較、実験計画、検証を可能にするためにシーケンスを設計し、新しいプロトコル設計を支援する。
当社はsequenceをオープンソースツールとしてリリースしています。 Recent advances in quantum information science enabled the development of quantum communication network prototypes and created an opportunity to study full-stack quantum network architectures. This work develops SeQUeNCe, a comprehensive, customizable quantum network simulator. Our simulator consists of five modules: Hardware models, Entanglement Management protocols, Resource Management, Network Management, and Application. This framework is suitable for simulation of quantum network prototypes that capture the breadth of current and future hardware technologies and protocols. We implement a comprehensive suite of network protocols and demonstrate the use of SeQUeNCe by simulating a photonic quantum network with nine routers equipped with quantum memories. The simulation capabilities are illustrated in three use cases. We show the dependence of quantum network throughput on several key hardware parameters and study the impact of classical control message latency. We also investigate quantum memory usage efficiency in routers and demonstrate that redistributing memory according to anticipated load increases network capacity by 69.1% and throughput by 6.8%. We design SeQUeNCe to enable comparisons of alternative quantum network technologies, experiment planning, and validation and to aid with new protocol design. We are releasing SeQUeNCe as an open source tool and aim to generate community interest in extending it. | 翻訳日:2023-05-01 00:40:12 公開日:2020-09-25 |
# 量子揺らぎと新しいインスタントトン i:線形非有界ポテンシャル Quantum Fluctuations and New Instantons I: Linear Unbounded Potential ( http://arxiv.org/abs/2009.12445v1 ) ライセンス: Link先を確認 | Viatcheslav Mukhanov, Eliezer Rabinovici, Alexander Sorin | (参考訳) 我々は、コールマンが提案した手法が困難に陥る状況下での偽真空の崩壊を考える。
このような場合、量子ゆらぎは重要な役割を果たす。
すなわち、それらは自然に紫外線と赤外線の両方の遮断スケールを誘導し、古典溶液のパラメータによって決定される。
これは、紫外線カットオフがなければ特異であったであろう、新しい $o(4)$ invariant instantons の幅広いクラスが出現することにつながる。
結果は, ポテンシャルが線形に下方から非有界な場合に適用し, 特に, 必然的な量子揺らぎを考慮に入れて小さなインスタントンの問題がどのように解決されるかを示す。 We consider the decay of a false vacuum in circumstances where the methods suggested by Coleman run into difficulties. We find that in these cases quantum fluctuations play a crucial role. Namely, they naturally induce both an ultraviolet and infrared cutoff scales, determined by the parameters of the classical solution, beyond which this solution cannot be trusted anymore. This leads to the appearance of a broad class of new $O(4)$ invariant instantons, which would have been singular in the absence of an ultraviolet cutoff. We apply our results to a case where the potential is unbounded from below in a linear way and in particular show how the problem of small instantons is resolved by taking into account the inevitable quantum fluctuations. | 翻訳日:2023-05-01 00:32:29 公開日:2020-09-25 |
# 量子ゆらぎと新しいインスタントII:量子非有界ポテンシャル Quantum Fluctuations and New Instantons II: Quartic Unbounded Potential ( http://arxiv.org/abs/2009.12444v1 ) ライセンス: Link先を確認 | Viatcheslav Mukhanov, Eliezer Rabinovici, Alexander Sorin | (参考訳) 四分位で非有界な部分を含むポテンシャルの場合には、偽の真空の運命を研究する。
最初に、コールマン境界条件を持つ$O(4)$不変インスタントンがこの場合存在しないことを証明した。
しかし、これは偽の真空が崩壊しないという意味ではない。
量子揺らぎが特異古典解を正則化する方法を示す。
これにより、コリーマンのインスタントンが存在しないときの真空不安定性を記述する新しいクラスである $o(4)$ invariant regularized instanton が誕生する。
対応する解を導出し、それらが誘導する減衰率を計算する。 We study the fate of a false vacuum in the case of a potential that contains a portion which is quartic and unbounded. We first prove that an $O(4)$ invariant instanton with the Coleman boundary conditions does not exist in this case. This, however, does not imply that the false vacuum does not decay. We show how the quantum fluctuations may regularize the singular classical solutions. This gives rise to a new class of $O(4)$ invariant regularized instantons which describe the vacuum instability in the absence of the Coleman instanton. We derive the corresponding solutions and calculate the decay rate they induce. | 翻訳日:2023-05-01 00:32:17 公開日:2020-09-25 |
# 土着知識を用いた包括的実践に向けて Towards Inclusive Practices with Indigenous Knowledge ( http://arxiv.org/abs/2009.12425v1 ) ライセンス: Link先を確認 | Aparna Venkatesan (U. of San Francisco), David Begay (IEI and U. of New Mexico), Adam J. Burgasser (UC San Diego), Isabel Hawkins (SF Exploratorium), Ka'iu Kimura ('Imiloa Astronomy Center, Hawai'i), Nancy Maryboy (IEI and U. of Washington), Laura Peticolas (Sonoma State U.) | (参考訳) 世界文化の天文学は先住民の知識に根ざしている。
我々は、地球と宇宙における包括的科学企業を共同で創り出すために、インテグリティとの共同作業を含む先住民コミュニティとのパートナーシップモデルを共有します。 Astronomy across world cultures is rooted in Indigenous Knowledge. We share models of partnering with indigenous communities involving Collaboration with Integrity to co-create an inclusive scientific enterprise on Earth and in space. | 翻訳日:2023-05-01 00:31:23 公開日:2020-09-25 |
# 古典物理学の代替解釈」への回答 Reply to a "Comment on 'Physics without determinism: Alternative interpretations of classical physics' " ( http://arxiv.org/abs/2009.12284v1 ) ライセンス: Link先を確認 | Flavio Del Santo and Nicolas Gisin | (参考訳) この短いメモで私たちはCallegaro氏らのコメントに返信します。
[1] (arxiv:2009.11709) これは、我々がrefで提案した不確定物理学のモデルの弱さを示す。
[2] (physical review a, 100(6), p.062107) と命名した。
批判のメリットを認めつつも、これは [2] で議論した具体例にのみ当てはまるが、FIQ の主概念は依然として有効であり、決定論的物理モデルを記述するのに適している。
我々は、直観主義数学から着想を得て、[1]における批判を克服するより洗練されたfiqを定義する方法を示唆する。 In this short note we reply to a comment by Callegaro et al. [1] (arXiv:2009.11709) that points out some weakness of the model of indeterministic physics that we proposed in Ref. [2] (Physical Review A, 100(6), p.062107), based on what we named "finite information quantities" (FIQs). While we acknowledge the merit of their criticism, we maintain that it applies only to a concrete example that we discussed in [2], whereas the main concept of FIQ remains valid and suitable for describing indeterministic physical models. We hint at a more sophisticated way to define FIQs which, taking inspiration from intuitionistic mathematics, would allow to overcome the criticisms in [1]. | 翻訳日:2023-05-01 00:30:52 公開日:2020-09-25 |
# Small Private Online Judge: 経験的教育研究のための新しいツール Small Private Online Judge: A New Tool for Empirical Education Research ( http://arxiv.org/abs/2010.06984v1 ) ライセンス: Link先を確認 | Yunchi Zhu, Zuohan Zhao, Chengda Tong, Xiaojun Xia | (参考訳) 本稿では,SPOJ(Small Private Online Judge)の概念を提唱する。
SPOJは、MOOJ(Massive Open Online Judge)と比較して、学生の仮想行動の構造化されたデータ取得において、その機能と教室との密接な結合に利点がある。
SPOJに基づく経験的教育研究は,Acquisition-Analysis-Application"(3A)フレームワークで実施することができる。
SPOJプログラムのケーススタディは、SPOJベースの3A研究の標準パターンを明らかにし、教育知能概念の出現を強調する。
SPOJに基づく経験的教育研究の課題とSPOJの意義についても論じる。 This paper puts forward the concept of Small Private Online Judge (SPOJ). Compared with Massive Open Online Judge (MOOJ), SPOJ has advantages in structured data acquisition of students' virtual behavior for its specific function and tight coupling with the classroom. SPOJ-based empirical education research can be conducted within "Acquisition-Analysis-Application" (3A) Framework. The case study of a SPOJ program clarifies the standard pattern of SPOJ-based 3A research and highlights the emergence of education-intelligence concept. The challenges of SPOJ-based empirical education research and implications of SPOJ are also discussed. | 翻訳日:2023-05-01 00:24:59 公開日:2020-09-25 |
# デコヒーレンスとフラクタル・ハミルトニアンについて A note on Decoherence and Fractal Hamiltonians ( http://arxiv.org/abs/2009.14633v1 ) ライセンス: Link先を確認 | Evgeny I. Zelenov | (参考訳) 本論文はスピン浴量子デコヒーレンスモデルにおけるコヒーレント保存機構の記述を含む。 The article contains the description of a coherent conservation regime in the spin bath quantum decoherence model. | 翻訳日:2023-05-01 00:24:33 公開日:2020-09-25 |
# 脱水モニタリング:電熱活性を利用した非侵襲脱水アラートシステム Monitoring My Dehydration: A Non-Invasive Dehydration Alert System Using Electrodermal Activity ( http://arxiv.org/abs/2009.13626v1 ) ライセンス: Link先を確認 | Nandan Kulkarni, Christopher Compton, Jooseppi Luna, Mohammad Arif Ul Alam | (参考訳) 水分と飲料液は、健康を維持し、基礎的な身体機能を維持することが極めて重要である。
研究により、脱水は男女ともに生産性の低下、認知障害、気分の低下をもたらすことが示されている。
しかし、脱水症状を継続的に監視し、健康に影響を及ぼす前にユーザーに警告を提供するような既存のツールは存在しない。
本稿では,ヒト皮膚の水和レベルを瞬時に検出できる脱水自動監視ツールである 'emph{Monitoring My Dehydration} (MMD) の開発に,信号処理と機械学習技術とともにウェアラブル電極運動(EDA)センサを活用することを提案する。
さらに,Bluetooth上のAndroidアプリケーションを開発し,ウェアラブルEDAセンサ統合リストバンドと接続することで,ユーザの水和レベルをリアルタイムで追跡し,水和レベルが危険レベルを超えると即座にユーザに警告する。
開発ツールの性能を検証するため,私たちは5人のユーザを募集し,脱水場真実に注釈をつけるための吸水ルーチンを慎重に設計し,即時脱水レベルを予測するための最先端機械学習モデルを訓練した。
本システムでは,87.5%の感度と90.3%の特異性で脱水レベルを推定する精度を84.5%提供し,より大規模な縦断研究のための手法で前進する自信を与える。 Staying hydrated and drinking fluids is extremely crucial to stay healthy and maintaining even basic bodily functions. Studies have shown that dehydration leads to loss of productivity, cognitive impairment and mood in both men and women. However, there are no such an existing tool that can monitor dehydration continuously and provide alert to users before it affects on their health. In this paper, we propose to utilize wearable Electrodermal Activity (EDA) sensors in conjunction with signal processing and machine learning techniques to develop first time ever a dehydration self-monitoring tool, \emph{Monitoring My Dehydration} (MMD), that can instantly detect the hydration level of human skin. Moreover, we develop an Android application over Bluetooth to connect with wearable EDA sensor integrated wristband to track hydration levels of the users real-time and instantly alert to the users when the hydration level goes beyond the danger level. To validate our developed tool's performance, we recruit 5 users, carefully designed the water intake routines to annotate the dehydration ground truth and trained state-of-art machine learning models to predict instant hydration level i.e., well-hydrated, hydrated, dehydrated and very dehydrated. Our system provides an accuracy of 84.5% in estimating dehydration level with an sensitivity of 87.5% and a specificity of 90.3% which provides us confidence of moving forward with our method for larger longitudinal study. | 翻訳日:2023-05-01 00:24:30 公開日:2020-09-25 |
# 新型コロナウイルス(covid-19)暴露通知システムにおけるターゲットプライバシ脅威モデリング Target Privacy Threat Modeling for COVID-19 Exposure Notification Systems ( http://arxiv.org/abs/2009.13300v1 ) ライセンス: Link先を確認 | Ananya Gangavarapu, Ellie Daw, Abhishek Singh, Rohan Iyer, Gabriel Harp, Sam Zimmerman, and Ramesh Raskar | (参考訳) COVID-19パンデミックにおけるデジタルコンタクトトレーシング(DCT)技術の導入は、感染症の拡散を遅らせたり、正確な情報の拡散を改善するなど、様々なメリットを示している。
しかしながら、倫理的技術展開とユーザ採用の両方をサポートするためには、プライバシが最前線にある必要があります。
プライバシーの喪失は重大な脅威であり、デジタル接触追跡技術が進歩するにつれて、徹底的な脅威モデリングがプライバシーの強化と保護に役立ちます。
現在、LINDDUN、STRIDE、PASTA、NISTなど、ソフトウェアシステムのプライバシ、システムセキュリティ、アプリケーションセキュリティ、データ中心リスクなど、さまざまな脅威モデリングフレームワークが存在している。
露出通知システム(ENS)のコンテキストに適用すると、これらのモデルはソフトウェア側の全体像を提供するが、そのようなシステムに関わるハードウェア、人間、規制、ソフトウェアの統合性に対処するには不十分である。
我々のアプローチは、ENSsas全体を扱い、多面的ソリューションのプライバシー複雑さに対処するモデルを提供する。
プライバシの原則、プライバシの脅威、攻撃能力、包括的な脅威モデルを定義する。
最後に、モデルで定義された様々な脅威に対処する脅威緩和戦略について概説する。 The adoption of digital contact tracing (DCT) technology during the COVID-19pandemic has shown multiple benefits, including helping to slow the spread of infectious disease and to improve the dissemination of accurate information. However, to support both ethical technology deployment and user adoption, privacy must be at the forefront. With the loss of privacy being a critical threat, thorough threat modeling will help us to strategize and protect privacy as digital contact tracing technologies advance. Various threat modeling frameworks exist today, such as LINDDUN, STRIDE, PASTA, and NIST, which focus on software system privacy, system security, application security, and data-centric risk, respectively. When applied to the exposure notification system (ENS) context, these models provide a thorough view of the software side but fall short in addressing the integrated nature of hardware, humans, regulations, and software involved in such systems. Our approach addresses ENSsas a whole and provides a model that addresses the privacy complexities of a multi-faceted solution. We define privacy principles, privacy threats, attacker capabilities, and a comprehensive threat model. Finally, we outline threat mitigation strategies that address the various threats defined in our model | 翻訳日:2023-05-01 00:24:01 公開日:2020-09-25 |
# 単純な実用的な量子ビットコミットメントプロトコル A simple practical quantum bit commitment protocol ( http://arxiv.org/abs/2009.13263v1 ) ライセンス: Link先を確認 | Muqian Wen | (参考訳) 我々は,非破壊測定や長期量子メモリの技術的制約の少ない実用的な量子ビットコミットメントプロトコルを提案し,非条件で安全な状態に近づいた。 We proposed a practical quantum bit commitment protocol that possibly requires less technological limitations on non-demolition measurements and long-term quantum memories and moves closer to be unconditionally secure. | 翻訳日:2023-05-01 00:23:41 公開日:2020-09-25 |
# 量子コンピュータは、量子化学において、どのように産業的に関連する計算上の利点を提供するのか? How will quantum computers provide an industrially relevant computational advantage in quantum chemistry? ( http://arxiv.org/abs/2009.12472v1 ) ライセンス: Link先を確認 | V.E. Elfving, B.W. Broer, M. Webber, J. Gavartin, M.D. Halls, K. P. Lorton, A. Bochevarov | (参考訳) 多くの報告は、量子コンピュータの出現の直接的な結果として生じるであろう量子優位は、科学者がこれまで不可能だった量子化学シミュレーションを行うことができるため、新しい化学研究の時代を告げるだろうと主張している。
このような量子コンピュータのシミュレーションは、はるかに高い精度と速度を約束しており、現実を探究し、化学実験の結果を予測し、薬物、触媒、物質の設計を推し進める方法に大きな影響を与えると予測されている。
本稿では,量子ハードウェアとアルゴリズム理論の現状を概観し,量子アドバンテージに関する一般的な主張が本当にトランスフォーメーションであるかどうかを考察する。
量子コンピュータに関する議論で見過ごされがちな量子化学研究の微妙な複雑さについて考察する。
数種類の分子の化学的精度で量子コンピュータ上で計算を行うのに必要な量子コンピュータ資源を推定する。
特に、古典的および量子的コンピュータに関連する資源と時間を直接比較して、基底集合の大きさを増加させるための分子 h$_2$ と casci と casscf 法の範囲内の様々な完全活性空間 (cas) に対する cr$_2$ を比較する。
chromium dimer で得られた結果は,量子コンピュータ上で非動的相関の計算を行うアクティブスペースのサイズを,古典コンピュータの類似計算よりも少ない時間で見積もることができる。
この結果を用いて, 量子コンピュータの利用が産業応用に有益であり, 短期的に有益である化学応用の種類を推算する。 Numerous reports claim that quantum advantage, which should emerge as a direct consequence of the advent of quantum computers, will herald a new era of chemical research because it will enable scientists to perform the kinds of quantum chemical simulations that have not been possible before. Such simulations on quantum computers, promising a significantly greater accuracy and speed, are projected to exert a great impact on the way we can probe reality, predict the outcomes of chemical experiments, and even drive design of drugs, catalysts, and materials. In this work we review the current status of quantum hardware and algorithm theory and examine whether such popular claims about quantum advantage are really going to be transformative. We go over subtle complications of quantum chemical research that tend to be overlooked in discussions involving quantum computers. We estimate quantum computer resources that will be required for performing calculations on quantum computers with chemical accuracy for several types of molecules. In particular, we directly compare the resources and timings associated with classical and quantum computers for the molecules H$_2$ for increasing basis set sizes, and Cr$_2$ for a variety of complete active spaces (CAS) within the scope of the CASCI and CASSCF methods. The results obtained for the chromium dimer enable us to estimate the size of the active space at which computations of non-dynamic correlation on a quantum computer should take less time than analogous computations on a classical computer. Using this result, we speculate on the types of chemical applications for which the use of quantum computers would be both beneficial and relevant to industrial applications in the short term. | 翻訳日:2023-05-01 00:23:38 公開日:2020-09-25 |
# ARMA Nets: ディエンス予測のための受容領域を広げる ARMA Nets: Expanding Receptive Field for Dense Prediction ( http://arxiv.org/abs/2002.11609v2 ) ライセンス: Link先を確認 | Jiahao Su, Shiqi Wang, Furong Huang | (参考訳) グローバルな情報は、画像の各ピクセルの離散的または連続的なラベルを計算することを目的として、密度の高い予測問題に不可欠である。
ニューラルネットワークの従来の畳み込み層は、当初は画像分類用に設計されていたが、フィルタサイズが受容野を制限するため、これらの問題には制限がある。
本研究では,従来の畳み込み層を自己回帰移動平均(arma)層に置き換え,学習可能な自己回帰係数によって制御される適応可能な受容場を有する新規モジュールを提案する。
従来の畳み込み層と比較して、我々のARMA層は出力ニューロンの明示的な相互結合を可能にし、相互結合の自己回帰係数を適応させることで受容場を学習する。
ARMA層は、グローバル情報が不可欠であるタスクに対して、入力全体をカバーする出力ニューロンの受容野を許容する比較的大きな自己回帰係数を学習することが可能であり、ローカル情報のみを必要とするタスクに対しては、小さなあるいはほぼゼロの自己回帰係数を学習し、従来の畳み込み層に自動的に還元することができる。
我々は,ARMA層を有するネットワークの有効受容場(ARMAネットワーク)が,より大きい自己回帰係数で拡張されることを理論的および実証的に示す。
また、再パラメータ化機構により、ARMA層における学習と予測の不安定性の問題を確実に解決する。
さらに,ARMAネットワークは,映像予測やセマンティックセグメンテーションといった難易度の高い予測タスクのベースラインを大幅に改善することを示した。 Global information is essential for dense prediction problems, whose goal is to compute a discrete or continuous label for each pixel in the images. Traditional convolutional layers in neural networks, initially designed for image classification, are restrictive in these problems since the filter size limits their receptive fields. In this work, we propose to replace any traditional convolutional layer with an autoregressive moving-average (ARMA) layer, a novel module with an adjustable receptive field controlled by the learnable autoregressive coefficients. Compared with traditional convolutional layers, our ARMA layer enables explicit interconnections of the output neurons and learns its receptive field by adapting the autoregressive coefficients of the interconnections. ARMA layer is adjustable to different types of tasks: for tasks where global information is crucial, it is capable of learning relatively large autoregressive coefficients to allow for an output neuron's receptive field covering the entire input; for tasks where only local information is required, it can learn small or near zero autoregressive coefficients and automatically reduces to a traditional convolutional layer. We show both theoretically and empirically that the effective receptive field of networks with ARMA layers (named as ARMA networks) expands with larger autoregressive coefficients. We also provably solve the instability problem of learning and prediction in the ARMA layer through a re-parameterization mechanism. Additionally, we demonstrate that ARMA networks substantially improve their baselines on challenging dense prediction tasks including video prediction and semantic segmentation. | 翻訳日:2022-12-31 22:43:40 公開日:2020-09-25 |
# 型付き依存を用いた文意味モデリングのための拡張木lstmアーキテクチャ An enhanced Tree-LSTM architecture for sentence semantic modeling using typed dependencies ( http://arxiv.org/abs/2002.07775v2 ) ライセンス: Link先を確認 | Jeena Kleenankandy, K. A. Abdul Nazeer (Department of Computer Science and Engineering, National Institute of Technology Calicut, Kerala, India) | (参考訳) 木ベースのLong short term memory(LSTM)ネットワークは、文法構文を効果的に活用し、文の単語間の非線形依存を効果的に活用できるため、言語テキストの意味をモデル化するための最先端技術となっている。
しかし、これらのモデルの多くは文構造において文法的関係(タイプド依存(typed dependencies)とも呼ばれる)のタイプを認めていないため、単語や句の意味的役割の変化による意味の違いを認識できない。
本稿では、制御入力を用いてシーケンスの2つの入力間の関係をモデル化できる、リレーショナルゲートLSTMと呼ばれる拡張LSTMアーキテクチャを提案する。
また、文依存解析構造と依存型を用いて、文の意味を密度の高いベクトルに埋め込む、Typed Dependency Tree-LSTMモデルも導入した。
提案したモデルは,2つの典型的なNLPタスクであるセマンティック相対性スコアリングと感性分析において,より少ない数のトレーニングエポックにおいて,そのタイプ非認識よりも優れていた。
結果は、他の最先端モデルと同等か、あるいは競合するものだった。
質的分析により、文の声の変化はモデルの予測スコアにほとんど影響を与えなかったが、名目(名詞)の単語の変化はより大きな影響を与えた。
モデルは文対の微妙な意味関係を認識する。
学習された型付き依存関係の埋め込みの大きさも人間の直感と一致していた。
この研究は文のモデリングにおける文法的関係の重要性を示唆している。
提案されたモデルは、この方向への将来の研究の基盤となる。 Tree-based Long short term memory (LSTM) network has become state-of-the-art for modeling the meaning of language texts as they can effectively exploit the grammatical syntax and thereby non-linear dependencies among words of the sentence. However, most of these models cannot recognize the difference in meaning caused by a change in semantic roles of words or phrases because they do not acknowledge the type of grammatical relations, also known as typed dependencies, in sentence structure. This paper proposes an enhanced LSTM architecture, called relation gated LSTM, which can model the relationship between two inputs of a sequence using a control input. We also introduce a Tree-LSTM model called Typed Dependency Tree-LSTM that uses the sentence dependency parse structure as well as the dependency type to embed sentence meaning into a dense vector. The proposed model outperformed its type-unaware counterpart in two typical NLP tasks - Semantic Relatedness Scoring and Sentiment Analysis, in a lesser number of training epochs. The results were comparable or competitive with other state-of-the-art models. Qualitative analysis showed that changes in the voice of sentences had little effect on the model's predicted scores, while changes in nominal (noun) words had a more significant impact. The model recognized subtle semantic relationships in sentence pairs. The magnitudes of learned typed dependencies embeddings were also in agreement with human intuitions. The research findings imply the significance of grammatical relations in sentence modeling. The proposed models would serve as a base for future researches in this direction. | 翻訳日:2022-12-30 18:59:11 公開日:2020-09-25 |
# 最適予測手順の逆モンテカルロメタラーニング Adversarial Monte Carlo Meta-Learning of Optimal Prediction Procedures ( http://arxiv.org/abs/2002.11275v2 ) ライセンス: Link先を確認 | Alex Luedtke, Incheoul Chung, Oleg Sofrygin | (参考訳) 2人プレイゲームにおける最適戦略の探索として,予測手順のメタラーニングを行う。
本ゲームでは,特徴と関連する結果からなるラベル付きデータを生成する先行分布を選択し,その先行分布からサンプリングしたデータを予測器が観測する。
予測器の目的は、新しい特徴から関連する結果の見積にマップする関数を学習することである。
合理的な条件下では、予測者は結果のシフトと再スケーリングに等しく、観察の置換や特徴のシフト、再スケーリング、置換に不変な最適戦略を持つ。
これらの特性を満たすニューラルネットワークアーキテクチャを導入する。
提案手法は, パラメトリック実験と非パラメトリック実験の両方において, 標準手法と比較して好適に機能する。 We frame the meta-learning of prediction procedures as a search for an optimal strategy in a two-player game. In this game, Nature selects a prior over distributions that generate labeled data consisting of features and an associated outcome, and the Predictor observes data sampled from a distribution drawn from this prior. The Predictor's objective is to learn a function that maps from a new feature to an estimate of the associated outcome. We establish that, under reasonable conditions, the Predictor has an optimal strategy that is equivariant to shifts and rescalings of the outcome and is invariant to permutations of the observations and to shifts, rescalings, and permutations of the features. We introduce a neural network architecture that satisfies these properties. The proposed strategy performs favorably compared to standard practice in both parametric and nonparametric experiments. | 翻訳日:2022-12-28 14:33:31 公開日:2020-09-25 |
# 文脈自由文法のためのベクトル記号アーキテクチャ Vector symbolic architectures for context-free grammars ( http://arxiv.org/abs/2003.05171v2 ) ライセンス: Link先を確認 | Peter beim Graben, Markus Huber, Werner Meyer, Ronald R\"omer and Matthias Wolff | (参考訳) バックグラウンド/紹介。
ベクトル記号アーキテクチャ (vector symbolic architectures, vsa) は、文書、構文構造、意味フレームといった記号データの超次元表現に対して実行可能なアプローチである。
メソッド。
本稿では、Fock空間における句構造木と文脈自由文法(CFG)のパース木を表現するための厳密な数学的枠組み、すなわち、場の量子論で用いられる無限次元ヒルベルト空間について述べる。
我々は項代数を用いてcfgの新しい正規形式を定義する。
FockBoxと呼ばれる最近開発されたソフトウェアツールボックスを用いて、CFG左コーンパーサ(LC)によって構築されたツリーのFock空間表現を構築する。
結果だ
我々は、フォック空間におけるCFG項代数の普遍的表現定理を証明し、LCパーサ状態の低次元主成分射影を通して結果を説明する。
結論だ
このアプローチは、超次元深層神経計算による説明可能な人工知能(xai)のためのvsaの開発を活用できる。
これは機械学習における認知的ユーザインタフェースや他のvsaの応用の改善に重要な意味を持つかもしれない。 Background / introduction. Vector symbolic architectures (VSA) are a viable approach for the hyperdimensional representation of symbolic data, such as documents, syntactic structures, or semantic frames. Methods. We present a rigorous mathematical framework for the representation of phrase structure trees and parse trees of context-free grammars (CFG) in Fock space, i.e. infinite-dimensional Hilbert space as being used in quantum field theory. We define a novel normal form for CFG by means of term algebras. Using a recently developed software toolbox, called FockBox, we construct Fock space representations for the trees built up by a CFG left-corner (LC) parser. Results. We prove a universal representation theorem for CFG term algebras in Fock space and illustrate our findings through a low-dimensional principal component projection of the LC parser states. Conclusions. Our approach could leverage the development of VSA for explainable artificial intelligence (XAI) by means of hyperdimensional deep neural computation. It could be of significance for the improvement of cognitive user interfaces and other applications of VSA in machine learning. | 翻訳日:2022-12-24 15:15:50 公開日:2020-09-25 |
# 敵パッチの認証防御 Certified Defenses for Adversarial Patches ( http://arxiv.org/abs/2003.06693v2 ) ライセンス: Link先を確認 | Ping-Yeh Chiang, Renkun Ni, Ahmed Abdelkader, Chen Zhu, Christoph Studer, Tom Goldstein | (参考訳) 敵パッチ攻撃は、現実世界のコンピュータビジョンシステムに対する最も実用的な脅威モデルの一つである。
本稿では,パッチ攻撃に対する認証と実証的防御について述べる。
既存の防御技術のほとんどは、入力画像の事前処理によって敵のパッチを軽減し、単純なホワイトボックスの敵によって容易に破壊されることを示す実験から始まります。
本研究は,パッチアタックに対する最初の認証された防御法を提案し,より高速な訓練方法を提案する。
さらに, 異なるパッチ形状を試験し, 驚くほど良好な形状のロバスト性伝達を得るとともに, スパース攻撃に対する防御効果を検証した。
私たちの完全な実装は、https://github.com/Ping-C/certifiedpatchdefense.comで確認できます。 Adversarial patch attacks are among one of the most practical threat models against real-world computer vision systems. This paper studies certified and empirical defenses against patch attacks. We begin with a set of experiments showing that most existing defenses, which work by pre-processing input images to mitigate adversarial patches, are easily broken by simple white-box adversaries. Motivated by this finding, we propose the first certified defense against patch attacks, and propose faster methods for its training. Furthermore, we experiment with different patch shapes for testing, obtaining surprisingly good robustness transfer across shapes, and present preliminary results on certified defense against sparse attacks. Our complete implementation can be found on: https://github.com/Ping-C/certifiedpatchdefense. | 翻訳日:2022-12-23 20:02:17 公開日:2020-09-25 |
# 知識蒸留の合理的な有効性について-カーネルレジームの分析 On the Unreasonable Effectiveness of Knowledge Distillation: Analysis in the Kernel Regime ( http://arxiv.org/abs/2003.13438v2 ) ライセンス: Link先を確認 | Arman Rahbar, Ashkan Panahi, Chiranjib Bhattacharyya, Devdatt Dubhashi, Morteza Haghir Chehreghani | (参考訳) 知識蒸留(英: knowledge distillation, kd)とは、ある分類器が他の分類器の出力に基づいて訓練される技術である。
分類器は他の分類器の出力をソフトラベルとしてトレーニングした場合、基底的真理データではなく、より高速かつ確実に学習することが観察されている。
しかし、この現象の理論的分析はほとんど、あるいは全く行われていない。
我々は、モデルとレジームにおける超広い2層非線形ネットワークの設定において、kdの最初の理論的解析を提供する(arora et al., 2019; du & hu, 2019; cao & gu, 2019)。
本稿では,学生ネットワークが学習する内容と,学生ネットワークの収束率について検証する。
興味深いことに、このモデルで宝くじの仮説(Frankle & Carbin, 2019)を確認します。
結果を証明するために,線形系のダイナミクスから手法のレパートリーを拡張する。
理論的結果を検証し,さらなる知見を得るための実験分析を行う。 Knowledge distillation (KD), i.e. one classifier being trained on the outputs of another classifier, is an empirically very successful technique for knowledge transfer between classifiers. It has even been observed that classifiers learn much faster and more reliably if trained with the outputs of another classifier as soft labels, instead of from ground truth data. However, there has been little or no theoretical analysis of this phenomenon. We provide the first theoretical analysis of KD in the setting of extremely wide two layer non-linear networks in model and regime in (Arora et al., 2019; Du & Hu, 2019; Cao & Gu, 2019). We prove results on what the student network learns and on the rate of convergence for the student network. Intriguingly, we also confirm the lottery ticket hypothesis (Frankle & Carbin, 2019) in this model. To prove our results, we extend the repertoire of techniques from linear systems dynamics. We give corresponding experimental analysis that validates the theoretical results and yields additional insights. | 翻訳日:2022-12-18 06:39:48 公開日:2020-09-25 |
# インタラクティブムーブメントプリミティブ:果実摘みのためのオクルディングピースをプッシュする計画 Interactive Movement Primitives: Planning to Push Occluding Pieces for Fruit Picking ( http://arxiv.org/abs/2004.12916v2 ) ライセンス: Link先を確認 | Sariah Mghames, Marc Hanheide and Amir Ghalamzan E | (参考訳) ロボット技術は、果物を摘むための主要な手段と考えられている。
しかし、密集クラスタ内で果実を摘むことは、従来の計画手法では、密集クラスタ内で熟した果実に到達する衝突のない動きが見つからないため、動き/経路計画の観点から難しい研究課題を課している。
このような場合、ロボットは熟していない果物を安全に押して熟す必要がある。
それにもかかわらず、雑然とした環境での推進運動を計画するための既存のアプローチは計算コストが高いか、2次元のケースのみに対応しており、短期間で3次元のプッシュ動作を計算する必要があるフルーツピッキングには適していない。
そこで本研究では,果実を熟した果実に手を伸ばして収穫する経路計画法を提案する。
提案手法は対話的確率的運動プリミティブ(i-promp)と呼ばれ,計算コストは高くない(計算時間は100ミリ秒のオーダーである)。
我々は,イチゴをシミュレートしたポリトンネルで押すことで,このアプローチの効率を実証する。
実験結果から,I-ProMPはイチゴの表皮を圧搾し,熟成させた。 Robotic technology is increasingly considered the major mean for fruit picking. However, picking fruits in a dense cluster imposes a challenging research question in terms of motion/path planning as conventional planning approaches may not find collision-free movements for the robot to reach-and-pick a ripe fruit within a dense cluster. In such cases, the robot needs to safely push unripe fruits to reach a ripe one. Nonetheless, existing approaches to planning pushing movements in cluttered environments either are computationally expensive or only deal with 2-D cases and are not suitable for fruit picking, where it needs to compute 3-D pushing movements in a short time. In this work, we present a path planning algorithm for pushing occluding fruits to reach-and-pick a ripe one. Our proposed approach, called Interactive Probabilistic Movement Primitives (I-ProMP), is not computationally expensive (its computation time is in the order of 100 milliseconds) and is readily used for 3-D problems. We demonstrate the efficiency of our approach with pushing unripe strawberries in a simulated polytunnel. Our experimental results confirm I-ProMP successfully pushes table top grown strawberries and reaches a ripe one. | 翻訳日:2022-12-09 05:48:51 公開日:2020-09-25 |
# VGGSound:大規模オーディオ・ビジュアル・データセット VGGSound: A Large-scale Audio-Visual Dataset ( http://arxiv.org/abs/2004.14368v2 ) ライセンス: Link先を確認 | Honglie Chen, Weidi Xie, Andrea Vedaldi, Andrew Zisserman | (参考訳) 我々のゴールは、コンピュータビジョン技術を用いて、野生の動画からラベルの低い大規模オーディオ視覚データセットを収集することである。
得られたデータセットは、オーディオ認識モデルのトレーニングと評価に使用することができる。
我々は3つの貢献をした。
まず,オープンソースのメディアから音声データセットを作成するために,コンピュータビジョン技術に基づくスケーラブルなパイプラインを提案する。
パイプラインは、youtubeからビデオを取得し、画像分類アルゴリズムを使用して音声と視覚の対応をローカライズし、オーディオ検証を使用して周囲のノイズをフィルタリングする。
第2に、このパイプラインを使用して、310のオーディオクラス用の210k以上のビデオからなるVGGSoundデータセットをキュレートする。
第3に,様々な畳み込みニューラルネットワーク~(cnn)アーキテクチャとアグリゲーションアプローチを調査し,新たなデータセットのための音声認識ベースラインを確立する。
既存の音声データセットと比較して、VGGSoundは音声と視覚の対応を保証し、制約のない条件下で収集する。
コードとデータセットはhttp://www.robots.ox.uk/~vgg/data/vggsound/で入手できる。 Our goal is to collect a large-scale audio-visual dataset with low label noise from videos in the wild using computer vision techniques. The resulting dataset can be used for training and evaluating audio recognition models. We make three contributions. First, we propose a scalable pipeline based on computer vision techniques to create an audio dataset from open-source media. Our pipeline involves obtaining videos from YouTube; using image classification algorithms to localize audio-visual correspondence; and filtering out ambient noise using audio verification. Second, we use this pipeline to curate the VGGSound dataset consisting of more than 210k videos for 310 audio classes. Third, we investigate various Convolutional Neural Network~(CNN) architectures and aggregation approaches to establish audio recognition baselines for our new dataset. Compared to existing audio datasets, VGGSound ensures audio-visual correspondence and is collected under unconstrained conditions. Code and the dataset are available at http://www.robots.ox.ac.uk/~vgg/data/vggsound/ | 翻訳日:2022-12-08 14:36:30 公開日:2020-09-25 |
# 知識グラフにおける創発的実体に対する説明可能なリンク予測 Explainable Link Prediction for Emerging Entities in Knowledge Graphs ( http://arxiv.org/abs/2005.00637v2 ) ライセンス: Link先を確認 | Rajarshi Bhowmik and Gerard de Melo | (参考訳) 大規模なカバレッジにもかかわらず、クロスドメインの知識グラフは本質的に不完全性とスパーシリティに悩まされている。
リンク予測は、ソースエンティティとクエリ関係が与えられたターゲットエンティティを推論することで、これを緩和することができる。
最近の埋め込みベースアプローチはエンティティとリレーションの解釈不能な潜在意味ベクトル空間で動作し、パスベースアプローチはシンボリック空間で動作し、推論プロセスが説明可能である。
しかしながら、これらのアプローチは一般的に知識グラフの静的スナップショットを考慮し、新たな実体を持つ知識グラフの進化に対する適用性を厳しく制限する。
この問題を克服するために,未確認エンティティの表現を学習可能な帰納的表現学習フレームワークを提案する。
提案手法は,ソースと対象エンティティ間の推論経路を見つけ,未知のエンティティのリンク予測を解釈し,推論されたリンクに対する支持証拠を提供する。 Despite their large-scale coverage, cross-domain knowledge graphs invariably suffer from inherent incompleteness and sparsity. Link prediction can alleviate this by inferring a target entity, given a source entity and a query relation. Recent embedding-based approaches operate in an uninterpretable latent semantic vector space of entities and relations, while path-based approaches operate in the symbolic space, making the inference process explainable. However, these approaches typically consider static snapshots of the knowledge graphs, severely restricting their applicability for evolving knowledge graphs with newly emerging entities. To overcome this issue, we propose an inductive representation learning framework that is able to learn representations of previously unseen entities. Our method finds reasoning paths between source and target entities, thereby making the link prediction for unseen entities interpretable and providing support evidence for the inferred link. | 翻訳日:2022-12-08 00:05:20 公開日:2020-09-25 |
# trippy: 値独立型ニューラルネットワークダイアログ状態追跡のためのトリプルコピー戦略 TripPy: A Triple Copy Strategy for Value Independent Neural Dialog State Tracking ( http://arxiv.org/abs/2005.02877v4 ) ライセンス: Link先を確認 | Michael Heck, Carel van Niekerk, Nurul Lubis, Christian Geishauser, Hsien-Chin Lin, Marco Moresi, Milica Ga\v{s}i\'c | (参考訳) タスク指向ダイアログシステムは、対話中のユーザの目標を監視するために、ダイアログ状態追跡(DST)に依存する。
マルチドメインとオープン語彙の設定はタスクをかなり複雑化し、スケーラブルなソリューションを必要とします。
本稿では,スロットを値で埋めるために様々なコピー機構を利用するDSTの新しい手法を提案する。
私たちのモデルは、候補値のリストを保持する必要はありません。
代わりに、すべての値はオンザフライでダイアログコンテキストから抽出される。
スロットは3つのコピーメカニズムの1つで満たされている: 1)スパン予測はユーザ入力から直接値を抽出することができる;(2)システムのインフォメーション操作を追跡するシステムインフォメーションメモリから値がコピーされる可能性がある;(3)既にダイアログに含まれている異なるスロットから値をコピーしてドメイン内およびドメイン間の共参照を解決することができる。
提案手法は,スパンベースのスロット充填方式の利点とメモリメソッドを組み合わせることで,値ピックリストの使用を完全に回避する。
我々の戦略はDSTタスクを単純化し、同時にMultiwoz 2.1を含む様々な評価セットにおけるアートパフォーマンスの状態を達成し、共同目標精度を55%を超えて達成する。 Task-oriented dialog systems rely on dialog state tracking (DST) to monitor the user's goal during the course of an interaction. Multi-domain and open-vocabulary settings complicate the task considerably and demand scalable solutions. In this paper we present a new approach to DST which makes use of various copy mechanisms to fill slots with values. Our model has no need to maintain a list of candidate values. Instead, all values are extracted from the dialog context on-the-fly. A slot is filled by one of three copy mechanisms: (1) Span prediction may extract values directly from the user input; (2) a value may be copied from a system inform memory that keeps track of the system's inform operations; (3) a value may be copied over from a different slot that is already contained in the dialog state to resolve coreferences within and across domains. Our approach combines the advantages of span-based slot filling methods with memory methods to avoid the use of value picklists altogether. We argue that our strategy simplifies the DST task while at the same time achieving state of the art performance on various popular evaluation sets including Multiwoz 2.1, where we achieve a joint goal accuracy beyond 55%. | 翻訳日:2022-12-06 05:32:58 公開日:2020-09-25 |
# 生物医学における教師付き・半教師付き関係抽出のための逆学習 Adversarial Learning for Supervised and Semi-supervised Relation Extraction in Biomedical Literature ( http://arxiv.org/abs/2005.04277v2 ) ライセンス: Link先を確認 | Peng Su and K. Vijay-Shanker | (参考訳) 逆行訓練は、訓練過程における逆行例を含むことにより、モデル性能を改善する技術である。
本稿では,関係抽出タスクの利点を享受するために,複数の対向例を用いた対向訓練について検討する。
また,非ラベルデータを活用するために,半教師ありシナリオにおける逆訓練手法を適用した。
タンパク質-タンパク質相互作用およびタンパク質細胞内局在化タスクの評価結果は, 教師付きモデルの改善効果を示し, 半教師付き訓練症例におけるラベルなしデータの導入にも有効である。
さらに,本手法は2つのベンチマークデータセットの最先端性能を実現する。 Adversarial training is a technique of improving model performance by involving adversarial examples in the training process. In this paper, we investigate adversarial training with multiple adversarial examples to benefit the relation extraction task. We also apply adversarial training technique in semi-supervised scenarios to utilize unlabeled data. The evaluation results on protein-protein interaction and protein subcellular localization task illustrate adversarial training provides improvement on the supervised model, and is also effective on involving unlabeled data in the semi-supervised training case. In addition, our method achieves state-of-the-art performance on two benchmarking datasets. | 翻訳日:2022-12-05 11:50:06 公開日:2020-09-25 |
# zeroth-order adversarial bandit convex optimization に対する後悔の改善 Improved Regret for Zeroth-Order Adversarial Bandit Convex Optimisation ( http://arxiv.org/abs/2006.00475v3 ) ライセンス: Link先を確認 | Tor Lattimore | (参考訳) 零次対逆帯域凸最適化に対するミニマックス後悔の情報理論上界は、少なくとも$O(d^{2.5} \sqrt{n} \log(n))$であり、$d$は次元であり、$n$は相互作用の数である。
これはbubeck et al. (2017) によって $o(d^{9.5} \sqrt{n} \log(n)^{7.5}$ で改善される。
この証明は、凸関数の探索分布を改善することに基づいている。 We prove that the information-theoretic upper bound on the minimax regret for zeroth-order adversarial bandit convex optimisation is at most $O(d^{2.5} \sqrt{n} \log(n))$, where $d$ is the dimension and $n$ is the number of interactions. This improves on $O(d^{9.5} \sqrt{n} \log(n)^{7.5}$ by Bubeck et al. (2017). The proof is based on identifying an improved exploratory distribution for convex functions. | 翻訳日:2022-11-26 12:31:39 公開日:2020-09-25 |
# 二重構造によるクロスドメイン模倣学習 Cross-Domain Imitation Learning with a Dual Structure ( http://arxiv.org/abs/2006.01494v3 ) ライセンス: Link先を確認 | Sungho Choi, Seungyul Han, Woojun Kim, Youngchul Sung | (参考訳) 本稿では,対象ドメイン内のエージェントが,報酬機能にアクセスせずにソースドメインのエキスパートデモンストレーションを観察することで,対象ドメイン内で適切に実行する方針を学習するクロスドメイン模倣学習(cdil)について検討する。
模倣学習におけるドメイン差を克服するために, 二重構造学習法を提案する。
提案手法は,1つのベクターがドメイン情報,もう1つのベクターがポリシーエキスパート情報を含む各入力観測から2つの特徴ベクトルを抽出し,ターゲットドメイン情報とポリシーエキスパート情報の両方を含む新たな特徴ベクトルを合成することで機能ベクターを強化する。
提案手法は,画像の角度や色によって領域差が決定される MuJoCo タスク上でテストされる。
その結果,提案手法は他のアルゴリズムよりもcdilの性能が優れており,ドメイン差のない模倣学習とほぼ同等の性能が得られることがわかった。 In this paper, we consider cross-domain imitation learning (CDIL) in which an agent in a target domain learns a policy to perform well in the target domain by observing expert demonstrations in a source domain without accessing any reward function. In order to overcome the domain difference for imitation learning, we propose a dual-structured learning method. The proposed learning method extracts two feature vectors from each input observation such that one vector contains domain information and the other vector contains policy expertness information, and then enhances feature vectors by synthesizing new feature vectors containing both target-domain and policy expertness information. The proposed CDIL method is tested on several MuJoCo tasks where the domain difference is determined by image angles or colors. Numerical results show that the proposed method shows superior performance in CDIL to other existing algorithms and achieves almost the same performance as imitation learning without domain difference. | 翻訳日:2022-11-25 23:25:31 公開日:2020-09-25 |
# ニューラルネットワークにおけるトロイジャン検出器設計のための科学計算装置 Scientific Calculator for Designing Trojan Detectors in Neural Networks ( http://arxiv.org/abs/2006.03707v2 ) ライセンス: Link先を確認 | Peter Bajcsy and Nicholas J. Schaub and Michael Majurski | (参考訳) 本研究では、NNモデルに埋め込まれたトロイの木馬を検出するために、Webベースのインタラクティブニューラルネットワーク(NN)計算機と、NN非効率の測定を行った。
このNN CalculatorはTensorFlow Playground上に設計されており、データとNNグラフと係数のインメモリストレージを備えている。
トレーニングデータセットやNNアーキテクチャで実行される分析、可視化、出力操作を備えた「科学計算器の様」である。
プロトタイプはhttps://pages.nist.gov/nn-calculatorでアクセスできる。
この分析能力は、NNモデル状態のヒストグラムに適用された修正Kullback-Liebler(KL)偏差を用いたNN非効率の新たな測定と、データやNNに関連する変数に対する感度の定量化を含む。
NN Calculator と KL divergence は、様々なトロヤ群埋め込みのためのトロヤ群検出器アプローチを考案するために用いられる。
実験結果は、NNアーキテクチャとデータセット摂動に関するKL分散測定の望ましい性質と、組込みトロイの木馬に関する推論を文書化した。 This work presents a web-based interactive neural network (NN) calculator and a NN inefficiency measurement that has been investigated for the purpose of detecting trojans embedded in NN models. This NN Calculator is designed on top of TensorFlow Playground with in-memory storage of data and NN graphs plus coefficients. It is "like a scientific calculator" with analytical, visualization, and output operations performed on training datasets and NN architectures. The prototype is aaccessible at https://pages.nist.gov/nn-calculator. The analytical capabilities include a novel measurement of NN inefficiency using modified Kullback-Liebler (KL) divergence applied to histograms of NN model states, as well as a quantification of the sensitivity to variables related to data and NNs. Both NN Calculator and KL divergence are used to devise a trojan detector approach for a variety of trojan embeddings. Experimental results document desirable properties of the KL divergence measurement with respect to NN architectures and dataset perturbations, as well as inferences about embedded trojans. | 翻訳日:2022-11-25 04:27:28 公開日:2020-09-25 |
# VATEX Video Captioning Challenge 2020のためのNITS-VCシステム NITS-VC System for VATEX Video Captioning Challenge 2020 ( http://arxiv.org/abs/2006.04058v2 ) ライセンス: Link先を確認 | Alok Singh, Thoudam Doren Singh and Sivaji Bandyopadhyay | (参考訳) ビデオキャプションは、ビデオの内容、イベント、アクションを短いテキスト形式で要約するプロセスであり、ビデオガイド機械翻訳、ビデオ感情分析、必要な個人への支援など、多くの研究領域で役立つ。
本稿では,VATEX-2020ビデオキャプションチャレンジに使用されるフレームワークのシステム記述について述べる。
3次元畳み込みニューラルネットワーク(c3d)を用いて映像の視覚的特徴を符号化するエンコーダ・デコーダベースの手法を採用し、デコードフェーズでは2つの長短記憶(lstm)リカレントネットワークを用いて、視覚特徴と入力キャプションを別々に融合し、両lstmの出力間で要素的に生成することにより最終的な出力を生成する。
公開テストデータセットとプライベートテストデータセットでそれぞれ0.20と0.22のbleuスコアを達成できる。 Video captioning is process of summarising the content, event and action of the video into a short textual form which can be helpful in many research areas such as video guided machine translation, video sentiment analysis and providing aid to needy individual. In this paper, a system description of the framework used for VATEX-2020 video captioning challenge is presented. We employ an encoder-decoder based approach in which the visual features of the video are encoded using 3D convolutional neural network (C3D) and in the decoding phase two Long Short Term Memory (LSTM) recurrent networks are used in which visual features and input captions are fused separately and final output is generated by performing element-wise product between the output of both LSTMs. Our model is able to achieve BLEU scores of 0.20 and 0.22 on public and private test data sets respectively. | 翻訳日:2022-11-24 08:13:52 公開日:2020-09-25 |
# lfd-protonet:局地的なフィッシャー判別分析に基づく原型的ネットワーク LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant Analysis for Few-shot Learning ( http://arxiv.org/abs/2006.08306v2 ) ライセンス: Link先を確認 | Kei Mukaiyama, Issei Sato, Masashi Sugiyama | (参考訳) prototypical network (protonet) は、各クラスのプロトタイプ表現までの距離を使ってメトリック学習と分類を行う、数少ない学習フレームワークである。
最近、実装が簡単で、非常に拡張性があり、実験でうまく機能するため、多くの注目を集めています。
しかし、サポートベクトルの平均をプロトタイプとして考慮するだけで、サポートセットが高い分散度を持つ場合、性能が低下する。
本稿では,ProtoNetとローカルフィッシャー識別分析を組み合わせることで,局所的なクラス内共分散を低減し,サポートセットの局所的なクラス間共分散を増大させることを提案する。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。 The prototypical network (ProtoNet) is a few-shot learning framework that performs metric learning and classification using the distance to prototype representations of each class. It has attracted a great deal of attention recently since it is simple to implement, highly extensible, and performs well in experiments. However, it only takes into account the mean of the support vectors as prototypes and thus it performs poorly when the support set has high variance. In this paper, we propose to combine ProtoNet with local Fisher discriminant analysis to reduce the local within-class covariance and increase the local between-class covariance of the support set. We show the usefulness of the proposed method by theoretically providing an expected risk bound and empirically demonstrating its superior classification accuracy on miniImageNet and tieredImageNet. | 翻訳日:2022-11-21 03:06:25 公開日:2020-09-25 |
# SnapBoost: 不均一なブースティングマシン SnapBoost: A Heterogeneous Boosting Machine ( http://arxiv.org/abs/2006.09745v2 ) ライセンス: Link先を確認 | Thomas Parnell, Andreea Anghel, Malgorzata Lazuka, Nikolas Ioannou, Sebastian Kurella, Peshal Agarwal, Nikolaos Papandreou, Haralampos Pozidis | (参考訳) xgboostやlightgbmといった現代の勾配ブースティングソフトウェアフレームワークは、関数空間でニュートン降下を実装する。
それぞれのブースティングイテレーションにおいて、彼らの目標は、ユークリッド的な意味でニュートン降下方向に最も近いいくつかの基底仮説クラスから選択された基底仮説を見つけることである。
通常、基本仮説クラスは与えられた深さまですべての二分決定木に固定される。
本研究では,ベース仮説クラスがブースティングイテレーションによって異なる可能性がある異種ニュートンブースティングマシン(hnbm)について検討する。
具体的には、各ブースティングイテレーションにおいて、確率分布からサンプリングすることにより、固定されたサブクラスのセットからベース仮説クラスを選択する。
特定の仮定の下でHNBMに対する大域的線形収束速度を導出し、ニュートン方向が各ブースティング繰り返しで基底仮説に完全に適合できる場合、ニュートン法に対する既存の速度と一致することを示す。
次に、HNBM、SnapBoostの特定の実現法として、各ブースティングイテレーションにおいて、可変深さの決定木またはランダムなフーリエ特徴を持つ線形回帰木のいずれかをランダムに選択する。
トレーニングの複雑さに重点を置いたSnapBoostの実装方法について説明する。
最後に、OpenMLとKaggleデータセットを使用して実験結果を示す。これはSnapBoostが、チューニングにかなり時間がかからず、競合するブースティングフレームワークよりも優れた一般化損失を達成可能であることを示している。 Modern gradient boosting software frameworks, such as XGBoost and LightGBM, implement Newton descent in a functional space. At each boosting iteration, their goal is to find the base hypothesis, selected from some base hypothesis class, that is closest to the Newton descent direction in a Euclidean sense. Typically, the base hypothesis class is fixed to be all binary decision trees up to a given depth. In this work, we study a Heterogeneous Newton Boosting Machine (HNBM) in which the base hypothesis class may vary across boosting iterations. Specifically, at each boosting iteration, the base hypothesis class is chosen, from a fixed set of subclasses, by sampling from a probability distribution. We derive a global linear convergence rate for the HNBM under certain assumptions, and show that it agrees with existing rates for Newton's method when the Newton direction can be perfectly fitted by the base hypothesis at each boosting iteration. We then describe a particular realization of a HNBM, SnapBoost, that, at each boosting iteration, randomly selects between either a decision tree of variable depth or a linear regressor with random Fourier features. We describe how SnapBoost is implemented, with a focus on the training complexity. Finally, we present experimental results, using OpenML and Kaggle datasets, that show that SnapBoost is able to achieve better generalization loss than competing boosting frameworks, without taking significantly longer to tune. | 翻訳日:2022-11-19 19:33:55 公開日:2020-09-25 |
# msmd-net: マルチスケールおよびマルチディメンションコストボリュームによるディープステレオマッチング MSMD-Net: Deep Stereo Matching with Multi-scale and Multi-dimension Cost Volume ( http://arxiv.org/abs/2006.12797v2 ) ライセンス: Link先を確認 | Zhelun Shen, Yuchao Dai, Zhibo Rao | (参考訳) ディープラーニングベースのステレオマッチング手法は、さまざまなベンチマークデータセット(KITTI、Middlebury、ETH3Dなど)にわたるリーダーボードで見られるように、大きな成功を収めている。
しかし、実際のシナリオでは最先端のパフォーマンスを実現するためのアプローチが必要となるだけでなく、既存の方法では満足できないリアルタイムの速度とドメイン横断の一般化も必要となる。
本稿では,MSMD-Net(Multi-Scale and Multi-Dimension)を提案する。
マルチスケールレベルで、異なるスケールで4つの4D組み合わせボリュームを生成し、エンコーダデコーダプロセスと統合して初期差分推定を行う。
マルチディメンションレベルでは、さらに3次元ゆがんだ相関ボリュームを構築し、それを用いて残差学習による初期格差マップを洗練する。
これらの2次元コストボリュームは互いに相補的であり、異質性推定の性能を高めることができる。
さらに,事前学習過程に現れる過剰適合問題を緩和し,最終不一致推定の一般化能力と精度をさらに向上させるスイッチトレーニング戦略を提案する。
提案手法は,いくつかのベンチマークデータセットで評価され,kitti 2012 leaderboardで第1位,kitti 2015 leaderboardで第2位となった。
さらに,提案手法は強いドメイン横断一般化を示し,3倍から5倍の速さで先行作業の最高性能を上回っている。
MSMD-Netのコードはhttps://github.com/gallenszl/MSMD-Netで公開されている。 Deep end-to-end learning based stereo matching methods have achieved great success as witnessed by the leaderboards across different benchmarking datasets (KITTI, Middlebury, ETH3D, etc). However, real scenarios not only require approaches to have state-of-the-art performance but also real-time speed and domain-across generalization, which cannot be satisfied by existing methods. In this paper, we propose MSMD-Net (Multi-Scale and Multi-Dimension) to construct multi-scale and multi-dimension cost volume. At the multi-scale level, we generate four 4D combination volumes at different scales and integrate them with an encoder-decoder process to predict an initial disparity estimation. At the multi-dimension level, we additionally construct a 3D warped correlation volume and use it to refine the initial disparity map with residual learning. These two dimensional cost volumes are complementary to each other and can boost the performance of disparity estimation. Additionally, we propose a switch training strategy to alleviate the overfitting issue appeared in the pre-training process and further improve the generalization ability and accuracy of final disparity estimation. Our proposed method was evaluated on several benchmark datasets and ranked first on KITTI 2012 leaderboard and second on KITTI 2015 leaderboard as of September 9. In addition, our method shows strong domain-across generalization and outperforms best prior work by a noteworthy margin with three or even five times faster speed. The code of MSMD-Net is available at https://github.com/gallenszl/MSMD-Net. | 翻訳日:2022-11-17 23:20:47 公開日:2020-09-25 |
# トランスフォーマーに基づくニューラルモデルを用いたベトナム語テキストのシーケンスタギングの改善 Improving Sequence Tagging for Vietnamese Text Using Transformer-based Neural Models ( http://arxiv.org/abs/2006.15994v4 ) ライセンス: Link先を確認 | Viet Bui The, Oanh Tran Thi, Phuong Le-Hong | (参考訳) 本稿では,ベトナム語のシーケンスタギングタスクを改善するために,変異言語bert埋め込みを用いた新しいニューラルモデルについて述べる。
新しいモデルアーキテクチャを提案し、VLSP 2016 と VLSP 2018 の2つの名前付きエンティティ認識データセットとVLSP 2010 と VLSP 2013 の2つの部分音声タグ付けデータセットで広く評価する。
提案手法は既存手法より優れ, 新たな最先端結果が得られる。
特に、VLSP 2010 コーパスで95.40%、VLSP 2013 コーパスで96.77%、VLSP 2016 コーパスで94.07%、VLSP 2018 コーパスで90.31%となっている。
我々のコードと事前訓練されたモデルである viBERT と vELECTRA は、採用とさらなる研究を容易にするためにオープンソースとしてリリースされている。 This paper describes our study on using mutilingual BERT embeddings and some new neural models for improving sequence tagging tasks for the Vietnamese language. We propose new model architectures and evaluate them extensively on two named entity recognition datasets of VLSP 2016 and VLSP 2018, and on two part-of-speech tagging datasets of VLSP 2010 and VLSP 2013. Our proposed models outperform existing methods and achieve new state-of-the-art results. In particular, we have pushed the accuracy of part-of-speech tagging to 95.40% on the VLSP 2010 corpus, to 96.77% on the VLSP 2013 corpus; and the F1 score of named entity recognition to 94.07% on the VLSP 2016 corpus, to 90.31% on the VLSP 2018 corpus. Our code and pre-trained models viBERT and vELECTRA are released as open source to facilitate adoption and further research. | 翻訳日:2022-11-15 14:41:23 公開日:2020-09-25 |
# 柔軟モジュラーロボットにおける歩行周波数運動のためのスパイクニューラルステートマシン Spiking neural state machine for gait frequency entrainment in a flexible modular robot ( http://arxiv.org/abs/2007.07346v2 ) ライセンス: Link先を確認 | Alex Spaeth, Maryam Tebyani, David Haussler, Mircea Teodorescu | (参考訳) 3つのスパイクニューロンからなる双安定緩和振動子モジュールに基づく神経形態的閉ループ制御のためのモジュラーアーキテクチャを提案する。
生体のプロトタイプと同様に、この基本成分はパラメータの変動に頑健であるが、外部入力によって変調することができる。
これらのモジュールを組み合わせることで、脚の移動に必要な反復的または反復的な振る舞いを生成できるニューラルステートマシンを構築することができる。
4つのモジュールに編成された12個のニューロンの最小限のシステムにより、ロボットの自然な周波数に順応した前方クロール歩行を生成できる、柔軟なプラスチック体積画素で構築されたモジュラーロボットにより、このアプローチの具体的なケーススタディが提供される。 We propose a modular architecture for neuromorphic closed-loop control based on bistable relaxation oscillator modules consisting of three spiking neurons each. Like its biological prototypes, this basic component is robust to parameter variation but can be modulated by external inputs. By combining these modules, we can construct a neural state machine capable of generating the cyclic or repetitive behaviors necessary for legged locomotion. A concrete case study for the approach is provided by a modular robot constructed from flexible plastic volumetric pixels, in which we produce a forward crawling gait entrained to the natural frequency of the robot by a minimal system of twelve neurons organized into four modules. | 翻訳日:2022-11-10 14:33:21 公開日:2020-09-25 |
# TAnoGAN:生成逆ネットワークを用いた時系列異常検出 TAnoGAN: Time Series Anomaly Detection with Generative Adversarial Networks ( http://arxiv.org/abs/2008.09567v2 ) ライセンス: Link先を確認 | Md Abul Bashar, Richi Nayak | (参考訳) 時系列データの異常検出は、製造、医療画像、サイバーセキュリティなど、多くの応用分野において直面する重要な問題である。
近年,GAN(Generative Adversarial Networks)が画像領域の生成と異常検出に注目されている。
本稿では,少数のデータポイントが利用可能な時系列の異常を検出するための新しいganベースの非教師なし手法であるtanoganを提案する。
さまざまな領域をカバーする46のリアルタイム時系列データセットを用いて,TAnoGanを評価する。
広範な実験結果から、タノガンは従来のニューラルネットワークモデルよりも優れた性能を示す。 Anomaly detection in time series data is a significant problem faced in many application areas such as manufacturing, medical imaging and cyber-security. Recently, Generative Adversarial Networks (GAN) have gained attention for generation and anomaly detection in image domain. In this paper, we propose a novel GAN-based unsupervised method called TAnoGan for detecting anomalies in time series when a small number of data points are available. We evaluate TAnoGan with 46 real-world time series datasets that cover a variety of domains. Extensive experimental results show that TAnoGan performs better than traditional and neural network models. | 翻訳日:2022-10-26 20:53:39 公開日:2020-09-25 |
# オープン戦略におけるミニサム承認投票の有効性について-エージェントベースアプローチ On the Effectiveness of Minisum Approval Voting in an Open Strategy Setting: An Agent-Based Approach ( http://arxiv.org/abs/2009.04912v2 ) ライセンス: Link先を確認 | Joop van de Heijning, Stephan Leitner, Alexandra Rausch | (参考訳) この研究は、中程度または高度に複雑な環境で活動する組織のパフォーマンスに、戦略立案プロセスに幅広い参加者を含めることの影響を調査している。
エージェントベースのシミュレーションは、大規模で多様な集団から生み出されたアイデアの数の増加と、その後の嗜好の集約が、組織のパフォーマンスランドスケープにおける高いピークの迅速な発見につながることを示した。
しかし、参加者数の増加が小さい場合はそうではない。
その結果、オープンストラテジーの文献で最も頻繁に言及される利点は、より良いパフォーマンス戦略の発見である。 This work researches the impact of including a wider range of participants in the strategy-making process on the performance of organizations which operate in either moderately or highly complex environments. Agent-based simulation demonstrates that the increased number of ideas generated from larger and diverse crowds and subsequent preference aggregation lead to rapid discovery of higher peaks in the organization's performance landscape. However, this is not the case when the expansion in the number of participants is small. The results confirm the most frequently mentioned benefit in the Open Strategy literature: the discovery of better performing strategies. | 翻訳日:2022-10-21 03:24:47 公開日:2020-09-25 |
# AIとウォーゲーム AI and Wargaming ( http://arxiv.org/abs/2009.08922v2 ) ライセンス: Link先を確認 | James Goodman, Sebastian Risi, Simon Lucas | (参考訳) ゲームAIの最近の進歩は、人間のゲームプレイやシミュレーションによる経験から得られる十分なデータが与えられれば、マシンはGoのような古典的なゲームやStarcraftのような商用コンピュータゲームにおいて、最も熟練した人間のプレイヤーと競合したり、追い越したりできることを示した。
我々は、ウォーゲーミングのレンズを通して現在の最先端の技術をレビューし、ウォーゲームのどの特徴が通常のAIテストベッドと区別しているかを第一に問う。 Recent progress in Game AI has demonstrated that given enough data from human gameplay, or experience gained via simulations, machines can rival or surpass the most skilled human players in classic games such as Go, or commercial computer games such as Starcraft. We review the current state-of-the-art through the lens of wargaming, and ask firstly what features of wargames distinguish them from the usual AI testbeds, and secondly which recent AI advances are best suited to address these wargame-specific features. | 翻訳日:2022-10-17 03:09:09 公開日:2020-09-25 |
# SCREENet:高分解能合成マンモグラフィスクリーニングスキャンの分類のための多視点深層畳み込みニューラルネットワーク SCREENet: A Multi-view Deep Convolutional Neural Network for Classification of High-resolution Synthetic Mammographic Screening Scans ( http://arxiv.org/abs/2009.08563v3 ) ライセンス: Link先を確認 | Saeed Seyyedi, Margaret J. Wong, Debra M. Ikeda, Curtis P. Langlotz | (参考訳) 目的:デジタル乳房トモシンセプション検診症例の高分解能合成マンモグラム解析のための多視点深層学習手法の精度を開発し,評価し,画像解像度とトレーニングセットサイズに及ぼす影響を評価すること。
対象と方法: 振り返り調査では, 当施設で得たデジタル乳房トモシンセプション(DBT)検査を21,264点, 関連する放射線検査とともに収集した。
これらの試験から得られた2次元合成マンモグラフィー画像は、様々な解像度とデータセットサイズで、画像のスクリーニングをBI-RADSクラス(BI-RADS 0, 1, 2)に分類するための多視点深層畳み込みニューラルネットワーク(MV-CNN)の訓練に使用された。
結果: BI-RADS 0 と非BI-RADS 0 の受信機動作特性曲線 (AUC) は 0.912 であった。
精度は84.8%、リコールは95.9%、精度は95.0%であった。
このAUC値は、同じモデルを50%と25%の画像でトレーニングした時に減少した(AUC = 0.877, P=0.010, 0.834, P=0.009)。
また、1/2と1/4のアンダーサンプリング画像(AUC = 0.870, P=0.011, 0.813, P=0.009)を用いて同じモデルをトレーニングすると、性能が低下した。
結論: このディープラーニングモデルは、高分解能合成マンモグラフィスキャンを正常に分類し、数万の高分解能画像を用いたさらなる作業を必要とする。
トレーニングデータセットが小さくなり、解像度の低い画像も性能が大幅に低下した。 Purpose: To develop and evaluate the accuracy of a multi-view deep learning approach to the analysis of high-resolution synthetic mammograms from digital breast tomosynthesis screening cases, and to assess the effect on accuracy of image resolution and training set size. Materials and Methods: In a retrospective study, 21,264 screening digital breast tomosynthesis (DBT) exams obtained at our institution were collected along with associated radiology reports. The 2D synthetic mammographic images from these exams, with varying resolutions and data set sizes, were used to train a multi-view deep convolutional neural network (MV-CNN) to classify screening images into BI-RADS classes (BI-RADS 0, 1 and 2) before evaluation on a held-out set of exams. Results: Area under the receiver operating characteristic curve (AUC) for BI-RADS 0 vs non-BI-RADS 0 class was 0.912 for the MV-CNN trained on the full dataset. The model obtained accuracy of 84.8%, recall of 95.9% and precision of 95.0%. This AUC value decreased when the same model was trained with 50% and 25% of images (AUC = 0.877, P=0.010 and 0.834, P=0.009 respectively). Also, the performance dropped when the same model was trained using images that were under-sampled by 1/2 and 1/4 (AUC = 0.870, P=0.011 and 0.813, P=0.009 respectively). Conclusion: This deep learning model classified high-resolution synthetic mammography scans into normal vs needing further workup using tens of thousands of high-resolution images. Smaller training data sets and lower resolution images both caused significant decrease in performance. | 翻訳日:2022-10-17 02:52:29 公開日:2020-09-25 |
# DisPATCH:サイバー物理システムの設計空間探索 DISPATCH: Design Space Exploration of Cyber-Physical Systems ( http://arxiv.org/abs/2009.10214v2 ) ライセンス: Link先を確認 | Prerit Terway, Kenza Hamidouche, and Niraj K. Jha | (参考訳) サイバー物理システム(CPS)の設計は、様々なCPS構成とシステムを構成するコンポーネントの可能な値からなる巨大な検索空間を探索する、困難な作業である。
したがって、対象とするシステム要件を満たすシステムアーキテクチャとコンポーネント値を選択するために、サンプル効率のよいCPS設計スペースを探索する必要がある。
CPS設計を多目的最適化問題として定式化してこの問題に対処し、設計空間上のサンプル効率探索のための2段階の手法であるdisPATCHを提案する。
まず、アーキテクチャ探索とコンポーネント選択のためのシステムコンポーネント値の個別選択、あるいはコンポーネント選択のみを探索し、システム要件を満たす前にアルゴリズムを終了し、粗い設計となるように遺伝的アルゴリズムを用いる。
2番目のステップでは、逆設計を用いて連続した空間を探索し、コンポーネントの値を微調整し、多様なシステム要件を満たす。
我々は,システムの逆設計のためのサロゲート関数としてニューラルネットワークを用いる。
ニューラルネットワークは、混合整数線形プログラムに変換され、アクティブラーニングに使用され、連続探索空間において効率的に成分値をサンプリングする。
本研究では,電気回路ベンチマークにおけるディスパッチの有効性について述べる。
シミュレーションの結果,強化学習による先行合成法と比較して,サンプル効率が5~14倍向上することが示された。
また、強化学習、ベイズ最適化、あるいは人間を用いて合成された設計と比較して、最高の性能(最高帯域幅/低帯域)で回路を合成する。 Design of cyber-physical systems (CPSs) is a challenging task that involves searching over a large search space of various CPS configurations and possible values of components composing the system. Hence, there is a need for sample-efficient CPS design space exploration to select the system architecture and component values that meet the target system requirements. We address this challenge by formulating CPS design as a multi-objective optimization problem and propose DISPATCH, a two-step methodology for sample-efficient search over the design space. First, we use a genetic algorithm to search over discrete choices of system component values for architecture search and component selection or only component selection and terminate the algorithm even before meeting the system requirements, thus yielding a coarse design. In the second step, we use an inverse design to search over a continuous space to fine-tune the component values and meet the diverse set of system requirements. We use a neural network as a surrogate function for the inverse design of the system. The neural network, converted into a mixed-integer linear program, is used for active learning to sample component values efficiently in a continuous search space. We illustrate the efficacy of DISPATCH on electrical circuit benchmarks: two-stage and three-stage transimpedence amplifiers. Simulation results show that the proposed methodology improves sample efficiency by 5-14x compared to a prior synthesis method that relies on reinforcement learning. It also synthesizes circuits with the best performance (highest bandwidth/lowest area) compared to designs synthesized using reinforcement learning, Bayesian optimization, or humans. | 翻訳日:2022-10-16 04:07:30 公開日:2020-09-25 |
# オンラインソーシャルネットワークにおける統合性維持 Preserving Integrity in Online Social Networks ( http://arxiv.org/abs/2009.10311v3 ) ライセンス: Link先を確認 | Alon Halevy, Cristian Canton Ferrer, Hao Ma, Umut Ozertem, Patrick Pantel, Marzieh Saeidi, Fabrizio Silvestri, Ves Stoyanov | (参考訳) オンラインソーシャルネットワークは情報共有と自由表現のためのプラットフォームを提供する。
しかし、これらのネットワークは、誤情報やヘイトスピーチの配布、違法薬物の販売、性売買や児童虐待の調整など、悪意ある目的にも利用されている。
本稿では,オンラインプラットフォームとそのユーザをこのような害から安全に保つ技術の現状について調査する。
この調査は、Facebookで広範囲の整合性違反と戦わなければならないという観点から得られたものだ。
我々は,実践上有用であることが証明され,学術界から注目に値するテクニックを強調した。
多くの個別の違反タイプを議論する代わりに、ソーシャルメディアのエコシステムの重要な側面を特定し、それぞれが多種多様な違反タイプに共通している。
さらに、これらのコンポーネントは研究と開発のための領域を表しており、発見されるイノベーションは広く適用することができる。 Online social networks provide a platform for sharing information and free expression. However, these networks are also used for malicious purposes, such as distributing misinformation and hate speech, selling illegal drugs, and coordinating sex trafficking or child exploitation. This paper surveys the state of the art in keeping online platforms and their users safe from such harm, also known as the problem of preserving integrity. This survey comes from the perspective of having to combat a broad spectrum of integrity violations at Facebook. We highlight the techniques that have been proven useful in practice and that deserve additional attention from the academic community. Instead of discussing the many individual violation types, we identify key aspects of the social-media eco-system, each of which is common to a wide variety violation types. Furthermore, each of these components represents an area for research and development, and the innovations that are found can be applied widely. | 翻訳日:2022-10-15 23:02:03 公開日:2020-09-25 |
# grace:アスペクトベース感情分析のための勾配調和ラベルとカスケードラベル GRACE: Gradient Harmonized and Cascaded Labeling for Aspect-based Sentiment Analysis ( http://arxiv.org/abs/2009.10557v2 ) ライセンス: Link先を確認 | Huaishao Luo, Lei Ji, Tianrui Li, Nan Duan, Daxin Jiang | (参考訳) 本稿では,シーケンスラベリングタスクとして扱う場合,アスペクト項抽出やアスペクト感情分類においてほとんど研究されていない不均衡問題に焦点を当てる。
さらに、以前の作品は通常、極性を示す場合のアスペクト項間の相互作用を無視する。
我々はこれらの問題を解決するために、GRACE(GRadient hArmonized and CascadEd labeling model)を提案する。
具体的には、アスペクト項間の交換を強化し、感情極性をラベル付けする際の感情トークンの注意を向上するカスケードラベルモジュールを開発する。
極性シーケンスは生成されたアスペクト項ラベルに依存するように設計されている。
不均衡問題を緩和するため,各ラベルの重みを動的に調整することにより,対象検出に用いる勾配調和機構をアスペクトベース感情分析に拡張する。
提案されたGRACEは、後述のBERTをバックボーンとして採用している。
実験の結果,提案モデルでは,複数のベンチマークデータセットの一貫性が向上し,最新の結果が得られた。 In this paper, we focus on the imbalance issue, which is rarely studied in aspect term extraction and aspect sentiment classification when regarding them as sequence labeling tasks. Besides, previous works usually ignore the interaction between aspect terms when labeling polarities. We propose a GRadient hArmonized and CascadEd labeling model (GRACE) to solve these problems. Specifically, a cascaded labeling module is developed to enhance the interchange between aspect terms and improve the attention of sentiment tokens when labeling sentiment polarities. The polarities sequence is designed to depend on the generated aspect terms labels. To alleviate the imbalance issue, we extend the gradient harmonized mechanism used in object detection to the aspect-based sentiment analysis by adjusting the weight of each label dynamically. The proposed GRACE adopts a post-pretraining BERT as its backbone. Experimental results demonstrate that the proposed model achieves consistency improvement on multiple benchmark datasets and generates state-of-the-art results. | 翻訳日:2022-10-15 22:24:11 公開日:2020-09-25 |
# realtoxicityprompts:言語モデルにおける神経毒性変性の評価 RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language Models ( http://arxiv.org/abs/2009.11462v2 ) ライセンス: Link先を確認 | Samuel Gehman, Suchin Gururangan, Maarten Sap, Yejin Choi, Noah A. Smith | (参考訳) 事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、セクシスト、その他の有害な言語を生成する傾向がある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
英文 web テキストの大規模なコーパスから派生した文レベルのプロンプトを,広く使用されている毒性分類器の毒性スコアと組み合わせて,100kの自然発生のデータセットである realtoxicityprompts を作成し,公開する。
realtoxicity promptsを使って、トレーニング済みのlmsは一見無害なプロンプトからでも有害なテキストに変形する。
複数の制御可能な生成法を実証的に評価し、データまたは計算集約型手法(例えば、非毒性データに対する適応的事前訓練)がより単純な解(例えば「悪い」語を禁止する)よりも毒性から逃げるのに効果的であるのに対し、現在の方法が神経毒性変性に対してフェイルセーフではないことを発見した。
このような有害な変性の潜在的な原因を特定するために、いくつかのLM(GPT-2、Radford et. al, 2019)を事前訓練するために使用される2つのウェブテキストコーパスを分析し、かなりの量の攻撃的、事実上信頼できない、その他の有害な内容を見つける。
lmsによる有害な世代を評価するためのテストベッドを提供し、事前トレーニングのためのより良いデータ選択プロセスの必要性を強調します。 Pretrained neural language models (LMs) are prone to generating racist, sexist, or otherwise toxic language which hinders their safe deployment. We investigate the extent to which pretrained LMs can be prompted to generate toxic language, and the effectiveness of controllable text generation algorithms at preventing such toxic degeneration. We create and release RealToxicityPrompts, a dataset of 100K naturally occurring, sentence-level prompts derived from a large corpus of English web text, paired with toxicity scores from a widely-used toxicity classifier. Using RealToxicityPrompts, we find that pretrained LMs can degenerate into toxic text even from seemingly innocuous prompts. We empirically assess several controllable generation methods, and find that while data- or compute-intensive methods (e.g., adaptive pretraining on non-toxic data) are more effective at steering away from toxicity than simpler solutions (e.g., banning "bad" words), no current method is failsafe against neural toxic degeneration. To pinpoint the potential cause of such persistent toxic degeneration, we analyze two web text corpora used to pretrain several LMs (including GPT-2; Radford et. al, 2019), and find a significant amount of offensive, factually unreliable, and otherwise toxic content. Our work provides a test bed for evaluating toxic generations by LMs and stresses the need for better data selection processes for pretraining. | 翻訳日:2022-10-15 04:50:54 公開日:2020-09-25 |
# ブラックボックス攻撃のクエリ効率の改善 Improving Query Efficiency of Black-box Adversarial Attack ( http://arxiv.org/abs/2009.11508v2 ) ライセンス: Link先を確認 | Yang Bai and Yuyuan Zeng and Yong Jiang and Yisen Wang and Shu-Tao Xia and Weiwei Guo | (参考訳) ディープニューラルネットワーク(DNN)は、様々なタスクにおいて優れたパフォーマンスを示しているが、ターゲットモデルが攻撃者(ホワイトボックス設定)にアクセス可能な場合に容易に生成できる敵のサンプルの危険性がある。
アクセス不能なモデル(google cloud vision apiなど)からのクエリ出力のみを提供するオンラインサービスを通じて、多くのマシンラーニングモデルがデプロイされているため、ブラックボックスの敵攻撃(アクセス不能なターゲットモデル)は、ホワイトボックスのモデルではなく、実際には重要なセキュリティ上の懸念である。
しかし、既存のクエリベースのブラックボックス攻撃は、高い攻撃成功率を維持するために過剰なモデルクエリを必要とすることが多い。
そこで,クエリ効率を向上させるために,ニューラルプロセスによって特徴付けられる画像構造情報を用いてベニグインプットの対角的例の分布を探索し,ニューラルプロセスに基づくブラックボックス対向攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に減少させる可能性がある。 Deep neural networks (DNNs) have demonstrated excellent performance on various tasks, however they are under the risk of adversarial examples that can be easily generated when the target model is accessible to an attacker (white-box setting). As plenty of machine learning models have been deployed via online services that only provide query outputs from inaccessible models (e.g. Google Cloud Vision API2), black-box adversarial attacks (inaccessible target model) are of critical security concerns in practice rather than white-box ones. However, existing query-based black-box adversarial attacks often require excessive model queries to maintain a high attack success rate. Therefore, in order to improve query efficiency, we explore the distribution of adversarial examples around benign inputs with the help of image structure information characterized by a Neural Process, and propose a Neural Process based black-box adversarial attack (NP-Attack) in this paper. Extensive experiments show that NP-Attack could greatly decrease the query counts under the black-box setting. | 翻訳日:2022-10-15 04:03:28 公開日:2020-09-25 |
# 最適化の視点からみた半監督ノード分類におけるグラフ畳み込みネットワークの再検討 Revisiting Graph Convolutional Network on Semi-Supervised Node Classification from an Optimization Perspective ( http://arxiv.org/abs/2009.11469v2 ) ライセンス: Link先を確認 | Hongwei Zhang, Tijin Yan, Zenjun Xie, Yuanqing Xia, Yuan Zhang | (参考訳) グラフ畳み込みネットワーク(GCN)は、様々なグラフベースのタスクにおいて有望な性能を達成した。
しかし、より多くのレイヤを積み重ねるときに過剰なスムーズに苦しむ。
本稿では,この観測を定量的に研究し,より深いGCNに対する新たな洞察を開拓する。
まず、最適化の観点から現在のグラフ畳み込み操作を解釈し、過度な平滑化は最適化問題に対する解の単純な一階近似によって主に引き起こされると論じる。
次に,ノードレベルのタスクのオーバー・スムーシングを測定するための2つの指標を提案する。
具体的には、接続されたノードと切断されたノード間の対距離の分数と全体距離をそれぞれ計算する。
本理論および実証分析に基づき,最適化の観点からGCNの普遍的理論的枠組みを確立し,パラメータ量が低いGCN+という新しい畳み込みカーネルを創出する。
実世界のデータセットに対する大規模な実験は、ノード分類タスクにおける最先端のベースライン手法よりもGCN+の方が優れた性能を示す。 Graph convolutional networks (GCNs) have achieved promising performance on various graph-based tasks. However they suffer from over-smoothing when stacking more layers. In this paper, we present a quantitative study on this observation and develop novel insights towards the deeper GCN. First, we interpret the current graph convolutional operations from an optimization perspective and argue that over-smoothing is mainly caused by the naive first-order approximation of the solution to the optimization problem. Subsequently, we introduce two metrics to measure the over-smoothing on node-level tasks. Specifically, we calculate the fraction of the pairwise distance between connected and disconnected nodes to the overall distance respectively. Based on our theoretical and empirical analysis, we establish a universal theoretical framework of GCN from an optimization perspective and derive a novel convolutional kernel named GCN+ which has lower parameter amount while relieving the over-smoothing inherently. Extensive experiments on real-world datasets demonstrate the superior performance of GCN+ over state-of-the-art baseline methods on the node classification tasks. | 翻訳日:2022-10-15 03:55:03 公開日:2020-09-25 |
# virtual proximity citation (vcp): 引用近接の理由から未引用論文を関連付ける教師付き深層学習法 Virtual Proximity Citation (VCP): A Supervised Deep Learning Method to Relate Uncited Papers On Grounds of Citation Proximity ( http://arxiv.org/abs/2009.13294v1 ) ライセンス: Link先を確認 | Rohit Rawat | (参考訳) 論文の引用を用いた研究論文の推薦には, 循環型アプローチがよい進展を見せている。
共引用分析や書誌解析よりも,テキスト内引用近接を用いて2つの研究論文間の関連性を見出す引用近接解析の方が優れている。
しかし、それぞれのアプローチに共通する問題は、論文をよく引用すべきことである。
文書が適切に引用されていないか、全く引用されていない場合は、これらのアプローチは役に立たない。
本稿では,この問題を解決するために,シアームニューラルネットワークを用いた仮想引用近接(vcp)アプローチと,引用近接解析とコンテンツベースフィルタリングの概念について述べる。
このモデルをトレーニングするために、文書中の2つの引用間の実際の距離を基底真実として、この距離は2つの引用間の単語カウントである。
VCPはウィキペディアの記事で訓練されており、実際の単語カウントは文書間の類似性を計算するために使用される。
これは、2つの文書間の関係性を、たとえその文書が引用されていなくても、近接して引用されたであろう方法で計算するのに使うことができる。
このアプローチは、平均Citation Proximity指数値を基底真理として用いたアプローチよりも、基本的ニューラルネットワークに近接する予測を大幅に改善した。
これは複雑なニューラルネットワークとパラメータの適切なハイパーチューニングを使用することで改善できる。 Citation based approaches have seen good progress for recommending research papers using citations in the paper. Citation proximity analysis which uses the in-text citation proximity to find relatedness between two research papers is better than co-citation analysis and bibliographic analysis. However, one common problem which exists in each approach is that paper should be well cited. If documents are not cited properly or not cited at all, then using these approaches will not be helpful. To overcome the problem, this paper discusses the approach Virtual Citation Proximity (VCP) which uses Siamese Neural Network along with the notion of citation proximity analysis and content-based filtering. To train this model, the actual distance between the two citations in a document is used as ground truth, this distance is the word count between the two citations. VCP is trained on Wikipedia articles for which the actual word count is available which is used to calculate the similarity between the documents. This can be used to calculate relatedness between two documents in a way they would have been cited in the proximity even if the documents are uncited. This approach has shown a great improvement in predicting proximity with basic neural networks over the approach which uses the Average Citation Proximity index value as the ground truth. This can be improved by using a complex neural network and proper hyper tuning of parameters. | 翻訳日:2022-10-14 23:37:15 公開日:2020-09-25 |
# ガウス過程回帰を用いたインテリジェントタイヤシステムの横力予測 Lateral Force Prediction using Gaussian Process Regression for Intelligent Tire Systems ( http://arxiv.org/abs/2009.12463v1 ) ライセンス: Link先を確認 | Bruno Henrique Groenner Barbosa, Nan Xu, Hassan Askari, Amir Khajepour | (参考訳) タイヤの動的挙動と道路との相互作用を理解することは統合車両制御戦略の設計において重要な役割を果たす。
したがって、タイヤ組込みセンサーによるタイヤと道路の相互作用に関する信頼性の高い情報にアクセスできることは、車両制御システムの開発に非常に要求される。
したがって,本研究の主な目的はiである。
様々な垂直荷重、速度、高い滑り角で、幅広い操作で得られた実験的な加速度計ベースのインテリジェントタイヤのデータを分析する。
機械学習ツール、具体的にはガウスプロセス回帰(GPR)技術に基づく横力予測器を開発する。
提案したインテリジェントタイヤシステムは,高すべり角度であってもタイヤと道路の相互作用について信頼性の高い情報を提供できる。
さらに、GPRに基づく横力モデルは、許容精度で力を予測することができ、車両制御戦略の設計に非常に有用な不確実性レベルを提供することができる。 Understanding the dynamic behavior of tires and their interactions with road plays an important role in designing integrated vehicle control strategies. Accordingly, having access to reliable information about the tire-road interactions through tire embedded sensors is very demanding for developing enhanced vehicle control systems. Thus, the main objectives of the present research work are i. to analyze data from an experimental accelerometer-based intelligent tire acquired over a wide range of maneuvers, with different vertical loads, velocities, and high slip angles; and ii. to develop a lateral force predictor based on a machine learning tool, more specifically the Gaussian Process Regression (GPR) technique. It is delineated that the proposed intelligent tire system can provide reliable information about the tire-road interactions even in the case of high slip angles. Besides, the lateral forces model based on GPR can predict forces with acceptable accuracy and provide level of uncertainties that can be very useful for designing vehicle control strategies. | 翻訳日:2022-10-14 23:35:28 公開日:2020-09-25 |
# HetSeq: 異種インフラストラクチャ上での分散GPUトレーニング HetSeq: Distributed GPU Training on Heterogeneous Infrastructure ( http://arxiv.org/abs/2009.14783v1 ) ライセンス: Link先を確認 | Yifan Ding, Nicholas Botzer and Tim Weninger | (参考訳) PyTorchやTensorflowといった現代のディープラーニングシステムは、分散インフラストラクチャ上で数十億のパラメータを持つ巨大なモデルをトレーニングすることができる。
これらのシステムでは、内部ノードは同じメモリ容量と計算性能を必要とする。
残念なことに、ほとんどの組織、特に大学は、大規模なモデルを計算できない不均一なインフラをもたらすコンピュータシステムを購入するための断片的なアプローチを持っている。
HetSeqは、人気の高いPyTorchパッケージから適応したソフトウェアパッケージで、異種インフラストラクチャ上で大規模なニューラルネットワークモデルをトレーニングする機能を提供する。
トランスフォーマー変換とbert言語モデルを用いた実験により、hetseqは異種システム上でスケールできることが示されている。
HetSeqは画像分類などの他のモデルにも容易に拡張できる。
サポートされているドキュメントのパッケージはhttps://github.com/yifding/hetseqで公開されている。 Modern deep learning systems like PyTorch and Tensorflow are able to train enormous models with billions (or trillions) of parameters on a distributed infrastructure. These systems require that the internal nodes have the same memory capacity and compute performance. Unfortunately, most organizations, especially universities, have a piecemeal approach to purchasing computer systems resulting in a heterogeneous infrastructure, which cannot be used to compute large models. The present work describes HetSeq, a software package adapted from the popular PyTorch package that provides the capability to train large neural network models on heterogeneous infrastructure. Experiments with transformer translation and BERT language model shows that HetSeq scales over heterogeneous systems. HetSeq can be easily extended to other models like image classification. Package with supported document is publicly available at https://github.com/yifding/hetseq. | 翻訳日:2022-10-14 23:35:14 公開日:2020-09-25 |
# semanticvoxels:lidar point cloudとセマンティックセグメンテーションを用いた3次元歩行者検出のためのシーケンシャル融合 SemanticVoxels: Sequential Fusion for 3D Pedestrian Detection using LiDAR Point Cloud and Semantic Segmentation ( http://arxiv.org/abs/2009.12276v1 ) ライセンス: Link先を確認 | Juncong Fei, Wenbo Chen, Philipp Heidenreich, Sascha Wirges, Christoph Stiller | (参考訳) 3d歩行者検出は、歩行者が比較的小さく、しばしば遮蔽され、狭い垂直な物体と混同しやすいため、自動走行において難しい課題である。
LiDARとカメラはこのタスクによく使われる2つのセンサーモードであり、補完的な情報を提供する。
予期せぬことに、lidarのみの検出方法は、公開ベンチマークでマルチセンサー融合法を上回る傾向がある。
近年,画像情報の代わりに意味セグメンテーションネットワークの出力を効果的に活用することにより,この性能低下を解消するためにポイントペイントが提案されている。
本稿では,様々なレベルで核融合を適用できるように,PointPaintingの一般化を提案する。
点雲のセマンティック拡張の後、我々は原点データを柱にエンコードし、幾何学的特徴と意味的点データを取得して意味的特徴を取得し、それらを効果的に融合させる。
KITTIテストセットの実験結果から,セマンティックボクセルは3次元および鳥の視線歩行者検出ベンチマークにおいて,最先端の性能を達成することが示された。
特に,このアプローチは,歩行者の課題を検知する上での強みを示し,現状のアプローチを上回っている。 3D pedestrian detection is a challenging task in automated driving because pedestrians are relatively small, frequently occluded and easily confused with narrow vertical objects. LiDAR and camera are two commonly used sensor modalities for this task, which should provide complementary information. Unexpectedly, LiDAR-only detection methods tend to outperform multisensor fusion methods in public benchmarks. Recently, PointPainting has been presented to eliminate this performance drop by effectively fusing the output of a semantic segmentation network instead of the raw image information. In this paper, we propose a generalization of PointPainting to be able to apply fusion at different levels. After the semantic augmentation of the point cloud, we encode raw point data in pillars to get geometric features and semantic point data in voxels to get semantic features and fuse them in an effective way. Experimental results on the KITTI test set show that SemanticVoxels achieves state-of-the-art performance in both 3D and bird's eye view pedestrian detection benchmarks. In particular, our approach demonstrates its strength in detecting challenging pedestrian cases and outperforms current state-of-the-art approaches. | 翻訳日:2022-10-14 23:35:00 公開日:2020-09-25 |
# 赤外線サーモグラフィによるプラズマ対向成分の炭素沈着マッピングの可能性 A Possible Method of Carbon Deposit Mapping on Plasma Facing Components Using Infrared Thermography ( http://arxiv.org/abs/2010.06374v1 ) ライセンス: Link先を確認 | R Mitteau (IRFM), J Spruytte (IRFM), S Vallet (IRFM), J Trav\`ere (IRFM), D Guilhem (IRFM), C Brosset (IRFM) | (参考訳) プラズマ対向部品の表面から侵食された材料は、高熱流束領域に部分的に再配置される。
これらの場所では、沈着はプラズマによって加熱され、沈着パターンは操作パラメータによって進化する。
堆積物のマッピングは、特に実験的活動の過程で、依然として激しい科学的活動の問題である。
赤外線カメラと理論的モデリングによりその場で得られた表面温度マップの比較に基づく手法を提案する。
両者の相違は, 付着材が添加した耐熱性に起因するものであり, 付着厚みとして表される。
可能性理論やファジィ論理のような精巧なイメージング技術の利点がある。
その結果, 閉鎖時の視覚検査で得られた堆積図と一致した。 The material eroded from the surface of plasma facing components is redeposited partly close to high heat flux areas. At these locations, the deposit is heated by the plasma and the deposition pattern evolves depending on the operation parameters. The mapping of the deposit is still a matter of intense scientific activity, especially during the course of experimental campaigns. A method based on the comparison of surface temperature maps, obtained in situ by infrared cameras and by theoretical modelling is proposed. The difference between the two is attributed to the thermal resistance added by deposited material, and expressed as a deposit thickness. The method benefits of elaborated imaging techniques such as possibility theory and fuzzy logics. The results are consistent with deposit maps obtained by visual inspection during shutdowns. | 翻訳日:2022-10-14 23:34:06 公開日:2020-09-25 |
# MLに基づく可視化レコメンデーション:データから視覚化を推奨する学習 ML-based Visualization Recommendation: Learning to Recommend Visualizations from Data ( http://arxiv.org/abs/2009.12316v1 ) ライセンス: Link先を確認 | Xin Qian, Ryan A. Rossi, Fan Du, Sungchul Kim, Eunyee Koh, Sana Malik, Tak Yeon Lee, Joel Chan | (参考訳) 視覚化のレコメンデーションは、ユーザに有用な視覚化を自動的に生成し、スコア付けし、推奨することを目的としている。
本研究では,大量のデータセットと可視化データを入力し,そのデータに基づいてモデルを学ぶ,エンドツーエンドのmlベース可視化推薦システムを提案する。
そして、任意のユーザから新たな未認識データセットが与えられた場合、モデルが自動的にその新しいデータセットの可視化を生成し、視覚化のためのスコアを導出し、効果によって順序づけられたユーザに推奨される可視化のリストを出力する。
また,大量のビジュアライゼーションとデータセットから学習したビジュアライゼーションレコメンデーションモデルを定量的に評価するための評価フレームワークについても述べる。
定量的実験,ユーザスタディ,質的分析を通じて,我々のエンドツーエンドmlベースシステムは,既存の最先端ルールベースシステムと比較して,より効果的で有用な可視化を推奨することを示した。
最後に、ルールベースシステムとは対照的に、MLベースのシステムで推奨される視覚化(わずか3.45の7点から5.92)に対するユーザスタディにおいて、人間の専門家による強い嗜好が見られた。 Visualization recommendation seeks to generate, score, and recommend to users useful visualizations automatically, and are fundamentally important for exploring and gaining insights into a new or existing dataset quickly. In this work, we propose the first end-to-end ML-based visualization recommendation system that takes as input a large corpus of datasets and visualizations, learns a model based on this data. Then, given a new unseen dataset from an arbitrary user, the model automatically generates visualizations for that new dataset, derive scores for the visualizations, and output a list of recommended visualizations to the user ordered by effectiveness. We also describe an evaluation framework to quantitatively evaluate visualization recommendation models learned from a large corpus of visualizations and datasets. Through quantitative experiments, a user study, and qualitative analysis, we show that our end-to-end ML-based system recommends more effective and useful visualizations compared to existing state-of-the-art rule-based systems. Finally, we observed a strong preference by the human experts in our user study towards the visualizations recommended by our ML-based system as opposed to the rule-based system (5.92 from a 7-point Likert scale compared to only 3.45). | 翻訳日:2022-10-14 23:33:08 公開日:2020-09-25 |
# DeepControl: 生体内7TにおけるB_1^+$不均一およびB_0$オフ共鳴補償を促進する2次元RFパルス DeepControl: 2D RF pulses facilitating $B_1^+$ inhomogeneity and $B_0$ off-resonance compensation in vivo at 7T ( http://arxiv.org/abs/2009.12408v1 ) ライセンス: Link先を確認 | Mads Sloth Vinding, Christoph Stefan Aigner, Sebastian Schmitter, Torben Ellegaard Lund | (参考訳) 目的: 畳み込みニューラルネットワークから予測される7Tにおける被検体比$B_1^+$不均一と$B_0$オフ共振補償を有する高速2次元RFパルス設計について述べる。
方法:畳み込みニューラルネットワークは、50万の単一チャネル送信、2次元RFパルスを、人工的な2Dターゲット、$B_1^+$および$B_0$マップを用いた最適制御法で最適化した。
高分解能GRE配列からのB_1^+$およびB_0$マップを用いて, ファントムおよび生体内7Tで予測パルスを試験した。
結果: 訓練された畳み込みニューラルネットワークによるパルス予測は, MRセッション中, 約9msの複数の手描きROIと, 測定値である$B_1^+$および$B_0$マップで行った。
b_1^+$不均一性とb_0$オフ共振の補償はファントムおよびin vivo実験で確認されている。
再構成画像データは、取得した$B_1^+$および$B_0$mapを用いたシミュレーションとよく一致し、畳み込みニューラルネットワークによって予測される2次元RFパルスは、最適制御により得られる従来のRFパルスと同等である。
結論: 提案した畳み込みニューラルネットワークを用いた2次元RFパルス設計法は, 優れた励起パターンを持つ2次元RFパルスを予測し, 7 Tで$B_1^+$および$B_0$の変動を補正する。 Purpose: Rapid 2D RF pulse design with subject specific $B_1^+$ inhomogeneity and $B_0$ off-resonance compensation at 7 T predicted from convolutional neural networks is presented. Methods: The convolution neural network was trained on half a million single-channel transmit, 2D RF pulses optimized with an optimal control method using artificial 2D targets, $B_1^+$ and $B_0$ maps. Predicted pulses were tested in a phantom and in vivo at 7 T with measured $B_1^+$ and $B_0$ maps from a high-resolution GRE sequence. Results: Pulse prediction by the trained convolutional neural network was done on the fly during the MR session in approximately 9 ms for multiple hand drawn ROIs and the measured $B_1^+$ and $B_0$ maps. Compensation of $B_1^+$ inhomogeneity and $B_0$ off-resonances has been confirmed in the phantom and in vivo experiments. The reconstructed image data agrees well with the simulations using the acquired $B_1^+$ and $B_0$ maps and the 2D RF pulse predicted by the convolutional neural networks is as good as the conventional RF pulse obtained by optimal control. Conclusion: The proposed convolutional neural network based 2D RF pulse design method predicts 2D RF pulses with an excellent excitation pattern and compensated $B_1^+$ and $B_0$ variations at 7 T. The rapid 2D RF pulse prediction (9 ms) enables subject-specific high-quality 2D RF pulses without the need to run lengthy optimizations. | 翻訳日:2022-10-14 23:32:46 公開日:2020-09-25 |
# 空間的文脈幻覚を用いたブラインド画像の超解像 Blind Image Super-Resolution with Spatial Context Hallucination ( http://arxiv.org/abs/2009.12461v1 ) ライセンス: Link先を確認 | Dong Huo, Yee-Hong Yang | (参考訳) ディープ畳み込みニューラルネットワーク(CNN)は、高性能コンピューティングの驚くべき改善以来、シングルイメージ超解像(SISR)において重要な役割を果たす。
しかし、ほとんどの超解像法(sr)は、bicubic分解の回復にのみ焦点を合わせている。
高解像度(HR)画像をランダムにぼかし、ノイズの多い低解像度(LR)画像から再構成することは依然として難しい問題である。
本稿では, 劣化カーネルを知らずに, 視覚的超解像のための空間文脈幻覚ネットワーク(SCHN)を提案する。
ぼやけたカーネルが未知の場合、分離されたデブロアリングと超解像はエラーの蓄積によって性能を制限できる。
そこで我々は,このような問題を回避するために,1つのフレームワークにデノイジング,デブラリング,スーパーレゾリューションを統合する。
DIV2KとFlickr2Kという2つの高品質データセットでモデルをトレーニングします。
入力画像がランダムなぼかしとノイズで劣化した場合, 最先端の手法よりも優れた性能を示す。 Deep convolution neural networks (CNNs) play a critical role in single image super-resolution (SISR) since the amazing improvement of high performance computing. However, most of the super-resolution (SR) methods only focus on recovering bicubic degradation. Reconstructing high-resolution (HR) images from randomly blurred and noisy low-resolution (LR) images is still a challenging problem. In this paper, we propose a novel Spatial Context Hallucination Network (SCHN) for blind super-resolution without knowing the degradation kernel. We find that when the blur kernel is unknown, separate deblurring and super-resolution could limit the performance because of the accumulation of error. Thus, we integrate denoising, deblurring and super-resolution within one framework to avoid such a problem. We train our model on two high quality datasets, DIV2K and Flickr2K. Our method performs better than state-of-the-art methods when input images are corrupted with random blur and noise. | 翻訳日:2022-10-14 23:26:02 公開日:2020-09-25 |
# 機械学習を用いた地球科学における高精細画像分類 High Definition image classification in Geoscience using Machine Learning ( http://arxiv.org/abs/2010.03965v1 ) ライセンス: Link先を確認 | Yajun An, Zachary Golden, Tarka Wilcox, Renzhi Cao | (参考訳) ドローンで撮影した高精細(HD)デジタル写真は地球科学の研究で広く使われている。
しかし、ぼやけた画像はしばしば収集されたデータで撮影され、鮮明な画像をぼやけた画像と区別するのに多くの時間と労力がかかる。
本研究では,SVM(Support Vector Machine)やNN(Neural Network)といった機械学習技術を用いて,GeoscienceのHD画像を明瞭でぼやけたものと分類し,Geoscienceのデータクリーニングを自動化する。
いくつかの数学的モデルから抽象化された特徴に基づいて分類結果を比較する。
私たちの機械学習ツールの実装は、https://github.com/zachgolden/geoai.orgから無料で利用できます。 High Definition (HD) digital photos taken with drones are widely used in the study of Geoscience. However, blurry images are often taken in collected data, and it takes a lot of time and effort to distinguish clear images from blurry ones. In this work, we apply Machine learning techniques, such as Support Vector Machine (SVM) and Neural Network (NN) to classify HD images in Geoscience as clear and blurry, and therefore automate data cleaning in Geoscience. We compare the results of classification based on features abstracted from several mathematical models. Some of the implementation of our machine learning tool is freely available at: https://github.com/zachgolden/geoai. | 翻訳日:2022-10-14 23:25:46 公開日:2020-09-25 |
# コミュニケーション:マルチロボットコラボレーション回避のための効率的なコミュニケーション学習 With Whom to Communicate: Learning Efficient Communication for Multi-Robot Collision Avoidance ( http://arxiv.org/abs/2009.12106v1 ) ライセンス: Link先を確認 | \'Alvaro Serra-G\'omez, Bruno Brito, Hai Zhu, Jen Jen Chung, Javier Alonso-Mora | (参考訳) 分散化されたマルチロボットシステムは通常、すべてのロボットの努力を協調する中央システムの欠如に対処する手段として、意図を常に放送することで協調した動作計画を実行する。
特に複雑な動的環境においては,協調ロボット同士の衝突を避けるためには,コミュニケーションによる協調促進が不可欠である。
しかし、ロボット同士の衝突のリスクは動きによって変動し、通信は必ずしも必要ではない。
さらに、定常的なコミュニケーションは、以前の時間ステップで共有される貴重な情報の多くを冗長にする。
本稿では,複数ロボット衝突回避シナリオにおける"when"と"whom"の課題を解決する効率的な通信手法を提案する。
このアプローチでは、全てのロボットが他のロボットの状態を推論し、他のロボットの軌道計画を求める前に将来の衝突のリスクを考える。
提案する通信戦略を4つのクワッドロータとのシミュレーションで評価・検証し,非通信,ブロードキャスト,事前定義された距離内のクワッドロータを用いた情報ブロードキャスト方式の3つのベースライン戦略と比較した。 Decentralized multi-robot systems typically perform coordinated motion planning by constantly broadcasting their intentions as a means to cope with the lack of a central system coordinating the efforts of all robots. Especially in complex dynamic environments, the coordination boost allowed by communication is critical to avoid collisions between cooperating robots. However, the risk of collision between a pair of robots fluctuates through their motion and communication is not always needed. Additionally, constant communication makes much of the still valuable information shared in previous time steps redundant. This paper presents an efficient communication method that solves the problem of "when" and with "whom" to communicate in multi-robot collision avoidance scenarios. In this approach, every robot learns to reason about other robots' states and considers the risk of future collisions before asking for the trajectory plans of other robots. We evaluate and verify the proposed communication strategy in simulation with four quadrotors and compare it with three baseline strategies: non-communicating, broadcasting and a distance-based method broadcasting information with quadrotors within a predefined distance. | 翻訳日:2022-10-14 23:25:34 公開日:2020-09-25 |
# スマートワールドにおけるマイクロレベルのマルチエージェント意思決定をモデル化するためのシステム計算フレームワーク Towards a Systematic Computational Framework for Modeling Multi-Agent Decision-Making at Micro Level for Smart Vehicles in a Smart World ( http://arxiv.org/abs/2009.12213v1 ) ライセンス: Link先を確認 | Qi Dai, Xunnong Xu, Wen Guo, Suzhou Huang, Dimitar Filev | (参考訳) スマートな世界でのスマートカーのマイクロレベルでの意思決定と戦略的相互作用をモデリングするためのマルチエージェントベースの計算フレームワークを提案する。
マルコフゲームの概念と最良の反応ダイナミクスは大いに活用されている。
本研究の目的は,自律走行車のためのマイクロパス計画など,様々な現実的なアプリケーションに対して,概念的に健全かつ実用的なフレームワークを提供することである。
そこで我々はまず,各エージェントのユーティリティ機能にリスクプレミアムを導入することにより,確率的ゲーム問題を密接に関連する決定論的問題に変換する。
最良応答ダイナミクスに基づくアルゴリズムにより,簡易決定論的ゲームの完全ナッシュ均衡がいかに解くかを示す。
有界合理性を持つ人間の運転行動のモデル化を改善するために,nash平衡条件をヒューリスティックで適応的な最適化に置き換え,有限ルックアヘッド予測に置き換えることで,解の概念をさらに単純化する。
さらに、新しい解の概念に対応するアルゴリズムは計算効率を大幅に向上させる。
この手法を現実的な交通環境に適用できることを示すためにシミュレーション実験を行い、予期せぬ障壁を持つ2車線の高速道路上での挙動のマージと降伏を導出する。
2つの解の概念に関する仮定の違いにもかかわらず、導出された数値解は、固有化駆動挙動が非常によく似ていることを示す。
また,提案フレームワークが今後の作業において,実際のトラヒックビデオデータを用いた行動校正,トラヒックポリシ最適化のための計算機構設計など,さまざまな方向に拡張可能である点についても簡単にコメントする。 We propose a multi-agent based computational framework for modeling decision-making and strategic interaction at micro level for smart vehicles in a smart world. The concepts of Markov game and best response dynamics are heavily leveraged. Our aim is to make the framework conceptually sound and computationally practical for a range of realistic applications, including micro path planning for autonomous vehicles. To this end, we first convert the would-be stochastic game problem into a closely related deterministic one by introducing risk premium in the utility function for each individual agent. We show how the sub-game perfect Nash equilibrium of the simplified deterministic game can be solved by an algorithm based on best response dynamics. In order to better model human driving behaviors with bounded rationality, we seek to further simplify the solution concept by replacing the Nash equilibrium condition with a heuristic and adaptive optimization with finite look-ahead anticipation. In addition, the algorithm corresponding to the new solution concept drastically improves the computational efficiency. To demonstrate how our approach can be applied to realistic traffic settings, we conduct a simulation experiment: to derive merging and yielding behaviors on a double-lane highway with an unexpected barrier. Despite assumption differences involved in the two solution concepts, the derived numerical solutions show that the endogenized driving behaviors are very similar. We also briefly comment on how the proposed framework can be further extended in a number of directions in our forthcoming work, such as behavioral calibration using real traffic video data, computational mechanism design for traffic policy optimization, and so on. | 翻訳日:2022-10-14 23:25:15 公開日:2020-09-25 |
# 自然言語クエリ処理システムに向けて Towards a Natural Language Query Processing System ( http://arxiv.org/abs/2009.12414v1 ) ライセンス: Link先を確認 | Chantal Montgomery, Haruna Isah, Farhana Zulkernine | (参考訳) 非技術データベースエンドユーザと形式的クエリ言語知識を持つユーザの間での情報検索ギャップに取り組むことは、データ管理と分析研究の興味深い分野である。
自然言語インタフェースを使用してデータベースから情報をクエリすることで、形式的なクエリ言語を使用するエンドユーザとシステム間の通信課題を橋渡しする機会を提供する。
従来の研究は、主にリレーショナルデータベースに対する構造化クエリインタフェースの開発に重点を置いていた。
しかし、テキスト、画像、ビデオといった構造化されていないビッグデータの進化は、従来の構造化クエリインタフェースの限界を露呈している。
既存のWeb検索ツールは、自然言語クエリの人気とユーザビリティを証明しているが、焦点を絞ったクエリ応答ではなく、完全なドキュメントとWebページを返却し、データベースシステムには適用できない。
本稿では,自然言語クエリインタフェースとバックエンド関係データベースの設計と開発について報告する。
この研究の目新しさは、自然言語クエリをバックエンドデータベース上で実行できる構造化クエリ言語に変換するために必要なメタデータを格納するための中間層としてグラフデータベースを定義することである。
提案手法をレストランデータセットを用いて実装し,評価した。
サンプルクエリの翻訳結果は90%の精度で得られた。 Tackling the information retrieval gap between non-technical database end-users and those with the knowledge of formal query languages has been an interesting area of data management and analytics research. The use of natural language interfaces to query information from databases offers the opportunity to bridge the communication challenges between end-users and systems that use formal query languages. Previous research efforts mainly focused on developing structured query interfaces to relational databases. However, the evolution of unstructured big data such as text, images, and video has exposed the limitations of traditional structured query interfaces. While the existing web search tools prove the popularity and usability of natural language query, they return complete documents and web pages instead of focused query responses and are not applicable to database systems. This paper reports our study on the design and development of a natural language query interface to a backend relational database. The novelty in the study lies in defining a graph database as a middle layer to store necessary metadata needed to transform a natural language query into structured query language that can be executed on backend databases. We implemented and evaluated our approach using a restaurant dataset. The translation results for some sample queries yielded a 90% accuracy rate. | 翻訳日:2022-10-14 23:24:48 公開日:2020-09-25 |
# 機械学習による化学sulphonationプロセスの自動化に向けて Towards the Automation of a Chemical Sulphonation Process with Machine Learning ( http://arxiv.org/abs/2009.12125v1 ) ライセンス: Link先を確認 | Enrique Garcia-Ceja, {\AA}smund Hugo, Brice Morin, Per-Olav Hansen, Espen Martinsen, An Ngoc Lam, {\O}ystein Haugen | (参考訳) 今日では、産業プロセスの継続的改善と自動化が多くの分野において重要な要素となっているが、化学産業においては例外ではない。
これは資源をより効率的に利用し、生産時間を短縮し、品質を向上し、無駄を減らします。
今日の産業プロセスの複雑さを考えると、情報技術や分析を使わずに監視や最適化が不可能になる。
近年,機械学習手法がプロセスの自動化や意思決定支援に利用されている。
これらすべては、連続的に生成された大量のデータを分析することに基づいている。
本稿では,現在手作業で行われている製品品質分析の自動化を目的として,化学硫黄処理中の機械学習手法を適用した結果について述べる。
プロセスパラメータのデータをランダムフォレスト,ニューラルネットワーク,線形回帰などさまざまなモデルをトレーニングし,製品品質値を予測した。
実験により, 製品品質値を精度良く予測できることが示され, 時間を短縮できる可能性が示唆された。
具体的には, 平均絶対誤差0.089, 相関係数0.978のランダムフォレストを用いて, 最良の結果を得た。 Nowadays, the continuous improvement and automation of industrial processes has become a key factor in many fields, and in the chemical industry, it is no exception. This translates into a more efficient use of resources, reduced production time, output of higher quality and reduced waste. Given the complexity of today's industrial processes, it becomes infeasible to monitor and optimize them without the use of information technologies and analytics. In recent years, machine learning methods have been used to automate processes and provide decision support. All of this, based on analyzing large amounts of data generated in a continuous manner. In this paper, we present the results of applying machine learning methods during a chemical sulphonation process with the objective of automating the product quality analysis which currently is performed manually. We used data from process parameters to train different models including Random Forest, Neural Network and linear regression in order to predict product quality values. Our experiments showed that it is possible to predict those product quality values with good accuracy, thus, having the potential to reduce time. Specifically, the best results were obtained with Random Forest with a mean absolute error of 0.089 and a correlation of 0.978. | 翻訳日:2022-10-14 23:24:14 公開日:2020-09-25 |
# 化学合成プロセスにおけるソフトセンシングに基づく予測の重要度分析 A Feature Importance Analysis for Soft-Sensing-Based Predictions in a Chemical Sulphonation Process ( http://arxiv.org/abs/2009.12133v1 ) ライセンス: Link先を確認 | Enrique Garcia-Ceja, {\AA}smund Hugo, Brice Morin, Per-Olav Hansen, Espen Martinsen, An Ngoc Lam, {\O}ystein Haugen | (参考訳) 本稿では,化学吸音プロセスの特徴的重要性分析の結果について述べる。
このタスクは、活性洗剤の製品品質を特徴づける指標である中性化数(NT)を予測することで構成される。
この予測は、産業化学プロセスから採取された環境測定のデータセットに基づいている。
我々は、関心の変数を直接感知するのではなく、他のプロセス変数に基づいて関心の変数を予測するソフトセンシングアプローチを用いた。
その理由は、高価なセンサーハードウェアから化学反応器内の厳しい環境まで様々である。
本研究の目的は,どの変数が製品品質の予測に最も関連があるか,どの程度の精度で調べ,検出することであった。
線形回帰,回帰木,ランダムフォレストに基づく回帰モデルを訓練した。
ランダム森林モデルを用いて予測変数を重要度でランク付けした。
次に、最も重要なものから始めて、1度に1つの機能を追加することで、前方選択スタイルでモデルをトレーニングしました。
その結果,8変数のうち上位3変数を有効活用して,良好な予測結果が得られることがわかった。
一方、ランダムフォレストでは、すべての変数のトレーニングで最高の結果を得た。 In this paper we present the results of a feature importance analysis of a chemical sulphonation process. The task consists of predicting the neutralization number (NT), which is a metric that characterizes the product quality of active detergents. The prediction is based on a dataset of environmental measurements, sampled from an industrial chemical process. We used a soft-sensing approach, that is, predicting a variable of interest based on other process variables, instead of directly sensing the variable of interest. Reasons for doing so range from expensive sensory hardware to harsh environments, e.g., inside a chemical reactor. The aim of this study was to explore and detect which variables are the most relevant for predicting product quality, and to what degree of precision. We trained regression models based on linear regression, regression tree and random forest. A random forest model was used to rank the predictor variables by importance. Then, we trained the models in a forward-selection style by adding one feature at a time, starting with the most important one. Our results show that it is sufficient to use the top 3 important variables, out of the 8 variables, to achieve satisfactory prediction results. On the other hand, Random Forest obtained the best result when trained with all variables. | 翻訳日:2022-10-14 23:23:58 公開日:2020-09-25 |
# マルチスケール残留ニューラルネットワークを用いた逐次負荷分散 Sequence-to-Sequence Load Disaggregation Using Multi-Scale Residual Neural Network ( http://arxiv.org/abs/2009.12355v1 ) ライセンス: Link先を確認 | Gan Zhou, Zhi Li, Meng Fu, Yanjun Feng, Xingyao Wang and Chengwei Huang | (参考訳) 計測技術の経済性や効率性への需要が高まる中、非侵入負荷モニタリング(NILM)は、電力のモニタリングやユーザへのフィードバックを提供するコスト効率の高い方法として、ますます注目を集めている。
ディープニューラルネットワークは、負荷分散の分野で大きな可能性を示している。
本稿では,より複雑な特徴を学習するために,従来のネットワークがネットワーク層を増加させる際に多かれ少なかれ苦しむような劣化問題を回避するために,残差ブロックに基づく新しい畳み込みモデルを提案する。
次に,モデルパラメータの過剰な量を削減し,より大きな受容場を得るための拡張畳み込みと,よりターゲティングな方法で混合データ特徴を学習するためのマルチスケール構造を提案する。
第3に、特定のルールの下でトレーニングとテストセットの生成について詳細を述べます。
最後に、このアルゴリズムは、既存の3つのニューラルネットワークを備えた、実際の公開データセットであるuk-daleでテストされる。
結果を比較し解析した結果,F1スコア,MAE,各種アプライアンスにおけるモデル複雑性の改善が示された。 With the increased demand on economy and efficiency of measurement technology, Non-Intrusive Load Monitoring (NILM) has received more and more attention as a cost-effective way to monitor electricity and provide feedback to users. Deep neural networks has been shown a great potential in the field of load disaggregation. In this paper, firstly, a new convolutional model based on residual blocks is proposed to avoid the degradation problem which traditional networks more or less suffer from when network layers are increased in order to learn more complex features. Secondly, we propose dilated convolution to curtail the excessive quantity of model parameters and obtain bigger receptive field, and multi-scale structure to learn mixed data features in a more targeted way. Thirdly, we give details about generating training and test set under certain rules. Finally, the algorithm is tested on real-house public dataset, UK-DALE, with three existing neural networks. The results are compared and analysed, the proposed model shows improvements on F1 score, MAE as well as model complexity across different appliances. | 翻訳日:2022-10-14 23:23:41 公開日:2020-09-25 |
# 深層学習に基づく産業制御システムにおけるカバート攻撃同定 Deep Learning based Covert Attack Identification for Industrial Control Systems ( http://arxiv.org/abs/2009.12360v1 ) ライセンス: Link先を確認 | Dan Li, Paritosh Ramanan, Nagi Gebraeel, and Kamran Paynabar | (参考訳) 産業制御システムのサイバーセキュリティ(ICS)は、データ通信が無線ネットワークをますます活用しているため、重大な懸念を招いている。
サイバー攻撃を検出するために多くのデータ駆動型手法が開発されたが、機器の故障と区別することに注力する者は少ない。
本稿では,スマートグリッド上でのcovert攻撃と呼ばれるサイバー攻撃の種類を検出し,診断し,ローカライズするための,データ駆動型フレームワークを開発した。
このフレームワークは、オートエンコーダ、リカレントニューラルネットワーク(RNN)とLong-Short-Term-Memory(LSTM)層とDeep Neural Network(DNN)を組み合わせたハイブリッド設計である。
このデータ駆動フレームワークは、センサ測定の時系列から特徴を抽出する汎用物理システムの時間的挙動を考慮し、隠密な攻撃の検出、機器の故障との区別、アタック/フォールトのローカライズに使用できる。
ICS の典型例として,IEEE 14-bus モデルを用いた実例シミュレーションによる提案手法の性能評価を行った。
提案手法の性能を従来のモデルベース手法と比較し,適用性と有効性を示す。 Cybersecurity of Industrial Control Systems (ICS) is drawing significant concerns as data communication increasingly leverages wireless networks. A lot of data-driven methods were developed for detecting cyberattacks, but few are focused on distinguishing them from equipment faults. In this paper, we develop a data-driven framework that can be used to detect, diagnose, and localize a type of cyberattack called covert attacks on smart grids. The framework has a hybrid design that combines an autoencoder, a recurrent neural network (RNN) with a Long-Short-Term-Memory (LSTM) layer, and a Deep Neural Network (DNN). This data-driven framework considers the temporal behavior of a generic physical system that extracts features from the time series of the sensor measurements that can be used for detecting covert attacks, distinguishing them from equipment faults, as well as localize the attack/fault. We evaluate the performance of the proposed method through a realistic simulation study on the IEEE 14-bus model as a typical example of ICS. We compare the performance of the proposed method with the traditional model-based method to show its applicability and efficacy. | 翻訳日:2022-10-14 23:23:22 公開日:2020-09-25 |
# テール割り当て問題に対するカラム生成に基づくヒューリスティック A Column Generation based Heuristic for the Tail Assignment Problem ( http://arxiv.org/abs/2009.13301v1 ) ライセンス: Link先を確認 | Akash Sambrekar, El Mehdi Er Raqabi | (参考訳) 本稿では,TAPにおける航空機の価格問題の並列解決による列生成を高速化する効率的なヒューリスティックを提案する。
このアプローチは、2つの主要なインド航空母艦の実際のテストインスタンスの分解能時間を大幅に改善することができる。
本論文では, 航空規制機関毎の整備経路に関する各航空機の異なる制約について考察する。
また, 解の積分性を改善するために, 可変固定ヒューリスティックを提案する。
制約プログラミングと列生成のハイブリッド化は、解決プロセスの高速化に大きく貢献した。 This article proposes an efficient heuristic in accelerating the column generation by parallel resolution of pricing problems for aircrafts in the tail assignment problem (TAP). The approach is able to achieve considerable improvement in resolution time for real life test instances from two major Indian air carriers. The different restrictions on individual aircraft for maintenance routing as per aviation regulatory bodies are considered in this paper. We also present a variable fixing heuristic to improve the integrality of the solution. The hybridization of constraint programming and column generation was substantial in accelerating the resolution process. | 翻訳日:2022-10-14 23:16:14 公開日:2020-09-25 |
# 数例によるデータベースアノテーション:3dツリーのディフェノフィック登録を用いたatlasベースのフレームワーク Database Annotation with few Examples: An Atlas-based Framework using Diffeomorphic Registration of 3D Trees ( http://arxiv.org/abs/2009.12252v1 ) ライセンス: Link先を確認 | Pierre-Louis Antonsanti, Thomas Benseghir, Vincent Jugnon, Joan Glaun\`es | (参考訳) 解剖学的構造の自動アノテーションは、多くの臨床応用においてワークフローの簡素化に役立つが、通常は大量の注釈付きデータを含んでいる。
ラベル付けタスクの複雑さは、代表データの欠如とともに、堅牢なソリューションの開発を遅くする。
本稿では,良性前立腺過形成症患者に3d骨盤動脈グラフをラベル付けるための注釈付き症例の少ない方法を提案する。
我々は,大変形拡散度距離マッピング(LDDMM)を利用して,アトラスを構築する意味のある変形に基づいて登録を行う。
その後、分岐ペアリングはアトラスから最適輸送を用いて新しいケースに計算され、ラベル付けプロセス中に1対1の対応が保証される。
アトラスに基づく手法の性能を低下させる木のトポロジカルな変化に取り組むため,骨盤解剖学に適応した単純なボトムアップラベル割り当てを提案する。
提案手法は,5例の学習で97.6\%のラベリング精度を達成し,学習ベースでは82.2\%のラベリング精度を得た。 Automatic annotation of anatomical structures can help simplify workflow during interventions in numerous clinical applications but usually involves a large amount of annotated data. The complexity of the labeling task, together with the lack of representative data, slows down the development of robust solutions. In this paper, we propose a solution requiring very few annotated cases to label 3D pelvic arterial trees of patients with benign prostatic hyperplasia. We take advantage of Large Deformation Diffeomorphic Metric Mapping (LDDMM) to perform registration based on meaningful deformations from which we build an atlas. Branch pairing is then computed from the atlas to new cases using optimal transport to ensure one-to-one correspondence during the labeling process. To tackle topological variations in the tree, which usually degrades the performance of atlas-based techniques, we propose a simple bottom-up label assignment adapted to the pelvic anatomy. The proposed method achieves 97.6\% labeling precision with only 5 cases for training, while in comparison learning-based methods only reach 82.2\% on such small training sets. | 翻訳日:2022-10-14 23:15:33 公開日:2020-09-25 |
# 単一画像超解像のためのDeep Artifact-Free Residual Network Deep Artifact-Free Residual Network for Single Image Super-Resolution ( http://arxiv.org/abs/2009.12433v1 ) ライセンス: Link先を確認 | Hamdollah Nasrollahi, Kamran Farajzadeh, Vahid Hosseini, Esmaeil Zarezadeh, Milad Abdollahzadeh | (参考訳) 近年,畳み込みニューラルネットワークは,単一画像の超高解像度化に有望な性能を示している。
本稿では,残差学習の利点と,地中構造像をターゲットとして用いることのメリットを活かしたDAFR(Deep Artifact-Free Residual)ネットワークを提案する。
本手法は,高画質画像再構成に必要な高周波情報を深層モデルを用いて抽出する。
画像再構成に先立って,低解像度画像をネットワークに供給するためにスキップ接続を用いる。
このようにして、地上のアーチファクトをターゲットとし、画像の違いによるネットワークの誤解を回避することができる。
クリーンな高周波情報を抽出するために,ネットワークを2つのステップで訓練する。
最初のステップは、差分画像をターゲットとして使用する従来の残差学習である。
次に、このステップのトレーニングされたパラメータを2番目のステップでメイントレーニングに転送する。
実験の結果,提案手法は既存の手法に比べて定量的,定性的な画像品質を実現することがわかった。 Recently, convolutional neural networks have shown promising performance for single-image super-resolution. In this paper, we propose Deep Artifact-Free Residual (DAFR) network which uses the merits of both residual learning and usage of ground-truth image as target. Our framework uses a deep model to extract the high-frequency information which is necessary for high-quality image reconstruction. We use a skip-connection to feed the low-resolution image to the network before the image reconstruction. In this way, we are able to use the ground-truth images as target and avoid misleading the network due to artifacts in difference image. In order to extract clean high-frequency information, we train the network in two steps. The first step is a traditional residual learning which uses the difference image as target. Then, the trained parameters of this step are transferred to the main training in the second step. Our experimental results show that the proposed method achieves better quantitative and qualitative image quality compared to the existing methods. | 翻訳日:2022-10-14 23:14:48 公開日:2020-09-25 |
# 医療における人工知能の民主化 : トランスファーラーニングを取り入れた2施設間のモデル開発に関する研究 Democratizing Artificial Intelligence in Healthcare: A Study of Model Development Across Two Institutions Incorporating Transfer Learning ( http://arxiv.org/abs/2009.12437v1 ) ライセンス: Link先を確認 | Vikash Gupta1 and Holger Roth and Varun Buch3 and Marcio A.B.C. Rockenbach and Richard D White and Dong Yang and Olga Laur and Brian Ghoshhajra and Ittai Dayan and Daguang Xu and Mona G. Flores and Barbaros Selnur Erdal | (参考訳) ディープラーニングモデルのトレーニングは通常、広範囲なデータを必要とするが、Radiologyに応用された人工知能(AI)モデルを開発するための、大規模で正確な医療画像データセットとして簡単には利用できない。
トランスファー・ラーニング(tl)の可能性を認識して、ある機関から完全に訓練されたモデルが、はるかに小さなローカル・データセットを使用して、他の機関によって微調整されるようにする。本報告では、基礎的ユースケースのためのaiモデルの開発におけるtlの課題、方法論、および、tlの利点について述べる。
その結果,LVMセグメンテーションをランダム初期化を用いて局所的に訓練したモデルと,TLで強化した1つのトレーニングモデルとの比較により,TLで開始したユースケースモデルを,スパースラベルを用いて許容性能で開発できることが判明した。
このプロセスは、異なる施設における臨床環境における新しいモデル構築に必要な時間を短縮する。 The training of deep learning models typically requires extensive data, which are not readily available as large well-curated medical-image datasets for development of artificial intelligence (AI) models applied in Radiology. Recognizing the potential for transfer learning (TL) to allow a fully trained model from one institution to be fine-tuned by another institution using a much small local dataset, this report describes the challenges, methodology, and benefits of TL within the context of developing an AI model for a basic use-case, segmentation of Left Ventricular Myocardium (LVM) on images from 4-dimensional coronary computed tomography angiography. Ultimately, our results from comparisons of LVM segmentation predicted by a model locally trained using random initialization, versus one training-enhanced by TL, showed that a use-case model initiated by TL can be developed with sparse labels with acceptable performance. This process reduces the time required to build a new model in the clinical environment at a different institution. | 翻訳日:2022-10-14 23:14:33 公開日:2020-09-25 |
# 結び付きブロック畳み込み:より薄めのフィルターでよりリーンでより良いcnn Tied Block Convolution: Leaner and Better CNNs with Shared Thinner Filters ( http://arxiv.org/abs/2009.12021v1 ) ライセンス: Link先を確認 | Xudong Wang and Stella X. Yu | (参考訳) 畳み込みは畳み込みニューラルネットワーク(CNN)の主要な構成要素である。
最適化されたCNNは、深さとともにチャネルの数が増加するにつれて高い相関性を持つことが多く、特徴表現の表現力を低下させる。
我々は,同じ細いフィルタを同じチャネルブロック上で共有し,単一フィルタで複数の応答を生成するTied Block Convolution (TBC)を提案する。
TBCの概念はグループ畳み込みや完全に接続された層にも拡張でき、様々なバックボーンネットワークやアテンションモジュールにも適用できる。
分類,検出,インスタンスセグメンテーション,注意に関する広範な実験は,TBCが標準の畳み込みやグループ畳み込みよりも有意な進歩を示した。
提案するtiese attention moduleはseモジュールの64分の1のパラメータを使用して同等の性能を実現することもできる。
特に、標準的なcnnは、オクルージョンの存在下で情報の正確な集約に失敗し、複数の冗長な部分的オブジェクトの提案をもたらす。
チャネル間でフィルタを共有することで、TBCは相関を減らし、高い重複するインスタンスを効果的に処理できる。
TBCは、咬合比が80%である場合、MS-COCOにおける物体検出の精度を6%向上させる。
私たちのコードはリリースされます。 Convolution is the main building block of convolutional neural networks (CNN). We observe that an optimized CNN often has highly correlated filters as the number of channels increases with depth, reducing the expressive power of feature representations. We propose Tied Block Convolution (TBC) that shares the same thinner filters over equal blocks of channels and produces multiple responses with a single filter. The concept of TBC can also be extended to group convolution and fully connected layers, and can be applied to various backbone networks and attention modules. Our extensive experimentation on classification, detection, instance segmentation, and attention demonstrates TBC's significant across-the-board gain over standard convolution and group convolution. The proposed TiedSE attention module can even use 64 times fewer parameters than the SE module to achieve comparable performance. In particular, standard CNNs often fail to accurately aggregate information in the presence of occlusion and result in multiple redundant partial object proposals. By sharing filters across channels, TBC reduces correlation and can effectively handle highly overlapping instances. TBC increases the average precision for object detection on MS-COCO by 6% when the occlusion ratio is 80%. Our code will be released. | 翻訳日:2022-10-14 23:09:06 公開日:2020-09-25 |
# 弱教師付き物体定位のためのサンプル内コントラスト学習と一貫した注意 In-sample Contrastive Learning and Consistent Attention for Weakly Supervised Object Localization ( http://arxiv.org/abs/2009.12063v1 ) ライセンス: Link先を確認 | Minsong Ki, Youngjung Uh, Wonyoung Lee, Hyeran Byun | (参考訳) weakly supervised object localization (wsol) は、画像レベルの監視のみを使用して対象オブジェクトをローカライズすることを目的としている。
最近の手法は、最も識別性の高い部分を落として、オブジェクト全体の特徴マップを活性化することをモデルに推奨している。
しかし、背景への過度な拡張を誘発し、過度に推定されるローカライズにつながる可能性がある。
本稿では,その背景を,高度な対象領域をカバーするために機能活性化を導く重要な手がかりとみなし,対照的な注意喪失を提案する。
この損失はフォアグラウンドとドロップされたバージョンとの類似性を促進し、ドロップされたバージョンと背景の類似性を促進する。
さらに,後層に対するノイズを生じさせる初期層を暗示する前景の整合性損失を基準として提案し,背景感を与える。
初期レイヤがローカルに識別された背景ではなく、オブジェクト上でアクティベートするようにガイドし、それらの注目が後のレイヤと似ているようにします。
上記の損失を最適化するために,非局所的アテンションブロックを用いてチャネルプール型アテンションを置き換え,空間的類似性を考慮したアテンションマップを強化した。
最後に、最も差別的な領域に加えて、背景領域をドロップすることを提案する。
CUB-200-2011 と ImageNet ベンチマークを用いて,トップ1 のローカライゼーション精度と MaxBoxAccV2 に関する最先端性能と各コンポーネントの詳細な分析を行った。
コードは再現性のためにオンラインで公開されている。 Weakly supervised object localization (WSOL) aims to localize the target object using only the image-level supervision. Recent methods encourage the model to activate feature maps over the entire object by dropping the most discriminative parts. However, they are likely to induce excessive extension to the backgrounds which leads to over-estimated localization. In this paper, we consider the background as an important cue that guides the feature activation to cover the sophisticated object region and propose contrastive attention loss. The loss promotes similarity between foreground and its dropped version, and, dissimilarity between the dropped version and background. Furthermore, we propose foreground consistency loss that penalizes earlier layers producing noisy attention regarding the later layer as a reference to provide them with a sense of backgroundness. It guides the early layers to activate on objects rather than locally distinctive backgrounds so that their attentions to be similar to the later layer. For better optimizing the above losses, we use the non-local attention blocks to replace channel-pooled attention leading to enhanced attention maps considering the spatial similarity. Last but not least, we propose to drop background regions in addition to the most discriminative region. Our method achieves state-of-theart performance on CUB-200-2011 and ImageNet benchmark datasets regarding top-1 localization accuracy and MaxBoxAccV2, and we provide detailed analysis on our individual components. The code will be publicly available online for reproducibility. | 翻訳日:2022-10-14 23:08:38 公開日:2020-09-25 |
# 実像超解像に関するAIM 2020の課題:方法と結果 AIM 2020 Challenge on Real Image Super-Resolution: Methods and Results ( http://arxiv.org/abs/2009.12072v1 ) ライセンス: Link先を確認 | Pengxu Wei, Hannan Lu, Radu Timofte, Liang Lin, Wangmeng Zuo, Zhihong Pan, Baopu Li, Teng Xi, Yanwen Fan, Gang Zhang, Jingtuo Liu, Junyu Han, Errui Ding, Tangxin Xie, Liang Cao, Yan Zou, Yi Shen, Jialiang Zhang, Yu Jia, Kaihua Cheng, Chenhuan Wu, Yue Lin, Cen Liu, Yunbo Peng, Xueyi Zou, Zhipeng Luo, Yuehan Yao, Zhenyu Xu, Syed Waqas Zamir, Aditya Arora, Salman Khan, Munawar Hayat, Fahad Shahbaz Khan, Keon-Hee Ahn, Jun-Hyuk Kim, Jun-Ho Choi, Jong-Seok Lee, Tongtong Zhao, Shanshan Zhao, Yoseob Han, Byung-Hoon Kim, JaeHyun Baek, Haoning Wu, Dejia Xu, Bo Zhou, Wei Guan, Xiaobo Li, Chen Ye, Hao Li, Haoyu Zhong, Yukai Shi, Zhijing Yang, Xiaojun Yang, Haoyu Zhong, Xin Li, Xin Jin, Yaojun Wu, Yingxue Pang, Sen Liu, Zhi-Song Liu, Li-Wen Wang, Chu-Tak Li, Marie-Paule Cani, Wan-Chi Siu, Yuanbo Zhou, Rao Muhammad Umer, Christian Micheloni, Xiaofeng Cong, Rajat Gupta, Keon-Hee Ahn, Jun-Hyuk Kim, Jun-Ho Choi, Jong-Seok Lee, Feras Almasri, Thomas Vandamme, Olivier Debeir | (参考訳) 本稿では,eccv 2020と共同で開催された画像操作(aim)ワークショップにおいて,sr(real image super- resolution)課題について紹介する。
この課題には、入力イメージを$\times$2、$\times$3、$\times$4でスーパー解決する3つのトラックが含まれる。
目標は、SRタスクの現実的な画像劣化により多くの注意を惹きつけることであり、それはより複雑で困難であり、現実世界の超解像アプリケーションに寄与する。
452人の参加者が合計3トラックに登録され、24チームが結果を提出した。
彼らはPSNRとSSIMの観点から、実画像SRの最先端のアプローチを評価する。 This paper introduces the real image Super-Resolution (SR) challenge that was part of the Advances in Image Manipulation (AIM) workshop, held in conjunction with ECCV 2020. This challenge involves three tracks to super-resolve an input image for $\times$2, $\times$3 and $\times$4 scaling factors, respectively. The goal is to attract more attention to realistic image degradation for the SR task, which is much more complicated and challenging, and contributes to real-world image super-resolution applications. 452 participants were registered for three tracks in total, and 24 teams submitted their results. They gauge the state-of-the-art approaches for real image SR in terms of PSNR and SSIM. | 翻訳日:2022-10-14 23:07:59 公開日:2020-09-25 |
# 新規乗算因子主成分分析(MPCA)による各種データセットの次元化の改善 Improved Dimensionality Reduction of various Datasets using Novel Multiplicative Factoring Principal Component Analysis (MPCA) ( http://arxiv.org/abs/2009.12179v1 ) ライセンス: Link先を確認 | Chisom Ezinne Ogbuanya | (参考訳) 主成分分析(PCA)は最も広く応用された次元減少法として知られている。
従来のPCAでは,様々なデータセットの次元的削減に最適な結果を得るために,多くの改良がなされている。
本稿では,従来のPCA手法であるMPCA(Multi Plicative Factoring principal Component Analysis)の改良について述べる。
従来のPCAに対するMPCAの利点は、乗算器を通して発生空間にペナルティを課すことで、射影を求めるときのアウトリーフの影響を無視できることである。
ここでは、総距離とコサイン類似度メトリクスという2つの乗算法を適用する。
これら2つのアプローチは、各データポイントと特徴空間の主射影の間に存在する関係を学習することができる。
これにより、トレーニングセット内の破損データの影響を無視できるように、データを反復的に乗算することで、低ランクのプロジェクションが改善される。
YaleB, MNIST, AR, Isolet のデータセットを用いて実験を行い, 従来のPCA, RPCA-OM, IFPCA-1, IFPCA-2 などの一般的な次元削減手法による結果と比較した。 Principal Component Analysis (PCA) is known to be the most widely applied dimensionality reduction approach. A lot of improvements have been done on the traditional PCA, in order to obtain optimal results in the dimensionality reduction of various datasets. In this paper, we present an improvement to the traditional PCA approach called Multiplicative factoring Principal Component Analysis (MPCA). The advantage of MPCA over the traditional PCA is that a penalty is imposed on the occurrence space through a multiplier to make negligible the effect of outliers in seeking out projections. Here we apply two multiplier approaches, total distance and cosine similarity metrics. These two approaches can learn the relationship that exists between each of the data points and the principal projections in the feature space. As a result of this, improved low-rank projections are gotten through multiplying the data iteratively to make negligible the effect of corrupt data in the training set. Experiments were carried out on YaleB, MNIST, AR, and Isolet datasets and the results were compared to results gotten from some popular dimensionality reduction methods such as traditional PCA, RPCA-OM, and also some recently published methods such as IFPCA-1 and IFPCA-2. | 翻訳日:2022-10-14 23:07:45 公開日:2020-09-25 |
# cad2real:cadデータのドメインランダム化による深層学習による電子制御ユニットハウジングの3次元ポーズ推定 CAD2Real: Deep learning with domain randomization of CAD data for 3D pose estimation of electronic control unit housings ( http://arxiv.org/abs/2009.12312v1 ) ライセンス: Link先を確認 | Simon Baeuerle, Jonas Barth, Elton Renato Tavares de Menezes, Andreas Steimer, Ralf Mikut | (参考訳) 電子制御ユニット(ECU)は、エンジン、アンチロックブレーキシステム(ABS)、ステアリング、エアバッグなど多くの自動車部品に必須である。
一部の製品では、各ECUの3Dポーズをシリーズ生産中に決定する必要がある。
ラベル付きトレーニングデータが十分な数で利用できないため、ディープラーニングアプローチがこの問題に容易に適用できない。
これにより、単一のcadファイルから自動生成される純粋合成トレーニングデータに対して、最先端の人工ニューラルネットワーク(anns)をトレーニングする。
トレーニング画像のレンダリング中にパラメータをランダム化することにより、実サンプル部のRGB画像の推測を可能にする。
従来の画像処理のアプローチとは対照的に、このデータ駆動のアプローチは、測定の設定や関連するユースケースへの転送に関して、開発作業の少ない部分しか要求しない。 Electronic control units (ECUs) are essential for many automobile components, e.g. engine, anti-lock braking system (ABS), steering and airbags. For some products, the 3D pose of each single ECU needs to be determined during series production. Deep learning approaches can not easily be applied to this problem, because labeled training data is not available in sufficient numbers. Thus, we train state-of-the-art artificial neural networks (ANNs) on purely synthetic training data, which is automatically created from a single CAD file. By randomizing parameters during rendering of training images, we enable inference on RGB images of a real sample part. In contrast to classic image processing approaches, this data-driven approach poses only few requirements regarding the measurement setup and transfers to related use cases with little development effort. | 翻訳日:2022-10-14 23:06:59 公開日:2020-09-25 |
# ビデオにおけるオンライン学習可能なキーフレーム抽出とセマンティックワードベクトルによる行動認識への応用 Online Learnable Keyframe Extraction in Videos and its Application with Semantic Word Vector in Action Recognition ( http://arxiv.org/abs/2009.12434v1 ) ライセンス: Link先を確認 | G M Mashrur E Elahi, Yee-Hong Yang | (参考訳) 映像処理は、映像要約や行動認識などの様々な応用により、コンピュータビジョンにおける一般的な研究方向となっている。
近年,深層学習に基づく手法が行動認識において顕著な成果を上げている。
しかし、これらの手法は、ほとんどのフレームが特定のアクションを認識するのに似ていて必要ではないにもかかわらず、アクションを認識するために完全なビデオシーケンスを処理する必要がある。
さらに、これらの非必須フレームは計算コストを増大させ、動作認識においてメソッドを混乱させることができる。
代わりに、キーフレームと呼ばれる重要なフレームは、アクションの認識だけでなく、分類や要約などの他のアプリケーションにおける各ビデオシーケンスの処理時間を短縮することができる。
また、ビデオ処理の現在の手法はまだオンライン方式では実証されていない。
本稿では,キーフレーム抽出のためのオンライン学習モジュールを提案する。
このモジュールはビデオ中のキーショットの選択に使用することができ、ビデオ要約に適用することができる。
抽出されたキーフレームは、深層学習に基づく分類モデルの入力として使用でき、アクションを認識することができる。
また,セマンティクスワードベクトルを入力として使用するプラグインモジュールとキーフレーム,分類モデルのための新しいトレイン/テスト戦略を提案する。
私たちの知る限りでは、このようなオンラインモジュールとトレーニング/テスト戦略が提案されたのは今回が初めてです。
ビデオ要約や行動認識においてよく使われる多くのデータセットに対する実験結果から,提案モジュールを用いた印象的な結果が得られた。 Video processing has become a popular research direction in computer vision due to its various applications such as video summarization, action recognition, etc. Recently, deep learning-based methods have achieved impressive results in action recognition. However, these methods need to process a full video sequence to recognize the action, even though most of these frames are similar and non-essential to recognizing a particular action. Additionally, these non-essential frames increase the computational cost and can confuse a method in action recognition. Instead, the important frames called keyframes not only are helpful in the recognition of an action but also can reduce the processing time of each video sequence for classification or in other applications, e.g. summarization. As well, current methods in video processing have not yet been demonstrated in an online fashion. Motivated by the above, we propose an online learnable module for keyframe extraction. This module can be used to select key-shots in video and thus can be applied to video summarization. The extracted keyframes can be used as input to any deep learning-based classification model to recognize action. We also propose a plugin module to use the semantic word vector as input along with keyframes and a novel train/test strategy for the classification models. To our best knowledge, this is the first time such an online module and train/test strategy have been proposed. The experimental results on many commonly used datasets in video summarization and in action recognition have shown impressive results using the proposed module. | 翻訳日:2022-10-14 23:06:26 公開日:2020-09-25 |
# sia-gcn : 手のポーズ推定のための2次元畳み込みを持つ空間情報認識グラフニューラルネットワーク SIA-GCN: A Spatial Information Aware Graph Neural Network with 2D Convolutions for Hand Pose Estimation ( http://arxiv.org/abs/2009.12473v1 ) ライセンス: Link先を確認 | Deying Kong, Haoyu Ma, Xiaohui Xie | (参考訳) グラフニューラルネットワーク(GNN)は、通常の構造上のアプリケーションから任意のグラフ上のアプリケーションまでニューラルネットワークを一般化し、コンピュータビジョン、ソーシャルネットワーク、化学などの多くのアプリケーション領域で成功している。
本稿では,GNNを2方向に拡張する。
a) 各ノードの特徴を1次元ベクトルの代わりに2次元空間信頼マップで表すことができる。
b) 近隣ノードからの情報を各エッジに異なる学習可能なカーネルを持つ2次元畳み込みを通じて統合する効率的な操作を提案すること。
提案したSIA-GCNは,各ノードの2次元マップから空間情報を効率的に抽出し,グラフ畳み込みにより伝播することができる。
それぞれのエッジを指定された畳み込みカーネルに関連付けることで、SIA-GCNは隣接するノードのペアごとに異なる空間関係をキャプチャできる。
SIA-GCNは,キーポイントの2次元座標熱マップをノードが表現し,キーポイント間の関係をエッジが表現する単一フレーム画像から手指キーポイントを推定する作業において有効であることを示す。
複数のデータセットの実験によると、SIA-GCNはキーポイント間の構造的制約を考慮し、手振り推定のタスクで最先端のパフォーマンスを達成する、柔軟で強力なフレームワークを提供する。 Graph Neural Networks (GNNs) generalize neural networks from applications on regular structures to applications on arbitrary graphs, and have shown success in many application domains such as computer vision, social networks and chemistry. In this paper, we extend GNNs along two directions: a) allowing features at each node to be represented by 2D spatial confidence maps instead of 1D vectors; and b) proposing an efficient operation to integrate information from neighboring nodes through 2D convolutions with different learnable kernels at each edge. The proposed SIA-GCN can efficiently extract spatial information from 2D maps at each node and propagate them through graph convolution. By associating each edge with a designated convolution kernel, the SIA-GCN could capture different spatial relationships for different pairs of neighboring nodes. We demonstrate the utility of SIA-GCN on the task of estimating hand keypoints from single-frame images, where the nodes represent the 2D coordinate heatmaps of keypoints and the edges denote the kinetic relationships between keypoints. Experiments on multiple datasets show that SIA-GCN provides a flexible and yet powerful framework to account for structural constraints between keypoints, and can achieve state-of-the-art performance on the task of hand pose estimation. | 翻訳日:2022-10-14 23:06:04 公開日:2020-09-25 |
# ガウス過程を用いた半スーパービジョン画像デライニング Semi-Supervised Image Deraining using Gaussian Processes ( http://arxiv.org/abs/2009.13075v1 ) ライセンス: Link先を確認 | Rajeev Yasarla, V.A. Sindagi, V.M. Patel | (参考訳) 近年のCNNによる画像デライニング手法は,再現誤差や視覚的品質の点で優れた性能を発揮している。
しかし、これらの手法は完全なラベル付きデータでのみ訓練できるという意味で制限されている。
実世界の完全ラベル付き画像デライニングデータセットを得る上で様々な課題があるため、既存の手法は合成されたデータのみに基づいて訓練されるため、実世界の画像にはあまり一般化されない。
画像デラリニングネットワークのトレーニングにおける実世界のデータの利用は、文献では比較的調査されていない。
そこで本研究では,合成データセットを用いたネットワーク学習を可能にするガウス過程に基づく半教師付き学習フレームワークを提案する。
より具体的には、ガウス過程を用いて未ラベルデータの潜在空間ベクトルをモデル化し、未ラベルデータ上でネットワークを監視するために擬似地下構造を計算する。
rain800, rain200l, ddn-sirrなど,いくつかの難解なデータセットに対する広範囲な実験とアブレーションを通じて,提案手法がラベルなしのデータを有効に活用できることを示した。
さらに,提案するgpベースフレームワークの結果にラベルなしの実世界画像を用いることを実証する。 Recent CNN-based methods for image deraining have achieved excellent performance in terms of reconstruction error as well as visual quality. However, these methods are limited in the sense that they can be trained only on fully labeled data. Due to various challenges in obtaining real world fully-labeled image deraining datasets, existing methods are trained only on synthetically generated data and hence, generalize poorly to real-world images. The use of real-world data in training image deraining networks is relatively less explored in the literature. We propose a Gaussian Process-based semi-supervised learning framework which enables the network in learning to derain using synthetic dataset while generalizing better using unlabeled real-world images. More specifically, we model the latent space vectors of unlabeled data using Gaussian Processes, which is then used to compute pseudo-ground-truth for supervising the network on unlabeled data. Through extensive experiments and ablations on several challenging datasets (such as Rain800, Rain200L and DDN-SIRR), we show that the proposed method is able to effectively leverage unlabeled data thereby resulting in significantly better performance as compared to labeled-only training. Additionally, we demonstrate that using unlabeled real-world images in the proposed GP-based framework results | 翻訳日:2022-10-14 23:05:42 公開日:2020-09-25 |
# 大学問合せのためのrasaフレームワークを用いた深層学習に基づくfbチャットボットの開発 Developing FB Chatbot Based on Deep Learning Using RASA Framework for University Enquiries ( http://arxiv.org/abs/2009.12341v1 ) ライセンス: Link先を確認 | Yurio Windiatmoko, Ahmad Fathan Hidayatullah, Ridho Rahmadi | (参考訳) 人工知能を応用した大学のためのスマートシステムは、さまざまなタスクで人間を助けるために大規模に開発された。
チャットボットの概念は、最近のテクノロジーで開発している社会では、新しいものではない。
大学生や大学生の候補者は、直接対面のミーティングが困難であるこのパンデミックの間、顧客サービスへの何か要求のような実際の情報を必要とすることが多い。
チャットボットは、カリキュラム情報、新入生の入学、講義コースのスケジュール情報、成績情報、ムスリム礼拝スケジュールの追加、天気予報情報など、いくつかの面で機能的に助けられている。
このChatbotはDeep Learningモデルによって開発され、人工知能モデルによって採用されている。
この種のディープラーニングは、ディープラーニングモデルのための特定のメモリ節約スキーム、特に、すでにRASAフレームワークで統合されているLSTMを使ったチャットボットであるRNNに基づいている。
LSTMはLong Short Term Memoryとしても知られており、必要なメモリを効率的に保存するが、不要なメモリを除去する。
このチャットボットは、FB利用者がインドネシア全人口の60.8%に達しているため、FBプラットフォームを使用している。
このチャットボットは、Magister Informatics FTI University of Islamic Indonesiaのキャンパスでのケーススタディのみに焦点を当てています。
この研究は、かなり十分なシミュレーションデータ内での第1段階の開発である。 Smart systems for Universities powered by Artificial Intelligence have been massively developed to help humans in various tasks. The chatbot concept is not something new in today society which is developing with recent technology. College students or candidates of college students often need actual information like asking for something to customer service, especially during this pandemic, when it is difficult to have an immediate face-to-face meeting. Chatbots are functionally helping in several things such as curriculum information, admission for new students, schedule info for any lecture courses, students grade information, and some adding features for Muslim worships schedule, also weather forecast information. This Chatbot is developed by Deep Learning models, which was adopted by an artificial intelligence model that replicates human intelligence with some specific training schemes. This kind of Deep Learning is based on RNN which has some specific memory savings scheme for the Deep Learning Model, specifically this chatbot using LSTM which already integrates by RASA framework. LSTM is also known as Long Short Term Memory which efficiently saves some required memory but will remove some memory that is not needed. This Chatbot uses the FB platform because of the FB users have already reached up to 60.8% of its entire population in Indonesia. Here's the chatbot only focuses on case studies at campus of the Magister Informatics FTI University of Islamic Indonesia. This research is a first stage development within fairly sufficient simulate data. | 翻訳日:2022-10-14 22:59:12 公開日:2020-09-25 |
# XTE: 説明可能なテキスト拡張 XTE: Explainable Text Entailment ( http://arxiv.org/abs/2009.12431v1 ) ライセンス: Link先を確認 | Vivian S. Silva, Andr\'e Freitas, Siegfried Handschuh | (参考訳) あるテキストが他のテキストから論理的に従うかどうかを決定するタスクであるテキストエンテールメントは、NLPの重要なコンポーネントであり、質問応答、テキスト要約、情報抽出、機械翻訳などの多くのセマンティックアプリケーションに入力を提供する。
追加シナリオは、単純な構文的バリエーションから、テキスト間のより複雑なセマンティックな関係まで様々であるが、ほとんどのアプローチでは、通常、あるシナリオを他のシナリオに優先する1サイズフィットのソリューションを試す。
さらに、世界の知識を必要とする詳細については、ほとんどのシステムは依然として「ブラックボックス」として機能し、根底にある推論プロセスを説明しないイエス/ノーの回答を提供する。
本稿では,テキスト・エンタテインメントを認識するための新しい合成手法であるXTEExplainable Text Entailmentを紹介する。
また、意味マッチングが関与する場合、文片間の意味的関係を説明する自然言語正当化を生成するために、構造化語彙定義からなる外部知識ベースを用いて、回答を解釈可能にする。
十分に確立された補足アルゴリズムを上回るだけでなく、私たちの複合アプローチは、推論モデルの解釈を可能にし、セマンティック推論プロセスを明確かつ理解可能にするために、説明可能なaiへの重要なステップを提供します。 Text entailment, the task of determining whether a piece of text logically follows from another piece of text, is a key component in NLP, providing input for many semantic applications such as question answering, text summarization, information extraction, and machine translation, among others. Entailment scenarios can range from a simple syntactic variation to more complex semantic relationships between pieces of text, but most approaches try a one-size-fits-all solution that usually favors some scenario to the detriment of another. Furthermore, for entailments requiring world knowledge, most systems still work as a "black box", providing a yes/no answer that does not explain the underlying reasoning process. In this work, we introduce XTE - Explainable Text Entailment - a novel composite approach for recognizing text entailment which analyzes the entailment pair to decide whether it must be resolved syntactically or semantically. Also, if a semantic matching is involved, we make the answer interpretable, using external knowledge bases composed of structured lexical definitions to generate natural language justifications that explain the semantic relationship holding between the pieces of text. Besides outperforming well-established entailment algorithms, our composite approach gives an important step towards Explainable AI, allowing the inference model interpretation, making the semantic reasoning process explicit and understandable. | 翻訳日:2022-10-14 22:58:37 公開日:2020-09-25 |
# bet: トランスフォーマーに基づくparaphrase識別コンテキストにおけるデータ拡張を容易にするバックトランスレーションアプローチ BET: A Backtranslation Approach for Easy Data Augmentation in Transformer-based Paraphrase Identification Context ( http://arxiv.org/abs/2009.12452v1 ) ライセンス: Link先を確認 | Jean-Philippe Corbeil and Hadi Abdi Ghadivel | (参考訳) 新しく導入されたディープラーニングアーキテクチャ、BERT、XLNet、RoBERTa、ALBERTは、いくつかのNLPタスクで堅牢であることが証明されている。
しかし、これらのアーキテクチャでトレーニングされたデータセットはサイズと一般化性の観点から固定されている。
この問題を解消するため、これらのデータセットを更新するために最も安価なソリューションの1つを適用します。
我々はこの手法をBETと呼び、トランスフォーマーベースのアーキテクチャ上でのバックトランスレーションデータ拡張を分析する。
10の異なる言語ファミリーから10の中間言語を持つgoogle translate apiを使用して、transformerベースのフレームワークにおける自動パラフレーズ識別の結果を外部から評価する。
以上の結果から,BETはMicrosoft Research Paraphrase Corpus (MRPC) のパラフレーズ識別性能を,精度とF1スコアの両方で3%以上向上することが示唆された。
また、MRPC、Twitter Paraphrase Corpus(TPC)、Quora Question Pairsのダウンサンプルバージョンを用いて、低データ体制の強化も分析する。
多くの低データケースでは、テストセット上のフェールモデルから合理的なパフォーマンスへの切り替えを観察します。
その結果、BETは、既存のデータセットの最先端を推し進め、100のサンプルの低データ構造におけるディープラーニングアーキテクチャの利用をブートストラップする、非常に有望なデータ拡張技術であることを実証した。 Newly-introduced deep learning architectures, namely BERT, XLNet, RoBERTa and ALBERT, have been proved to be robust on several NLP tasks. However, the datasets trained on these architectures are fixed in terms of size and generalizability. To relieve this issue, we apply one of the most inexpensive solutions to update these datasets. We call this approach BET by which we analyze the backtranslation data augmentation on the transformer-based architectures. Using the Google Translate API with ten intermediary languages from ten different language families, we externally evaluate the results in the context of automatic paraphrase identification in a transformer-based framework. Our findings suggest that BET improves the paraphrase identification performance on the Microsoft Research Paraphrase Corpus (MRPC) to more than 3% on both accuracy and F1 score. We also analyze the augmentation in the low-data regime with downsampled versions of MRPC, Twitter Paraphrase Corpus (TPC) and Quora Question Pairs. In many low-data cases, we observe a switch from a failing model on the test set to reasonable performances. The results demonstrate that BET is a highly promising data augmentation technique: to push the current state-of-the-art of existing datasets and to bootstrap the utilization of deep learning architectures in the low-data regime of a hundred samples. | 翻訳日:2022-10-14 22:58:06 公開日:2020-09-25 |
# tagの設計と実装:テーブルトップゲームフレームワーク Design and Implementation of TAG: A Tabletop Games Framework ( http://arxiv.org/abs/2009.12065v1 ) ライセンス: Link先を確認 | Raluca D. Gaina, Martin Balla, Alexander Dockhorn, Raul Montoliu, Diego Perez-Liebana | (参考訳) この文書は、AI研究のためのモダンなボードゲームを開発するためのJavaベースのベンチマークであるTabletop Games framework(TAG)の設計と実装について記述する。
TAGは、AIエージェントの共通APIに基づいたテーブルトップゲームを実装するための一般的なスケルトン、新しいゲームを簡単に追加するためのコンポーネントとクラスのセット、JSONフォーマットでデータを定義するインポートモジュールを提供する。
現在、このプラットフォームには7つの異なるテーブルトップゲームの実装が含まれており、さらなる発展の例として使用することもできる。
さらに、TAGにはロギング機能が含まれており、アクションスペース、分岐係数、隠された情報、その他のゲームAI研究への関心度の観点から、ユーザがゲームの詳細な分析を行うことができる。
この文書の目的は、フレームワークを長く記述できる中心的なポイントとして機能することである。
TAG は https://github.com/GAIGResearch/TabletopGames でダウンロードできる。 This document describes the design and implementation of the Tabletop Games framework (TAG), a Java-based benchmark for developing modern board games for AI research. TAG provides a common skeleton for implementing tabletop games based on a common API for AI agents, a set of components and classes to easily add new games and an import module for defining data in JSON format. At present, this platform includes the implementation of seven different tabletop games that can also be used as an example for further developments. Additionally, TAG also incorporates logging functionality that allows the user to perform a detailed analysis of the game, in terms of action space, branching factor, hidden information, and other measures of interest for Game AI research. The objective of this document is to serve as a central point where the framework can be described at length. TAG can be downloaded at: https://github.com/GAIGResearch/TabletopGames | 翻訳日:2022-10-14 22:57:44 公開日:2020-09-25 |
# 重みのないニューラルネットワークによるプロセスマイニング分類 Process mining classification with a weightless neural network ( http://arxiv.org/abs/2009.12416v1 ) ライセンス: Link先を確認 | Rafael Garcia Barbastefano and Maria Clara Lippi and Diego Carvalho | (参考訳) 重みのないニューラルネットワークアーキテクチャであるWiSARDを用いて、カーネルを避けるためのビジネスプロセスグラフフローを表現するために、網膜凝固の簡単なグラフを提案し、プロセスマイニングのコンテキストにおいて、WiSARDが小さなトレーニングセットで分類性能より優れていることを示す。 Using a weightless neural network architecture WiSARD we propose a straightforward graph to retina codification to represent business process graph flows avoiding kernels, and we present how WiSARD outperforms the classification performance with small training sets in the process mining context. | 翻訳日:2022-10-14 22:56:51 公開日:2020-09-25 |
# 極端に進む:弱い教師付き医療画像のセグメンテーション Going to Extremes: Weakly Supervised Medical Image Segmentation ( http://arxiv.org/abs/2009.11988v1 ) ライセンス: Link先を確認 | Holger R Roth, Dong Yang, Ziyue Xu, Xiaosong Wang, Daguang Xu | (参考訳) 医療画像アノテーションは、正確で堅牢な機械学習モデルを開発する上で大きなハードルとなる。
注釈は高価で時間がかかり、特に医学分野では専門知識を必要とすることが多い。
ここでは,医療画像アノテーションの高速化に使用できるセグメンテーションモデルを訓練するために,極端点クリックという形でユーザインタラクションを最小にすることを提案する。
ランダムウォーカーアルゴリズムを利用した極端点に基づいて初期セグメンテーションを生成する。
この初期セグメンテーションは、提供されたユーザクリックに基づいて、関心の組織をセグメンテーションできる完全な畳み込みネットワークをトレーニングするためにノイズの多い監視信号として使用される。
複数の医用画像データセットを用いた実験により,ネットワークの予測を,同じ弱アノテートデータから予測した数ラウンドのトレーニングを用いて洗練できることを示した。
カスタム設計のロスとアテンションメカニズム内でクリックポイントを活用することで、さらなる改善が示される。
われわれのアプローチは、医療画像分析のための新しい機械学習とディープラーニングベースのモデルを開発するための、新しいトレーニングデータセットを生成するプロセスを高速化する可能性がある。 Medical image annotation is a major hurdle for developing precise and robust machine learning models. Annotation is expensive, time-consuming, and often requires expert knowledge, particularly in the medical field. Here, we suggest using minimal user interaction in the form of extreme point clicks to train a segmentation model which, in effect, can be used to speed up medical image annotation. An initial segmentation is generated based on the extreme points utilizing the random walker algorithm. This initial segmentation is then used as a noisy supervision signal to train a fully convolutional network that can segment the organ of interest, based on the provided user clicks. Through experimentation on several medical imaging datasets, we show that the predictions of the network can be refined using several rounds of training with the prediction from the same weakly annotated data. Further improvements are shown utilizing the clicked points within a custom-designed loss and attention mechanism. Our approach has the potential to speed up the process of generating new training datasets for the development of new machine learning and deep learning-based models for, but not exclusively, medical image analysis. | 翻訳日:2022-10-14 22:56:43 公開日:2020-09-25 |
# JPEG圧縮の存在下でCNNを訓練する - マルチメディアフォサイシクスとコンピュータビジョン Training CNNs in Presence of JPEG Compression: Multimedia Forensics vs Computer Vision ( http://arxiv.org/abs/2009.12088v1 ) ライセンス: Link先を確認 | Sara Mandelli, Nicol\`o Bonettini, Paolo Bestagini, Stefano Tubaro | (参考訳) 畳み込みニューラルネットワーク(CNN)は、過去に視覚検査を必要とする複数のコンピュータビジョン画像分類タスク(物体認識、顔検出など)において非常に正確であることが証明されている。
これらの驚くべき結果に動機づけられた研究者たちは、cnnを使って画像法医学的な問題(カメラのモデル識別、改ざん検出など)に対処し始めた。
しかし、コンピュータビジョンでは、画像分類法は通常、人間の目で容易に検出できる視覚手がかりに依存する。
逆に、法医学的な解決策は、しばしば非常に微妙で分析中の画像の細部にあるほとんど見えない痕跡に依存している。
このため、一般的な処理操作(リサンプリング、圧縮など)が法医学的トレースを強く妨げる可能性があるため、法医学的タスクを解決するためにCNNを訓練するには特別な注意が必要である。
本研究では,異なるコンピュータビジョンと法医学的画像分類問題を考慮したCNNトレーニングにおけるJPEGの効果に着目した。
具体的には、JPEG圧縮とJPEGグリッドの誤調整から生じる問題を考察する。
一般化能力が失われることなく鑑識検出器を適切に訓練するためには、訓練データセットを生成する際にこれらの効果を検討する必要があるが、コンピュータビジョンタスクではこれらの効果を無視することはほぼ可能である。 Convolutional Neural Networks (CNNs) have proved very accurate in multiple computer vision image classification tasks that required visual inspection in the past (e.g., object recognition, face detection, etc.). Motivated by these astonishing results, researchers have also started using CNNs to cope with image forensic problems (e.g., camera model identification, tampering detection, etc.). However, in computer vision, image classification methods typically rely on visual cues easily detectable by human eyes. Conversely, forensic solutions rely on almost invisible traces that are often very subtle and lie in the fine details of the image under analysis. For this reason, training a CNN to solve a forensic task requires some special care, as common processing operations (e.g., resampling, compression, etc.) can strongly hinder forensic traces. In this work, we focus on the effect that JPEG has on CNN training considering different computer vision and forensic image classification problems. Specifically, we consider the issues that rise from JPEG compression and misalignment of the JPEG grid. We show that it is necessary to consider these effects when generating a training dataset in order to properly train a forensic detector not losing generalization capability, whereas it is almost possible to ignore these effects for computer vision tasks. | 翻訳日:2022-10-14 22:50:12 公開日:2020-09-25 |
# タージエ:超解像GANにおけるノイズ注入の展開 Tarsier: Evolving Noise Injection in Super-Resolution GANs ( http://arxiv.org/abs/2009.12177v1 ) ライセンス: Link先を確認 | Baptiste Roziere, Nathanal Carraz Rakotonirina, Vlad Hosu, Andry Rasoanaivo, Hanhe Lin, Camille Couprie, Olivier Teytaud | (参考訳) 超解像度は、画像内の解像度と詳細レベルを高めることを目的としている。
一般的な単一像超解像の現在の状態はNESRGAN+によって保持され、トレーニング時に各残留層にガウスノイズを注入する。
本稿では,推論時のノイズ注入を最適化してNESRGAN+を改善するために進化的手法を利用する。
より正確には、品質評価と現実主義を組み合わせた新しい基準に従って注入ノイズを最適化するために対角cmaを用いる。
この結果はPIRMの知覚スコアと人間の研究によって検証された。
提案手法は,複数の標準超解像データセット上でNESRGAN+より優れる。
より一般的には、ノイズ注入に基づく任意の手法の最適化に利用することができる。 Super-resolution aims at increasing the resolution and level of detail within an image. The current state of the art in general single-image super-resolution is held by NESRGAN+, which injects a Gaussian noise after each residual layer at training time. In this paper, we harness evolutionary methods to improve NESRGAN+ by optimizing the noise injection at inference time. More precisely, we use Diagonal CMA to optimize the injected noise according to a novel criterion combining quality assessment and realism. Our results are validated by the PIRM perceptual score and a human study. Our method outperforms NESRGAN+ on several standard super-resolution datasets. More generally, our approach can be used to optimize any method based on noise injection. | 翻訳日:2022-10-14 22:49:48 公開日:2020-09-25 |
# データ駆動連続体モデル抽出のための物理インフォームド演算子回帰フレームワーク A physics-informed operator regression framework for extracting data-driven continuum models ( http://arxiv.org/abs/2009.11992v1 ) ライセンス: Link先を確認 | Ravi G. Patel, Nathaniel A. Trask, Mitchell A. Wood, Eric C. Cyr | (参考訳) データ駆動モデル発見へのディープラーニングの適用には、正確かつ堅牢な物理の記述を得るために、誘導バイアスを慎重に適用する必要がある。
本稿では,高忠実度分子シミュレーションデータから連続体モデルを発見するための枠組みを提案する。
提案手法は, 対称性, 等方性, 保存形式に関するバイアスを課す構造を提供しながら, 微分作用素の特徴づけを可能にするニューラルネットワークパラメータ化を, モーダル空間における制御物理のパラメータ化に適用する。
局所・非局所拡散過程や単相・多相流など,様々な物理分野におけるフレームワークの有効性を実証する。
フロー物理学のために、このアプローチは、可変粒子サイズ、密度、濃度など、トレーニングセットに含まれないシステム特性に一般化する学習演算子に導かれることを実証する。 The application of deep learning toward discovery of data-driven models requires careful application of inductive biases to obtain a description of physics which is both accurate and robust. We present here a framework for discovering continuum models from high fidelity molecular simulation data. Our approach applies a neural network parameterization of governing physics in modal space, allowing a characterization of differential operators while providing structure which may be used to impose biases related to symmetry, isotropy, and conservation form. We demonstrate the effectiveness of our framework for a variety of physics, including local and nonlocal diffusion processes and single and multiphase flows. For the flow physics we demonstrate this approach leads to a learned operator that generalizes to system characteristics not included in the training sets, such as variable particle sizes, densities, and concentration. | 翻訳日:2022-10-14 22:49:03 公開日:2020-09-25 |
# ベイズ回帰のための多レベルgibbsサンプリング Multilevel Gibbs Sampling for Bayesian Regression ( http://arxiv.org/abs/2009.12132v1 ) ライセンス: Link先を確認 | Joris Tavernier, Jaak Simm, Adam Arany, Karl Meerbergen, Yves Moreau | (参考訳) ベイズ回帰は、ベイズ推論技術に基づく単純だが効果的なツールである。
複雑な後方分布を持つ大規模応用では、マルコフ連鎖モンテカルロ法が適用される。
マルコフ・チェイン・モンテカルロのベイズ回帰に対する計算負荷を改善するために,線形混合モデルのベイズ回帰のための多レベルギブスサンプリング器を開発した。
データ行列のレベル階層は、データ行列の特徴やサンプルをクラスタリングすることによって生成される。
さらに, マルコフ連鎖の収束を改善するために, 相関試料を用いた分散還元について検討した。
多様なデータセットでテストすると、ほぼすべてのデータセットでスピードアップが達成され、予測性能が大幅に低下する。 Bayesian regression remains a simple but effective tool based on Bayesian inference techniques. For large-scale applications, with complicated posterior distributions, Markov Chain Monte Carlo methods are applied. To improve the well-known computational burden of Markov Chain Monte Carlo approach for Bayesian regression, we developed a multilevel Gibbs sampler for Bayesian regression of linear mixed models. The level hierarchy of data matrices is created by clustering the features and/or samples of data matrices. Additionally, the use of correlated samples is investigated for variance reduction to improve the convergence of the Markov Chain. Testing on a diverse set of data sets, speed-up is achieved for almost all of them without significant loss in predictive performance. | 翻訳日:2022-10-14 22:48:48 公開日:2020-09-25 |
# 焦点変化を考慮した制御可能なテキスト生成 Controllable Text Generation with Focused Variation ( http://arxiv.org/abs/2009.12046v1 ) ライセンス: Link先を確認 | Lei Shu, Alexandros Papangelis, Yi-Chia Wang, Gokhan Tur, Hu Xu, Zhaleh Feizollahi, Bing Liu, Piero Molino | (参考訳) 本稿では,言語生成を制御する新しいモデルであるfocus-variation network (fvn)を提案する。
従来の制御言語生成モデルの主な問題は、与えられた属性に従ってテキストを生成することの難しさから、生成されたテキストの多様性の欠如まで様々である。
FVNはこれらの問題に対処するために、コードブック内の各属性に対する離散潜在空間を学習し、制御性と多様性の両方を同時に生成する。
注釈付きコンテンツとスタイルを持つ2つのテキスト生成データセット上でfvnを評価し,自動評価と人間評価で評価した最先端の性能を示す。 This work introduces Focused-Variation Network (FVN), a novel model to control language generation. The main problems in previous controlled language generation models range from the difficulty of generating text according to the given attributes, to the lack of diversity of the generated texts. FVN addresses these issues by learning disjoint discrete latent spaces for each attribute inside codebooks, which allows for both controllability and diversity, while at the same time generating fluent text. We evaluate FVN on two text generation datasets with annotated content and style, and show state-of-the-art performance as assessed by automatic and human evaluations. | 翻訳日:2022-10-14 22:48:39 公開日:2020-09-25 |
# CVAEを用いた応答生成のための焦点拘束型注意機構 Focus-Constrained Attention Mechanism for CVAE-based Response Generation ( http://arxiv.org/abs/2009.12102v1 ) ライセンス: Link先を確認 | Zhi Cui, Yanran Li, Jiayi Zhang, Jianwei Cui, Chen Wei, Bin Wang | (参考訳) ある投稿に対する多様な応答をモデル化するには、seq2seqモデルに潜在変数を導入することが有望である。
潜在変数は、談話レベルの情報をキャプチャし、ターゲット応答のインフォメーション性を促進する。
しかし、そのような談話レベルの情報はデコーダが利用するには粗いことが多い。
そこで本手法では,粗粒度情報から細粒度語レベル情報へ変換する。
具体的には、まず、細粒度焦点信号を導入することで、ポストワードに対する対応するターゲット応答の意味的集中度を測定する。
そこで,本研究では,目標応答に対する入力の整合性を十分に活用する集中拘束型注意機構を提案する。
実験結果から, より微細な信号を利用することにより, 複数の最先端モデルと比較して, より多種多様な応答を生成できることがわかった。 To model diverse responses for a given post, one promising way is to introduce a latent variable into Seq2Seq models. The latent variable is supposed to capture the discourse-level information and encourage the informativeness of target responses. However, such discourse-level information is often too coarse for the decoder to be utilized. To tackle it, our idea is to transform the coarse-grained discourse-level information into fine-grained word-level information. Specifically, we firstly measure the semantic concentration of corresponding target response on the post words by introducing a fine-grained focus signal. Then, we propose a focus-constrained attention mechanism to take full advantage of focus in well aligning the input to the target response. The experimental results demonstrate that by exploiting the fine-grained signal, our model can generate more diverse and informative responses compared with several state-of-the-art models. | 翻訳日:2022-10-14 22:48:27 公開日:2020-09-25 |
# PerKey: キーワード抽出と生成のためのペルシャニュースコーパス PerKey: A Persian News Corpus for Keyphrase Extraction and Generation ( http://arxiv.org/abs/2009.12269v1 ) ライセンス: Link先を確認 | Ehsan Doostmohammadi, Mohammad Hadi Bokaei, Hossein Sameti | (参考訳) keyphrasesはテキストの非常に高密度な要約を提供する。
このような情報は、情報検索やテキスト要約など、多くの自然言語処理タスクで使用できる。
ペルシャ語キーワードやキーフレーズ抽出に関するこれまでの研究は、それらのデータを公表していないので、フィールドは、人間の抽出されたキーフレーズデータセットの欠如に苦しめられている。
本稿では,ペルシャの6つのニュースサイトと,比較的高品質な著者が抽出したキーフレーズから,553kのニュース記事を収集したコーパスであるperkeyを紹介する。
得られたデータは、キーフレーズの品質を保証するために人間の評価に入れられた。
また,データセット上でのTFIDF,MultipartiteRank,KEAなど,教師なしおよび教師なしのさまざまな手法の性能を精度,リコール,F1スコアを用いて測定した。 Keyphrases provide an extremely dense summary of a text. Such information can be used in many Natural Language Processing tasks, such as information retrieval and text summarization. Since previous studies on Persian keyword or keyphrase extraction have not published their data, the field suffers from the lack of a human extracted keyphrase dataset. In this paper, we introduce PerKey, a corpus of 553k news articles from six Persian news websites and agencies with relatively high quality author extracted keyphrases, which is then filtered and cleaned to achieve higher quality keyphrases. The resulted data was put into human assessment to ensure the quality of the keyphrases. We also measured the performance of different supervised and unsupervised techniques, e.g. TFIDF, MultipartiteRank, KEA, etc. on the dataset using precision, recall, and F1-score. | 翻訳日:2022-10-14 22:48:11 公開日:2020-09-25 |
# sequence-to-sequenceモデルを用いたペルシャキーフレーズの生成 Persian Keyphrase Generation Using Sequence-to-Sequence Models ( http://arxiv.org/abs/2009.12271v1 ) ライセンス: Link先を確認 | Ehsan Doostmohammadi, Mohammad Hadi Bokaei, Hossein Sameti | (参考訳) keyphrasesは入力テキストの非常に短い要約であり、テキストで議論される主な主題を提供する。
キーワード抽出は上流で有用なタスクであり、テキスト要約や情報検索など、様々な自然言語処理問題で使用することができる。
しかし、すべてのキーフレーズが本文の本体に明記されているわけではない。
実世界の例では、暗黙的に議論されるトピックが必ずあります。
このようなキーフレーズを抽出するには生成的アプローチが必要である。
本稿では,キーフレーズ生成とニュース記事の抽出に,深いシーケンス・ツー・シーケンスモデルを用いて取り組む。
これらのモデルは、キーフレーズ抽出のタスクにおいて、トピックランク、KPMiner、KEAといった従来の手法よりも大幅に優れている。 Keyphrases are a very short summary of an input text and provide the main subjects discussed in the text. Keyphrase extraction is a useful upstream task and can be used in various natural language processing problems, for example, text summarization and information retrieval, to name a few. However, not all the keyphrases are explicitly mentioned in the body of the text. In real-world examples there are always some topics that are discussed implicitly. Extracting such keyphrases requires a generative approach, which is adopted here. In this paper, we try to tackle the problem of keyphrase generation and extraction from news articles using deep sequence-to-sequence models. These models significantly outperform the conventional methods such as Topic Rank, KPMiner, and KEA in the task of keyphrase extraction. | 翻訳日:2022-10-14 22:47:52 公開日:2020-09-25 |
# robosuite: ロボット学習のためのモジュールシミュレーションフレームワークとベンチマーク robosuite: A Modular Simulation Framework and Benchmark for Robot Learning ( http://arxiv.org/abs/2009.12293v1 ) ライセンス: Link先を確認 | Yuke Zhu and Josiah Wong and Ajay Mandlekar and Roberto Mart\'in-Mart\'in | (参考訳) robosuiteは、MuJoCo物理エンジンを利用したロボット学習のシミュレーションフレームワークである。
ロボットタスクを作成するためのモジュラーデザインと、再現可能な研究のためのベンチマーク環境を提供する。
本稿では,新しいリリースrobosuite v1.0のシステムモジュールとベンチマーク環境について述べる。 robosuite is a simulation framework for robot learning powered by the MuJoCo physics engine. It offers a modular design for creating robotic tasks as well as a suite of benchmark environments for reproducible research. This paper discusses the key system modules and the benchmark environments of our new release robosuite v1.0. | 翻訳日:2022-10-14 22:40:11 公開日:2020-09-25 |
# マルチレベルストリーミング分析のためのビッグデータレイク A Big Data Lake for Multilevel Streaming Analytics ( http://arxiv.org/abs/2009.12415v1 ) ライセンス: Link先を確認 | Ruoran Liu, Haruna Isah, Farhana Zulkernine | (参考訳) 大規模組織は、過去にほとんど見られなかったデータの爆発的な性質のために、データ管理の課題を効果的に処理するための、新しいアーキテクチャとスケーラブルなプラットフォームを作ろうとしている。
これらのデータ管理の課題は、さまざまなソースから複数のフォーマットで高速にストリーミングデータを利用できることによる。
データパラダイムの変更は、新たなデータ分析と管理アーキテクチャの出現につながった。
本稿では,データレイクと呼ばれるデータストレージアーキテクチャにおいて,高ボリューム,速度,各種データを生の形式で保存することに焦点を当てる。
まず,近年のデータパラダイムの変化に対処する上で,従来のデータウェアハウスの限界について検討する。
データレイクの開発に使用できるさまざまなオープンソースと商用プラットフォームについて議論し、比較する。
次に、hadoop data platform(hdp)上のhadoop distributed file system(hdfs)を使用して、エンドツーエンドのデータレイク設計と実装アプローチを説明します。
最後に,構造化データと非構造化データを組み合わせたデータストリーム取り込み,ステージング,マルチレベルストリーミング分析のための実世界データレイク開発ユースケースを提案する。
この研究は、個人や組織がユースケースにデータレイクソリューションを実装するためのガイドとして役立てることができる。 Large organizations are seeking to create new architectures and scalable platforms to effectively handle data management challenges due to the explosive nature of data rarely seen in the past. These data management challenges are largely posed by the availability of streaming data at high velocity from various sources in multiple formats. The changes in data paradigm have led to the emergence of new data analytics and management architecture. This paper focuses on storing high volume, velocity and variety data in the raw formats in a data storage architecture called a data lake. First, we present our study on the limitations of traditional data warehouses in handling recent changes in data paradigms. We discuss and compare different open source and commercial platforms that can be used to develop a data lake. We then describe our end-to-end data lake design and implementation approach using the Hadoop Distributed File System (HDFS) on the Hadoop Data Platform (HDP). Finally, we present a real-world data lake development use case for data stream ingestion, staging, and multilevel streaming analytics which combines structured and unstructured data. This study can serve as a guide for individuals or organizations planning to implement a data lake solution for their use cases. | 翻訳日:2022-10-14 22:40:07 公開日:2020-09-25 |
# 深部自動符号化GMMによる音響信号の教師なし異常検出とそのハイパーパラメータ最適化 Deep Autoencoding GMM-based Unsupervised Anomaly Detection in Acoustic Signals and its Hyper-parameter Optimization ( http://arxiv.org/abs/2009.12042v1 ) ライセンス: Link先を確認 | Harsh Purohit, Ryo Tanabe, Takashi Endo, Kaori Suefusa, Yuki Nikaido, and Yohei Kawaguchi | (参考訳) 工場機械の故障や故障は企業にとってコストがかかるため、自動機械検査の需要が高まっている。
ディープオートエンコーダ(DA)やガウス混合モデル(GMM)などの音響信号に基づく教師なし異常検出への既存のアプローチは、異常検出性能が劣っている。
本研究では,超パラメータ最適化(DAGMM-HO)を用いたガウス混合モデルに基づく新しい手法を提案する。
本手法では,DAGMM-HOが従来のDAGMMを音響領域に初めて適用し,次元の縮小と統計的モデリングによる全最適化により異常検出性能が向上すると考えられる。
さらに、DAGMM-HOは、ギャップ統計量と累積固有値に基づいて超パラメータ最適化を行うことにより、従来のDAGMMの超パラメータ感度問題を解く。
提案手法を産業ファンの実験データを用いて評価した結果,従来の手法よりも有意に優れ,標準AUCスコアによる最大20%の改善が得られた。 Failures or breakdowns in factory machinery can be costly to companies, so there is an increasing demand for automatic machine inspection. Existing approaches to acoustic signal-based unsupervised anomaly detection, such as those using a deep autoencoder (DA) or Gaussian mixture model (GMM), have poor anomaly-detection performance. In this work, we propose a new method based on a deep autoencoding Gaussian mixture model with hyper-parameter optimization (DAGMM-HO). In our method, the DAGMM-HO applies the conventional DAGMM to the audio domain for the first time, with the idea that its total optimization on reduction of dimensions and statistical modelling will improve the anomaly-detection performance. In addition, the DAGMM-HO solves the hyper-parameter sensitivity problem of the conventional DAGMM by performing hyper-parameter optimization based on the gap statistic and the cumulative eigenvalues. Our evaluation of the proposed method with experimental data of the industrial fans showed that it significantly outperforms previous approaches and achieves up to a 20% improvement based on the standard AUC score. | 翻訳日:2022-10-14 22:39:36 公開日:2020-09-25 |
# 鏡の輝きと情報比 Mirror Descent and the Information Ratio ( http://arxiv.org/abs/2009.12228v1 ) ライセンス: Link先を確認 | Tor Lattimore and Andr\'as Gy\"orgy | (参考訳) ミラー降下の安定性と,russo と van roy [2014] による情報比との関係を確立する。
解析の結果, 適切な損失推定器と探索分布を持つミラー降下は, ベイジアン後悔に対する情報指向サンプリングの限界と同様, 逆の後悔に関係していることがわかった。
その過程で、情報指向サンプリングの理論を開発し、後悔の上界が最もよく知られた情報理論上界と正確に一致するような敵の包帯に対する効率的なアルゴリズムを提供する。 We establish a connection between the stability of mirror descent and the information ratio by Russo and Van Roy [2014]. Our analysis shows that mirror descent with suitable loss estimators and exploratory distributions enjoys the same bound on the adversarial regret as the bounds on the Bayesian regret for information-directed sampling. Along the way, we develop the theory for information-directed sampling and provide an efficient algorithm for adversarial bandits for which the regret upper bound matches exactly the best known information-theoretic upper bound. | 翻訳日:2022-10-14 22:39:18 公開日:2020-09-25 |
# 協調フィルタリングにおける階層スレートの学習表現 Learning Representations of Hierarchical Slates in Collaborative Filtering ( http://arxiv.org/abs/2010.06987v1 ) ライセンス: Link先を確認 | Ehtsham Elahi and Ashok Chandrashekar | (参考訳) 我々は,ユーザが個別の項目ではなくスレートと対話するレコメンデーションシステムのための協調フィルタリングモデルの構築に興味を持っている。
これらのスレートは本質的に階層的である。
私たちのアプローチの中心的な考え方は、これらのスレートの低次元埋め込みを学ぶことです。
階層データを生成する基盤となる分布の(未知の)統計を利用して,これらの埋め込みを学ぶ新しい方法を提案する。
この表現学習アルゴリズムはボトムアップ方式で再帰的に適用できる単純な合成規則と見なすことができ、構成成分の表現の観点から任意に複雑な階層構造を表現することができる。
RecSys 2019チャレンジで使用されたものを含む、2つの実世界のレコメンデーションシステムデータセットについて、私たちのアイデアを実証します。
このデータセットでは、ソリューションに私たちのアプローチによって生成された機能として埋め込みを組み込むことで、勝利チームのモデルによって達成されるパフォーマンスを改善します。 We are interested in building collaborative filtering models for recommendation systems where users interact with slates instead of individual items. These slates can be hierarchical in nature. The central idea of our approach is to learn low dimensional embeddings of these slates. We present a novel way to learn these embeddings by making use of the (unknown) statistics of the underlying distribution generating the hierarchical data. Our representation learning algorithm can be viewed as a simple composition rule that can be applied recursively in a bottom-up fashion to represent arbitrarily complex hierarchical structures in terms of the representations of its constituent components. We demonstrate our ideas on two real world recommendation systems datasets including the one used for the RecSys 2019 challenge. For that dataset, we improve upon the performance achieved by the winning team's model by incorporating embeddings as features generated by our approach in their solution. | 翻訳日:2022-10-14 22:39:10 公開日:2020-09-25 |
# 動的平均化によるリソース制約オンデバイス学習 Resource-Constrained On-Device Learning by Dynamic Averaging ( http://arxiv.org/abs/2009.12098v1 ) ライセンス: Link先を確認 | Lukas Heppe and Michael Kamp and Linara Adilova and Danny Heinrich and Nico Piatkowski and Katharina Morik | (参考訳) データ生成デバイス間の通信は、部分的に世界の電力消費の増大の原因となっている。
したがって、コミュニケーションを減らすことは経済的にも生態学的にも不可欠である。
機械学習では、オンデバイス学習は生データの送信を回避し、通信を大幅に削減する。
さらに、データを集中化しないことは、プライバシーに敏感なデータを保護する。
しかし、ほとんどの学習アルゴリズムは計算能力が高く、エネルギー消費も高いハードウェアを必要とする。
対照的に、FPGAやマイクロコントローラのような超低消費電力プロセッサは、ローカルモデルのエネルギー効率のよい学習を可能にする。
通信効率のよい分散学習戦略と組み合わせることで、全体のエネルギー消費を削減し、ローカルデバイス上の限られたエネルギーのためにまだ不可能であったアプリケーションを可能にする。
最大の課題は、低消費電力プロセッサが一般的に整数処理能力しか持たないことです。
本稿では,低消費電力プロセッサ上で実行可能で,プライバシ保存が可能で,通信を効果的に最小化できる整数指数族における通信効率の高いオンデバイス学習手法について検討する。
実験的な評価は、この手法が中心的に学習された正規モデルに匹敵するモデル品質に到達できることを示す。
全体のエネルギー消費量を比較することで、機械学習タスクを解決するために必要なエネルギーをかなりの量削減できる。 The communication between data-generating devices is partially responsible for a growing portion of the world's power consumption. Thus reducing communication is vital, both, from an economical and an ecological perspective. For machine learning, on-device learning avoids sending raw data, which can reduce communication substantially. Furthermore, not centralizing the data protects privacy-sensitive data. However, most learning algorithms require hardware with high computation power and thus high energy consumption. In contrast, ultra-low-power processors, like FPGAs or micro-controllers, allow for energy-efficient learning of local models. Combined with communication-efficient distributed learning strategies, this reduces the overall energy consumption and enables applications that were yet impossible due to limited energy on local devices. The major challenge is then, that the low-power processors typically only have integer processing capabilities. This paper investigates an approach to communication-efficient on-device learning of integer exponential families that can be executed on low-power processors, is privacy-preserving, and effectively minimizes communication. The empirical evaluation shows that the approach can reach a model quality comparable to a centrally learned regular model with an order of magnitude less communication. Comparing the overall energy consumption, this reduces the required energy for solving the machine learning task by a significant amount. | 翻訳日:2022-10-14 22:32:57 公開日:2020-09-25 |
# なぜ統一予測の不確実性があるのか?
ディープ・スプリット・アンサンブルを使って Why have a Unified Predictive Uncertainty? Disentangling it using Deep Split Ensembles ( http://arxiv.org/abs/2009.12406v1 ) ライセンス: Link先を確認 | Utkarsh Sarawgi, Wazeer Zulfikar, Rishab Khincha, Pattie Maes | (参考訳) ブラックボックスニューラルネットワーク(NN)における不確実性の理解と定量化は、医療などの現実的な環境にデプロイする場合に重要である。
ベイジアン法と非ベイジアン法を用いた最近の研究は、NNに対して統一的な予測の不確実性をモデル化する方法を示している。
この不確実性を分解して、データ中の不均一性の粒度の源を解き放つことで、その根本原因に関する豊富な情報が得られる。
多変量ガウス混合モデルを用いて予測不確かさを解消するために、概念的に単純な非ベイズ的アプローチ、ディープ・スプリット・アンサンブルを提案する。
NNは、クラスタ毎の不確実性推定のために、入力機能のクラスタでトレーニングされている。
我々は,一連のベンチマーク回帰データセット上でのアプローチを評価するとともに,統一不確実性手法との比較を行った。
データセットのくそと経験則を用いた広範囲な分析は、本質的によく調整されたモデルを強調します。
我々の研究は、ベンチマークAlzheimerのデータセットを用いたマルチモーダル環境での適用性をさらに証明し、また、深い分割アンサンブルが隠されたモダリティ固有のバイアスをいかに強調するかを示した。
nnsに必要な最小限の変更とトレーニング手順、そして機能をクラスタにグループ化するための高い柔軟性により、デプロイが容易で便利です。
ソースコードはhttps://github.com/wazeerzulfikar/deep-split-ensemblesで入手できる。 Understanding and quantifying uncertainty in black box Neural Networks (NNs) is critical when deployed in real-world settings such as healthcare. Recent works using Bayesian and non-Bayesian methods have shown how a unified predictive uncertainty can be modelled for NNs. Decomposing this uncertainty to disentangle the granular sources of heteroscedasticity in data provides rich information about its underlying causes. We propose a conceptually simple non-Bayesian approach, deep split ensemble, to disentangle the predictive uncertainties using a multivariate Gaussian mixture model. The NNs are trained with clusters of input features, for uncertainty estimates per cluster. We evaluate our approach on a series of benchmark regression datasets, while also comparing with unified uncertainty methods. Extensive analyses using dataset shits and empirical rule highlight our inherently well-calibrated models. Our work further demonstrates its applicability in a multi-modal setting using a benchmark Alzheimer's dataset and also shows how deep split ensembles can highlight hidden modality-specific biases. The minimal changes required to NNs and the training procedure, and the high flexibility to group features into clusters makes it readily deployable and useful. The source code is available at https://github.com/wazeerzulfikar/deep-split-ensembles | 翻訳日:2022-10-14 22:31:46 公開日:2020-09-25 |
# 車両運動軌跡のクラスタリングのためのジェネリックフレームワーク A Generic Framework for Clustering Vehicle Motion Trajectories ( http://arxiv.org/abs/2009.12443v1 ) ライセンス: Link先を確認 | Fazeleh S.Hoseini, Sadegh Rahrovani, Morteza Haghir Chehreghani | (参考訳) 自動運転車の開発には、関連する運転シナリオで大量のデータにアクセスする必要がある。
しかし、このような運転シナリオのマニュアルアノテーションはコストがかかり、ルールベースの軌道ラベルシステムではエラーが発生する。
この問題に対処するため,(1) 軌跡の整列と時間的相違の定量化,(2) 軌跡に基づく相違点のベクトル空間への埋め込み,(3) 推移的関係の抽出,(4) 推移的関係の新たなベクトル空間への埋め込み,(5) 軌道を最適な数のクラスタ化,の5段階からなる効果的な非パラメトリック軌道クラスタリングフレームワークを提案する。
我々は,アノテーション付きトラジェクタからなる実世界の挑戦的データセットについて,提案フレームワークを調査し,評価する。
異なる長さの軌跡を持つ複雑さにもかかわらず,提案手法が有望な結果をもたらすことを観察する。
さらに,GAN(Generative Adversarial Network)が生成した合成データを用いて,実際のデータセットの増大を検証するためのフレームワークを拡張し,生成したトラジェクトリが真の基盤となるクラスタと一致しているかを検討する。 The development of autonomous vehicles requires having access to a large amount of data in the concerning driving scenarios. However, manual annotation of such driving scenarios is costly and subject to the errors in the rule-based trajectory labeling systems. To address this issue, we propose an effective non-parametric trajectory clustering framework consisting of five stages: (1) aligning trajectories and quantifying their pairwise temporal dissimilarities, (2) embedding the trajectory-based dissimilarities into a vector space, (3) extracting transitive relations, (4) embedding the transitive relations into a new vector space, and (5) clustering the trajectories with an optimal number of clusters. We investigate and evaluate the proposed framework on a challenging real-world dataset consisting of annotated trajectories. We observe that the proposed framework achieves promising results, despite the complexity caused by having trajectories of varying length. Furthermore, we extend the framework to validate the augmentation of the real dataset with synthetic data generated by a Generative Adversarial Network (GAN) where we examine whether the generated trajectories are consistent with the true underlying clusters. | 翻訳日:2022-10-14 22:31:21 公開日:2020-09-25 |
# 需要・供給予測のためのコンテキスト統合型関係時空間モデル A Context Integrated Relational Spatio-Temporal Model for Demand and Supply Forecasting ( http://arxiv.org/abs/2009.12469v1 ) ライセンス: Link先を確認 | Hongjie Chen, Ryan A. Rossi, Kanak Mahadik, and Hoda Eldardiry | (参考訳) 需要予測の伝統的な方法は、時間依存のモデリングのみに焦点を当てる。
しかし、時空間データの予測には複雑な非線形関係と空間依存性のモデリングが必要である。
さらに、動的なコンテキスト情報は需要値に大きな影響を与える可能性があるため、キャプチャする必要がある。
例えば、自転車シェアリングシステムでは、自転車の利用は天候に影響される可能性がある。
既存の方法は、文脈の影響が固定されていると仮定する。
しかし、文脈的影響は時間とともに進化していく。
本稿では,多段階先行需要予測のための時間的,リレーショナル,空間的,動的コンテキスト依存を利用した,新たなコンテキスト統合型関係モデルであるコンテキスト統合グラフニューラルネットワーク(cignn)を提案する。
本手法では,様々な地理的位置における需要ネットワークを考慮し,ネットワークをグラフとして表現する。
ノードが要求時系列を表すデマンドグラフと、コンテキストグラフ(各タイプのコンテキストに対して1つ)を定義し、ノードがコンテキスト時系列を表す。
様々なコンテキストが進化し、需要変動に動的に影響を及ぼすと仮定すると、提案するcignnモデルは、利用可能なすべてのコンテキスト情報から共同で学習する融合メカニズムを採用している。
我々の知る限りでは、これは動的コンテキストとグラフニューラルネットワークを統合して時空間需要予測を行い、予測精度を高める最初のアプローチである。
2つの実世界のデータセットで実験結果を示し、cignnが周期的および不規則な時系列ネットワークにおいて常に最先端のベースラインを上回ることを示した。 Traditional methods for demand forecasting only focus on modeling the temporal dependency. However, forecasting on spatio-temporal data requires modeling of complex nonlinear relational and spatial dependencies. In addition, dynamic contextual information can have a significant impact on the demand values, and therefore needs to be captured. For example, in a bike-sharing system, bike usage can be impacted by weather. Existing methods assume the contextual impact is fixed. However, we note that the contextual impact evolves over time. We propose a novel context integrated relational model, Context Integrated Graph Neural Network (CIGNN), which leverages the temporal, relational, spatial, and dynamic contextual dependencies for multi-step ahead demand forecasting. Our approach considers the demand network over various geographical locations and represents the network as a graph. We define a demand graph, where nodes represent demand time-series, and context graphs (one for each type of context), where nodes represent contextual time-series. Assuming that various contexts evolve and have a dynamic impact on the fluctuation of demand, our proposed CIGNN model employs a fusion mechanism that jointly learns from all available types of contextual information. To the best of our knowledge, this is the first approach that integrates dynamic contexts with graph neural networks for spatio-temporal demand forecasting, thereby increasing prediction accuracy. We present empirical results on two real-world datasets, demonstrating that CIGNN consistently outperforms state-of-the-art baselines, in both periodic and irregular time-series networks. | 翻訳日:2022-10-14 22:31:00 公開日:2020-09-25 |
# クロスグラフ生成スタックを用いた深部逆遷移学習 Deep Adversarial Transition Learning using Cross-Grafted Generative Stacks ( http://arxiv.org/abs/2009.12028v1 ) ライセンス: Link先を確認 | Jinyong Hou, Xuejie Ding, Stephen Cranefield, Jeremiah D. Deng | (参考訳) 現在のコンピュータビジョンで使われる深層領域適応法は、主に異なる領域にまたがる識別的特徴とドメイン不変特徴の学習に焦点を当てている。
本稿では、ソースとターゲットドメインを、調整可能なクロスグラフ生成ネットワークスタックの雇用と、トランジッション間の効果的な逆学習を通じて、中間的なトランジッション空間に投影することで、ドメインギャップを橋渡しする、新しい「ディープ・バーサル・トランジッション・ラーニング(datl)」フレームワークを提案する。
具体的には,2つの領域に対して可変オートエンコーダ(VAE)を構築し,VAEのデコーダスタックをクロスグラフすることで双方向遷移を形成する。
さらに、ターゲットドメインデータをソースドメインの既知のラベル空間にマッピングし、ドメイン適応のためにgan(generative adversarial networks)を用いる。
したがって、全体的な適応プロセスは、VAEによる特徴表現学習、遷移生成、GANによる遷移アライメントの3つのフェーズから構成される。
実験の結果,本手法は多数の教師なしドメイン適応ベンチマークにおいて最先端技術よりも優れていた。 Current deep domain adaptation methods used in computer vision have mainly focused on learning discriminative and domain-invariant features across different domains. In this paper, we present a novel "deep adversarial transition learning" (DATL) framework that bridges the domain gap by projecting the source and target domains into intermediate, transitional spaces through the employment of adjustable, cross-grafted generative network stacks and effective adversarial learning between transitions. Specifically, we construct variational auto-encoders (VAE) for the two domains, and form bidirectional transitions by cross-grafting the VAEs' decoder stacks. Furthermore, generative adversarial networks (GAN) are employed for domain adaptation, mapping the target domain data to the known label space of the source domain. The overall adaptation process hence consists of three phases: feature representation learning by VAEs, transitions generation, and transitions alignment by GANs. Experimental results demonstrate that our method outperforms the state-of-the art on a number of unsupervised domain adaptation benchmarks. | 翻訳日:2022-10-14 22:30:28 公開日:2020-09-25 |
# マルチビュー協調学習ネットワークを用いたスパースインタラクションデータからジョブとリユースをマッチングする学習 Learning to Match Jobs with Resumes from Sparse Interaction Data using Multi-View Co-Teaching Network ( http://arxiv.org/abs/2009.13299v1 ) ライセンス: Link先を確認 | Shuqing Bian, Xu Chen, Wayne Xin Zhao, Kun Zhou, Yupeng Hou, Yang Song, Tao Zhang and Ji-Rong Wen | (参考訳) オンラインリクルートデータの増大に伴い、ジョブとジョブのマッチングは、適切な履歴書と自動的にマッチする重要なタスクになっている。
このタスクは通常、教師付きテキストマッチング問題としてキャストされる。
教師あり学習はラベル付きデータが十分であれば強力である。
しかし、オンラインリクルートプラットフォームでは、ジョブ-リクルート間インタラクションデータは疎結合でノイズが多く、ジョブ-リクルートマッチングアルゴリズムのパフォーマンスに影響する。
そこで,本稿では,ジョブ・リザームマッチングのための疎相互作用データを用いたマルチビュー協調学習ネットワークを提案する。
ネットワークはテキストベースマッチングモデルと関係ベースマッチングモデルという2つの主要コンポーネントから構成されている。
2つのパートは、セマンティックな互換性を2つの異なるビューで捉え、相互に補完する。
スパースデータとノイズデータからの課題に対処するため、我々は2つのコンポーネントを組み合わせるための2つの戦略を設計した。
まず、2つのコンポーネントが学習したパラメータや表現を共有し、各コンポーネントのオリジナルの表現を拡張する。
さらに,学習データにおけるノイズの影響を低減するために,共同学習機構を採用する。
中心となるアイデアは、より信頼性の高いトレーニングインスタンスを選択することで、2つのコンポーネントが互いに助け合うことだ。
2つの戦略は、それぞれ表現強化とデータ強化に焦点を当てている。
純粋なテキストベースのマッチングモデルと比較して、提案手法は、トレーニングデータのノイズに耐性のある、限定的あるいはスパースなインタラクションデータからより良いデータ表現を学習することができる。
実験結果から,本モデルがジョブリデュームマッチングの最先端メソッドを上回ることができることを実証した。 With the ever-increasing growth of online recruitment data, job-resume matching has become an important task to automatically match jobs with suitable resumes. This task is typically casted as a supervised text matching problem. Supervised learning is powerful when the labeled data is sufficient. However, on online recruitment platforms, job-resume interaction data is sparse and noisy, which affects the performance of job-resume match algorithms. To alleviate these problems, in this paper, we propose a novel multi-view co-teaching network from sparse interaction data for job-resume matching. Our network consists of two major components, namely text-based matching model and relation-based matching model. The two parts capture semantic compatibility in two different views, and complement each other. In order to address the challenges from sparse and noisy data, we design two specific strategies to combine the two components. First, two components share the learned parameters or representations, so that the original representations of each component can be enhanced. More importantly, we adopt a co-teaching mechanism to reduce the influence of noise in training data. The core idea is to let the two components help each other by selecting more reliable training instances. The two strategies focus on representation enhancement and data enhancement, respectively. Compared with pure text-based matching models, the proposed approach is able to learn better data representations from limited or even sparse interaction data, which is more resistible to noise in training data. Experiment results have demonstrated that our model is able to outperform state-of-the-art methods for job-resume matching. | 翻訳日:2022-10-14 22:30:05 公開日:2020-09-25 |
# 視覚的接地型複合pcfgs Visually Grounded Compound PCFGs ( http://arxiv.org/abs/2009.12404v1 ) ライセンス: Link先を確認 | Yanpeng Zhao and Ivan Titov | (参考訳) 言語理解のための視覚的基盤の爆発が最近注目を集めている。
そこで本研究では,視覚的なグラマーインダクションを研究し,ラベルなしテキストとその視覚的接地から構成構文解析法を学習する。
このタスクに関する既存の作業(shi et al., 2019)では、画像と文のアライメントのみから学習信号の強化と導出を通じてパーサを最適化している。
モデル全体の精度は比較的高いが、その誤差分布は非常に不均一であり、特定の構成詞のタイプ(例えば、動詞句の26.2%のリコール、VPのリコール)や他よりも高い(名詞句の79.6%のリコール、NPs)。
フレーズ構造構文のすべての側面を導出するには学習信号が不十分であり、勾配推定がノイズが多いため、これは驚くべきことではない。
確率的文脈自由文法モデルの拡張を用いることで、完全に微分可能なエンドツーエンドの視覚基盤学習が可能になることを示す。
さらに、言語モデリングの目的により、画像とテキストのアライメントの損失を補完することもできます。
mscocoテストキャプションにおいて,本モデルは,その非接地版を上回り,構成文法インダクションにおける視覚的接地の有効性を確認することにより,芸術の新たな状態を確立する。
また、従来の接地モデルを大きく上回り、より多くの'抽象'カテゴリ(例えば+55.1%がvpsでリコール)で改善されている。 Exploiting visual groundings for language understanding has recently been drawing much attention. In this work, we study visually grounded grammar induction and learn a constituency parser from both unlabeled text and its visual groundings. Existing work on this task (Shi et al., 2019) optimizes a parser via Reinforce and derives the learning signal only from the alignment of images and sentences. While their model is relatively accurate overall, its error distribution is very uneven, with low performance on certain constituents types (e.g., 26.2% recall on verb phrases, VPs) and high on others (e.g., 79.6% recall on noun phrases, NPs). This is not surprising as the learning signal is likely insufficient for deriving all aspects of phrase-structure syntax and gradient estimates are noisy. We show that using an extension of probabilistic context-free grammar model we can do fully-differentiable end-to-end visually grounded learning. Additionally, this enables us to complement the image-text alignment loss with a language modeling objective. On the MSCOCO test captions, our model establishes a new state of the art, outperforming its non-grounded version and, thus, confirming the effectiveness of visual groundings in constituency grammar induction. It also substantially outperforms the previous grounded model, with largest improvements on more `abstract' categories (e.g., +55.1% recall on VPs). | 翻訳日:2022-10-14 22:23:56 公開日:2020-09-25 |
# テキスト分類における説明可能性手法の診断的研究 A Diagnostic Study of Explainability Techniques for Text Classification ( http://arxiv.org/abs/2009.13295v1 ) ライセンス: Link先を確認 | Pepa Atanasova, Jakob Grue Simonsen, Christina Lioma, Isabelle Augenstein | (参考訳) 機械学習の最近の進歩は、アーキテクチャの複雑さを増大させ、人のパフォーマンスにアプローチするモデルを導入している。
モデルの予測を透明にすることの理論的根拠を作る努力は、多くの新しい説明可能性技術を生み出した。
既にトレーニング済みのモデルで提供されると、入力インスタンスのワードに対するサリエンシスコアが計算される。
しかし、明確なガイドは存在しない。
(i)特定のアプリケーション・タスク及びモデル・アーキテクチャを与えられた技法をどのように選択するか、及び
(二)各技法の利点及び欠点
本稿では,既存の説明可能性評価のための診断特性の包括的リストを作成する。
次に,提案するリストを用いて,下流のテキスト分類タスクとニューラルネットワークアーキテクチャにおける多種多様な説明可能性手法を比較した。
また,説明可能性手法が与えるサラマンシースコアと有意な入力領域の人間の注釈を比較し,モデルの性能と,その妥当性の一致度との関係について検討した。
総じて,グラデーションに基づく説明は,タスクやモデルアーキテクチャにおいて最良であることが判明し,レビューされた説明可能性技法の特性についてさらなる知見を提供する。 Recent developments in machine learning have introduced models that approach human performance at the cost of increased architectural complexity. Efforts to make the rationales behind the models' predictions transparent have inspired an abundance of new explainability techniques. Provided with an already trained model, they compute saliency scores for the words of an input instance. However, there exists no definitive guide on (i) how to choose such a technique given a particular application task and model architecture, and (ii) the benefits and drawbacks of using each such technique. In this paper, we develop a comprehensive list of diagnostic properties for evaluating existing explainability techniques. We then employ the proposed list to compare a set of diverse explainability techniques on downstream text classification tasks and neural network architectures. We also compare the saliency scores assigned by the explainability techniques with human annotations of salient input regions to find relations between a model's performance and the agreement of its rationales with human ones. Overall, we find that the gradient-based explanations perform best across tasks and model architectures, and we present further insights into the properties of the reviewed explainability techniques. | 翻訳日:2022-10-14 22:21:53 公開日:2020-09-25 |
# セミ教師付き学習における公正性: ラベルなしデータによる識別の低減 Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce Discrimination ( http://arxiv.org/abs/2009.12040v1 ) ライセンス: Link先を確認 | Tao Zhang, Tianqing Zhu, Jing Li, Mengde Han, Wanlei Zhou, and Philip S. Yu | (参考訳) 機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
フェアネスという機械学習の概念を定式化し、精度を犠牲にして公平なモデルを構築するためのフレームワークを設計するための研究がすでに進行中であるが、ほとんどは教師なしまたは教師なしの学習に向けられている。
しかし、2つの観察から、半教師付き学習が差別問題を解決するのに有用かどうか疑問に思った。
第1に、トレーニングセットのサイズが大きくなると、公正性と精度のトレードオフが改善される可能性がある。
第2に、今日の最も強力なモデルでは、ラベル付きデータとラベルなしデータの組み合わせによって実現可能な、膨大なデータをトレーニングする必要がある。
そこで本稿では,未ラベルデータのラベル予測のための擬似ラベリング,複数の公平データセットを得るための再サンプリング,さらに,精度の向上と識別の低減を目的としたアンサンブル学習といった,前処理段階における公平な半教師付き学習の枠組みを提案する。
バイアス、分散、ノイズの理論的分解分析は、半教師付き学習の公平性に対する異なる差別源とそれらが与える影響を強調する。
実世界および合成データセットに関する一連の実験により,本手法はラベルのないデータを用いて精度と識別のトレードオフを改善することができることを示した。 A growing specter in the rise of machine learning is whether the decisions made by machine learning models are fair. While research is already underway to formalize a machine-learning concept of fairness and to design frameworks for building fair models with sacrifice in accuracy, most are geared toward either supervised or unsupervised learning. Yet two observations inspired us to wonder whether semi-supervised learning might be useful to solve discrimination problems. First, previous study showed that increasing the size of the training set may lead to a better trade-off between fairness and accuracy. Second, the most powerful models today require an enormous of data to train which, in practical terms, is likely possible from a combination of labeled and unlabeled data. Hence, in this paper, we present a framework of fair semi-supervised learning in the pre-processing phase, including pseudo labeling to predict labels for unlabeled data, a re-sampling method to obtain multiple fair datasets and lastly, ensemble learning to improve accuracy and decrease discrimination. A theoretical decomposition analysis of bias, variance and noise highlights the different sources of discrimination and the impact they have on fairness in semi-supervised learning. A set of experiments on real-world and synthetic datasets show that our method is able to use unlabeled data to achieve a better trade-off between accuracy and discrimination. | 翻訳日:2022-10-14 22:21:17 公開日:2020-09-25 |
# 類似特徴を持つデータセットの特徴選択安定性の調整 Adjusted Measures for Feature Selection Stability for Data Sets with Similar Features ( http://arxiv.org/abs/2009.12075v1 ) ライセンス: Link先を確認 | Andrea Bommert and J\"org Rahnenf\"uhrer | (参考訳) 類似した特徴、例えば高度に相関した特徴を持つデータセットの場合、既存の安定性尺度のほとんどは望ましくない方法で振る舞う。
既存の調整された安定性対策、すなわち特徴間の類似性を考慮した安定性対策には、大きな理論的欠点がある。
これらの欠点を克服する新しい調整安定対策を導入する。
それらと,選択した特徴の人工集合と実数集合の両方に基づく既存の安定性尺度との比較を行った。
この結果に基づき, 類似した特徴を交換可能なものとみなす新たな安定度尺度を提案する。 For data sets with similar features, for example highly correlated features, most existing stability measures behave in an undesired way: They consider features that are almost identical but have different identifiers as different features. Existing adjusted stability measures, that is, stability measures that take into account the similarities between features, have major theoretical drawbacks. We introduce new adjusted stability measures that overcome these drawbacks. We compare them to each other and to existing stability measures based on both artificial and real sets of selected features. Based on the results, we suggest using one new stability measure that considers highly similar features as exchangeable. | 翻訳日:2022-10-14 22:20:50 公開日:2020-09-25 |
# RecoBERT: テキストベースのレコメンデーションのためのカタログ言語モデル RecoBERT: A Catalog Language Model for Text-Based Recommendations ( http://arxiv.org/abs/2009.13292v1 ) ライセンス: Link先を確認 | Itzik Malkiel, Oren Barkan, Avi Caciularu, Noam Razin, Ori Katz and Noam Koenigstein | (参考訳) ラベルなしテキストから広範囲の自己教師付き事前学習を利用する言語モデルは、近年、様々な言語理解タスクにおける最先端のパフォーマンスを著しく向上させることが示されている。
しかし、これらの最近のモデルがテキストベースのレコメンデーションにどのように役立つのか、そしてどのように活用できるかはまだ不明である。
本研究では,テキストベースの項目推薦のためのカタログ特化言語モデルを学習するためのBERTベースのアプローチであるRecoBERTを紹介する。
項目類似度ラベルを必要としない項目のペア間の類似度を評価するための新しいトレーニングと推論手順を提案する。
トレーニングと推論の両方のテクニックは、テキストカタログのラベルのない構造を利用し、それらの相違を最小限に抑えるように設計された。
推論中に4つのスコアを組み込むことで、RecoBERTは他のテクニックよりも正確にテキストベースのアイテム間類似性を推測することができる。
また,専門家のワインレビューに基づく類似性を用いたワイン推薦のための新しい言語理解タスクを提案する。
追加の貢献として,人間ワイン専門家が作成した注釈付推奨データセットを公開する。
最後に、RecoBERTを評価し、ワインやファッションレコメンデーションタスクに関する様々な最先端のNLPモデルと比較する。 Language models that utilize extensive self-supervised pre-training from unlabeled text, have recently shown to significantly advance the state-of-the-art performance in a variety of language understanding tasks. However, it is yet unclear if and how these recent models can be harnessed for conducting text-based recommendations. In this work, we introduce RecoBERT, a BERT-based approach for learning catalog-specialized language models for text-based item recommendations. We suggest novel training and inference procedures for scoring similarities between pairs of items, that don't require item similarity labels. Both the training and the inference techniques were designed to utilize the unlabeled structure of textual catalogs, and minimize the discrepancy between them. By incorporating four scores during inference, RecoBERT can infer text-based item-to-item similarities more accurately than other techniques. In addition, we introduce a new language understanding task for wine recommendations using similarities based on professional wine reviews. As an additional contribution, we publish annotated recommendations dataset crafted by human wine experts. Finally, we evaluate RecoBERT and compare it to various state-of-the-art NLP models on wine and fashion recommendations tasks. | 翻訳日:2022-10-14 22:14:11 公開日:2020-09-25 |
# G-SimCLR : Pseudo Labellingによるガイド投影による自己監督型コントラスト学習 G-SimCLR : Self-Supervised Contrastive Learning with Guided Projection via Pseudo Labelling ( http://arxiv.org/abs/2009.12007v1 ) ライセンス: Link先を確認 | Souradip Chakraborty, Aritra Roy Gosthipaty, Sayak Paul | (参考訳) コンピュータビジョンの領域では、ディープニューラルネットワークが大量のラベル付きデータを持つ教師付き設定において、より良い性能を発揮することが明らかである。
監視によって学んだ表現は高品質であるだけでなく、モデルの精度を向上させるのにも役立ちます。
しかし、大規模なデータセットの収集とアノテーションはコストと時間を要する。
これを避けるために、特に自己教師なしの環境では教師なしの視覚的表現学習の分野で多くの研究が行われている。
視覚認識のための自己監督手法の最近の進歩の中で、SimCLR Chenらは、良質な表現は明示的な監督なしに学べることを示した。
SimCLRでは、同一画像の増大の類似度を最大化し、異なる画像の増大の類似度を最小化する。
このアプローチで学んだ表現で訓練された線形分類器は、imagenet ilsvrc-2012データセットで76.5%のtop-1精度をもたらす。
本研究は, 温度スケールクロスエントロピー(NT-Xent)損失関数を正規化することにより, 同じカテゴリの画像を同じバッチに保持しない方が有益であることを示す。
教師なしの設定では、同じカテゴリに関連する画像に関する情報が欠落している。
我々は、ラベルのないデータセットで訓練された復号化オートエンコーダの潜在空間表現を使用し、それらをk平均でクラスタリングして擬似ラベルを得る。
このエイプリオリ情報では、同じカテゴリの2つの画像が見つからない画像のバッチ化を行います。
CIFAR10データセットとImageNetデータセットのサブセットで同等のパフォーマンス向上を報告します。
我々はG-SimCLRと呼ぶ。 In the realms of computer vision, it is evident that deep neural networks perform better in a supervised setting with a large amount of labeled data. The representations learned with supervision are not only of high quality but also helps the model in enhancing its accuracy. However, the collection and annotation of a large dataset are costly and time-consuming. To avoid the same, there has been a lot of research going on in the field of unsupervised visual representation learning especially in a self-supervised setting. Amongst the recent advancements in self-supervised methods for visual recognition, in SimCLR Chen et al. shows that good quality representations can indeed be learned without explicit supervision. In SimCLR, the authors maximize the similarity of augmentations of the same image and minimize the similarity of augmentations of different images. A linear classifier trained with the representations learned using this approach yields 76.5% top-1 accuracy on the ImageNet ILSVRC-2012 dataset. In this work, we propose that, with the normalized temperature-scaled cross-entropy (NT-Xent) loss function (as used in SimCLR), it is beneficial to not have images of the same category in the same batch. In an unsupervised setting, the information of images pertaining to the same category is missing. We use the latent space representation of a denoising autoencoder trained on the unlabeled dataset and cluster them with k-means to obtain pseudo labels. With this apriori information we batch images, where no two images from the same category are to be found. We report comparable performance enhancements on the CIFAR10 dataset and a subset of the ImageNet dataset. We refer to our method as G-SimCLR. | 翻訳日:2022-10-14 22:13:56 公開日:2020-09-25 |
# 効果的なデータデノイジングとロバストなアブステンションのための統一プラグイン・アンド・プレイフレームワーク A Unified Plug-and-Play Framework for Effective Data Denoising and Robust Abstention ( http://arxiv.org/abs/2009.12027v1 ) ライセンス: Link先を確認 | Krishanu Sarker, Xiulong Yang, Yang Li, Saeid Belkasim and Shihao Ji | (参考訳) Deep Neural Networks(DNN)の成功は、データ品質に大きく依存している。
さらに、予測の不確実性は、現実世界のデプロイメントにおいて高いパフォーマンスのDNNを危険にさらす。
本稿では,この2つの課題に対処するために,基礎となるデータ密度を利用した統合フィルタリングフレームワークを提案する。
提案フレームワークは,既存のDNNアーキテクチャや損失関数を変更することなく,ノイズとクリーンなデータサンプルを区別するために基盤となるデータ分布を利用する。
複数の画像分類データセットと複数のcnnアーキテクチャに関する広範囲な実験によって、我々のシンプルで効果的なフレームワークは、トレーニングデータを非表示化し、不確定なテストデータを保存する技術よりも優れています。 The success of Deep Neural Networks (DNNs) highly depends on data quality. Moreover, predictive uncertainty makes high performing DNNs risky for real-world deployment. In this paper, we aim to address these two issues by proposing a unified filtering framework leveraging underlying data density, that can effectively denoise training data as well as avoid predicting uncertain test data points. Our proposed framework leverages underlying data distribution to differentiate between noise and clean data samples without requiring any modification to existing DNN architectures or loss functions. Extensive experiments on multiple image classification datasets and multiple CNN architectures demonstrate that our simple yet effective framework can outperform the state-of-the-art techniques in denoising training data and abstaining uncertain test data. | 翻訳日:2022-10-14 22:13:28 公開日:2020-09-25 |
# Weird AI Yankovic:パロディ歌詞の生成 Weird AI Yankovic: Generating Parody Lyrics ( http://arxiv.org/abs/2009.12240v1 ) ライセンス: Link先を確認 | Mark Riedl | (参考訳) 歌詞パロディは、メロディに付随する1組の単語を新しい単語セットに置き換え、1行あたりの音節数と韻律のスキームを保存する。
歌詞パロディ生成は、制御可能なテキスト生成の課題である。
我々は,XLNetと後方テキスト生成を組み合わせた特殊なサンプリング手法が,音節や韻律の制約を確実に満たすパロディの歌詞を生成する方法を示し,Werd AI Yankovicシステムを導入し,ケーススタディの評価を行った。
神経リリックパロディ生成の社会的意味について考察した。 Lyrics parody swaps one set of words that accompany a melody with a new set of words, preserving the number of syllables per line and the rhyme scheme. Lyrics parody generation is a challenge for controllable text generation. We show how a specialized sampling procedure, combined with backward text generation with XLNet can produce parody lyrics that reliably meet the syllable and rhyme scheme constraints.We introduce the Weird AI Yankovic system and provide a case study evaluation. We conclude with societal implications of neural lyric parody generation. | 翻訳日:2022-10-14 22:12:22 公開日:2020-09-25 |