このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200604となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 光学的相互作用を持つ2体量子吸収冷凍機 Two-body quantum absorption refrigerators with optomechanical-like interactions ( http://arxiv.org/abs/2002.11472v2 ) ライセンス: Link先を確認 | M. Tahir Naseem, Avijit Misra, and \"Ozg\"ur E. M\"ustecapl{\i}o\u{g}lu | (参考訳) 量子吸収冷凍機(qar)は冷浴から熱を自律的に抽出し、高温貯水池からの入力熱を利用して温浴に投入する。
QARは通常3体インタラクションを必要とする。
本研究では,2つの2レベル系または2つの高調波発振器または1つの2レベル原子と1つの高調波発振器からなる加工媒体における光学的結合に基づく2体QARモデルを提案する。
内部散逸のない理想の場合、実験的に実現可能なパラメータ内では、このモデルはカルノ束に任意に近い性能係数を得ることができる。
本研究は, 最大電力における効率, 実用上のバウンダリについて検討し, 適切な貯水池工学を用い, 非線形オプトメカニカルな結合を利用して, カーノーバウンドに近い最大電力で効率を達成できることを示し, 効率がカルノーバウンドに近づくにつれて, 電力は徐々にゼロに近づきつつある。
さらに,非古典的相関とヒルベルト空間の大きさが冷却力に与える影響についても検討する。
最後に、QARを非理想的とし、Carnot効率を達成できないような熱漏れを考慮した、より現実的なモデルについて考察する。 Quantum absorption refrigerator (QAR) autonomously extracts heat from a cold bath and dumps into a hot bath by exploiting the input heat from a higher temperature reservoir. QARs typically require three-body interactions. We propose and examine a two-body QAR model based upon optomechanical-like coupling in the working medium composed of either two two-level systems or two harmonic oscillators or one two-level atom and a harmonic oscillator. In the ideal case without internal dissipation, within the experimentally realizable parameters, our model can attain the coefficient of performance that is arbitrarily close to the Carnot bound. We study the efficiency at maximum power, a bound for practical purposes, and show that by using suitable reservoir engineering and exploiting the nonlinear optomechanial-like coupling, one can achieve efficiency at maximum power close to the Carnot bound, though the power gradually approaches to zero as the efficiency approaches the Carnot bound. Moreover, we discuss the impact of non-classical correlations and the size of Hilbert space on the cooling power. Finally, we consider a more realistic version of our model in which we consider heat leaks that makes QAR non-ideal and prevent it to achieve the Carnot efficiency. | 翻訳日:2023-06-01 21:15:12 公開日:2020-06-04 |
# 3量子状態のトライアングルの測定 Measuring the tangle of three-qubit states ( http://arxiv.org/abs/2003.06895v3 ) ライセンス: Link先を確認 | Adri\'an P\'erez-Salinas, Diego Garc\'ia-Mart\'in, Carlos Bravo-Prieto, Jos\'e I. Latorre | (参考訳) 我々は、未知の3量子ビット状態から、元の状態の多くのコピーを与えられた相対位相まで、その正準形式に変換する量子回路を示す。
この回路は3つの単一量子ビットパラメトリ化された量子ゲートから成り、パラメータの最適値は変分的に学習される。
この変換が達成されると、計算基底における結果確率の直接測定により、真の三成分の絡み合いを定量化するタングルの推定が得られる。
異なる雑音条件下でランダムな状態の集合上でシミュレーションを行い,その妥当性を評価する。 We present a quantum circuit that transforms an unknown three-qubit state into its canonical form, up to relative phases, given many copies of the original state. The circuit is made of three single-qubit parametrized quantum gates, and the optimal values for the parameters are learned in a variational fashion. Once this transformation is achieved, direct measurement of outcome probabilities in the computational basis provides an estimate of the tangle, which quantifies genuine tripartite entanglement. We perform simulations on a set of random states under different noise conditions to asses the validity of the method. | 翻訳日:2023-05-29 02:27:41 公開日:2020-06-04 |
# 点、一般化アフィン制約および量子論によって生成される面 The face generated by a point, generalized affine constraints, and quantum theory ( http://arxiv.org/abs/2003.14302v2 ) ライセンス: Link先を確認 | Stephan Weis and Maksim Shirokov | (参考訳) 我々は任意の凸集合の点とそれらの相対代数的内部から生成される顔を分析する。
一般化アフィン汎関数の部分レベルまたはレベル集合と凸集合を交わすことで、点によって生成される面の次元を少なくとも1つ減らすことができることを示す。
この結果を分離可能なヒルベルト空間上の量子状態の集合に適用する。
特に、任意の2つの(必ずしも有界ではない)正作用素の有限期待値を持つ全ての状態は、同じ期待値を持つ純状態への分解を許す。
量子情報理論の応用について論じる。 We analyze faces generated by points in an arbitrary convex set and their relative algebraic interiors, which are nonempty as we shall prove. We show that by intersecting a convex set with a sublevel or level set of a generalized affine functional, the dimension of the face generated by a point may decrease by at most one. We apply the results to the set of quantum states on a separable Hilbert space. Among others, we show that every state having finite expected values of any two (not necessarily bounded) positive operators admits a decomposition into pure states with the same expected values. We discuss applications in quantum information theory. | 翻訳日:2023-05-27 07:41:59 公開日:2020-06-04 |
# フェルミオン性およびボゾン性キラルトポロジー物質における固有符号問題 Intrinsic sign problem in fermionic and bosonic chiral topological matter ( http://arxiv.org/abs/2005.05566v2 ) ライセンス: Link先を確認 | Omri Golan, Adam Smith, Zohar Ringel | (参考訳) 悪名高い符号問題は、ジェネリック多体量子システムのモンテカルロシミュレーションにおいて指数関数的複雑性をもたらす。
それでも、多くの段階の物質は記号プロブレムのない代表体を持ち、古典的コンピュータ上で効率的なシミュレーションを可能にすることが知られている。
多体物理学における長年の公然とした問題と量子複雑性の基本的な問題によって動機づけられた、物質がサインプロブレムのない代表を許さないような本質的な符号問題の可能性が最近持ち上げられたが、いまだにほとんど解明されていない。
ここでは,物体のギャップ,キラル,トポロジ的位相の広いクラスにおいて,本質的な符号問題の存在を確立する。
このクラスでは、ボソン(または'qudits')に対する確率的ハミルトニアンと、フェルミオンに対する符号プロブレムフリー行列式モンテカルロアルゴリズムの可能性を除外する。
我々が同定する位相の本質的に符号プロブルクラスは、明確な可観測符号を持つ位相不変量(キラル中心電荷、およびオンの位相スピン)によって定義される。
自発的にキラルとなる相の類似した結果を得るとともに,キラルおよび非キラルトポロジカル物質に適用される結果の拡張の証拠を示す。 The infamous sign problem leads to an exponential complexity in Monte Carlo simulations of generic many-body quantum systems. Nevertheless, many phases of matter are known to admit a sign-problem-free representative, allowing efficient simulations on classical computers. Motivated by long standing open problems in many-body physics, as well as fundamental questions in quantum complexity, the possibility of intrinsic sign problems, where a phase of matter admits no sign-problem-free representative, was recently raised but remains largely unexplored. Here, we establish the existence of an intrinsic sign problem in a broad class of gapped, chiral, topological phases of matter. Within this class, we exclude the possibility of stoquastic Hamiltonians for bosons (or 'qudits'), and of sign-problem-free determinantal Monte Carlo algorithms for fermions. The intrinsically sign-problematic class of phases we identify is defined in terms of topological invariants with clear observable signatures: the chiral central charge, and the topological spins of anyons. We obtain analogous results for phases that are spontaneously chiral, and present evidence for an extension of our results that applies to both chiral and non-chiral topological matter. | 翻訳日:2023-05-20 11:59:16 公開日:2020-06-04 |
# 空洞QEDネットワークにおけるカオスの発生と光子移動制御 Emergence of chaos and controlled photon transfer in a cavity-QED network ( http://arxiv.org/abs/2005.10202v2 ) ライセンス: Link先を確認 | Amit Dey, Manas Kulkarni | (参考訳) キャビティQEDネットワークにおける光子転送の効率化のための最適プロトコルを開発する。
これは、時間変化の容量結合(慎重に選択されたスイープレート)が重要な役割を果たす、刺激されたラマン断熱路(STIRAP)スキームによって実行される。
我々は,半古典的限界が有効である体制で働き,光-物質結合に起因する動的カオスについて検討する。
本研究では,効率的な光子移動を確保するために,スイープレートの低い領域を推定する上で重要な役割を担っていることを示す。
我々は、モデルのオープン量子システム拡張と同様に、Hermitianを提示する。
一般性を失うことなく, 3つの空洞と4つのキャビティケースを調査し, より大きなネットワークに適用できることを示した。
本解析は非線形開量子システム全般を対象としたトランスポートプロトコルの設計にも重要である。 We develop optimal protocols for efficient photon transfer in a cavity-QED network. This is executed through stimulated Raman adiabatic passage (STIRAP) scheme, where time-varying capacitive couplings (with carefully chosen sweep rate) play a key role. We work in a regime where semiclassical limit is valid and we investigate the dynamical chaos caused by the light-matter coupling. We show that this plays a crucial role in estimating the lower bound on the sweep rate for ensuring efficient photon transfer. We present Hermitian as well as an open quantum system extension of the model. Without loss of generality, we study the three cavity and four cavity case and our results can be adapted to larger networks. Our analysis is also significant in designing transport protocols aimed for nonlinear open quantum systems in general. | 翻訳日:2023-05-19 05:52:10 公開日:2020-06-04 |
# 光子付加および減算qudit状態の高次非古典性 Higher-Order Nonclassicality in Photon Added and Subtracted Qudit States ( http://arxiv.org/abs/2006.02150v2 ) ライセンス: Link先を確認 | Kathakali Mandal and Amit Verma | (参考訳) r光子付加とt光子減算qudit状態(それぞれ rpaqs と tpsqs と呼ばれる)の高次非古典的性質について、次のように答える: 光子の付加と減算が、qudit状態の高次非古典的性質にどのように役立つか?
まず、rpaqsとtpsqsに対して、関連するボソニック場作用素の解高次モーメントを求め、その後、対応する状態の高次非古典的性質を研究するためにこれを用いる。
高次非古典性(例えば、高次アンチバンシング、高次ヒルリー型の高次スキーズ、高次サブポアソニアン光子統計)の証人は、まず、rPAQSとtPSQSが非常に非古典的であることを示すために用いられる。
これらの証人は、光子が加わった数(r)によって非古典性の量が増加することを示す。
この観察を定量的に確立し、かつ、rPAQSとtPSQSの比較を行うために、rPAQSとtPSQSのウィグナー関数(非古典ボリューム)の負の部分の体積を非古典性の定量的尺度として計算する。
最後に、得られた結果の可視性のために、実験的に得られる光断層図を報告し、ラドン変換によりウィグナー関数(一般に直接測定できない)を生成する。
この研究を通じて、新しい一般化された二項状態として名づけられた特定のqudit状態が例として用いられる。 Higher-order nonclassical properties of r photon added and t photon subtracted qudit states (referred to as rPAQS and tPSQS, respectively) are investigated here to answer: How addition and subtraction of photon can be used engineer higher-order nonclassical properties of qudit states? To obtain the answer higher-order moment of relevant bosonic field operators are first obtained for rPAQS and tPSQS, and subsequently the same is used to study the higher-order nonclassical properties of the corresponding states. A few witnesses of higher-order nonclassicality (e.g. Higher-Order Antibunching, Higher-Order Squeezing of Hillery type, Higher-Order sub-Poissonian Photon statistics) are first used to establish that rPAQS and tPSQS are highly nonclassical. These witnesses are found to indicate that the amount of nonclassicality enhances with the number of photon added (r). To quantitatively establish this observation and to make a comparison between rPAQS and tPSQS, volumes of the negative part of Wigner function (nonclassical volume) of rPAQS and tPSQS are computed as a quantitative measure of nonclassicality. Finally, for the sake of verifiablity of the obtained results, optical tomograms are also reported which can be obtained experimentally and used to produce Wigner function (which is not directly measurable in general) by the Radon transform. Throughout the study, a particular type of qudit state named as a new generalized binomial state is used as an example. | 翻訳日:2023-05-17 06:52:38 公開日:2020-06-04 |
# 仮想発電所における統一データガバナンス Unionized Data Governance in Virtual Power Plants ( http://arxiv.org/abs/2006.02709v1 ) ライセンス: Link先を確認 | Niels {\O}rb{\ae}k Chemnitz, Philippe Bonnet, Irina Shklovski, Sebastian B\"uttrich and Laura Watts | (参考訳) フレキシブルな電気ネットワークはICTシステムを通して継続的に協調し最適化する。
オーバーレイデータグリッドは、電力網の状態や、家庭や産業における電力需要の状況や生産状況に関する情報を伝達する。
したがって、データは電力網上の電力コストと資産の可用性に影響を与える決定の基礎となる。
これらの決定が明確に定義されたガバナンスモデルに従って形成され、監視されることは重要です。
現在、このようなデータガバナンスモデルは存在しない。
本稿では,フレキシブル電力ネットワークにおける仮想発電所の中枢的役割に着目した。
我々は,仮想電源におけるデータガバナンスの問題を定義し,本システムの固有非対称性に関連する問題に固執する。
我々は、この問題を推論するためのフレーミング装置として合体化を提案する。
本論文の中心的な貢献は,仮想発電所における統合データガバナンスモデルの原則である。 Flexible electricity networks continuously coordinate and optimize operations through ICT systems. An overlay data grid conveys information about the state of the electricity grid, as well as the status of demand and production of electricity in households and industry. Data is thus the basis for decisions that affect electricity costs and availability of assets on the electricity grid. It is crucial that these decisions are formed and monitored according to a well-defined governance model. No such data governance model exists today. In this paper, we focus on the central role of virtual power plants in flexible electricity networks. We define the problem of data governance in a virtual power plant, insisting on the issues linked to the inherent asymmetry of this system. We propose unionization as a framing device to reason about this issue. The central contribution of this paper is thus principles for a unionized data governance model for virtual power plants. | 翻訳日:2023-05-17 04:35:58 公開日:2020-06-04 |
# 光のスピンと軌道角モーメントの性質 Properties of Spin and Orbital Angular Momenta of Light ( http://arxiv.org/abs/2006.02673v1 ) ライセンス: Link先を確認 | Arvind, S. Chaturvedi, N. Mukunda | (参考訳) 本稿では、量子力学的枠組みにおけるスピンおよび軌道角モータの代数的および物理的性質を解析する。
これらは量子力学的な意味での角モーメントではないという事実の結果は、数学的に詳細に研究されている。
角運動量のスピン部分が連続固有値を持つことが判明した。
特に、光子に対するラゲール-ガウスモードの定義や偏光の度合いを考慮に入れた古典的な光場に注意が向けられる。 This paper analyzes the algebraic and physical properties of the spin and orbital angular momenta of light in the quantum mechanical framework. The consequences of the fact that these are not angular momenta in the quantum mechanical sense are worked out in mathematical detail. It turns out that the spin part of the angular momentum has continuous eigenvalues. Particular attention is given to the paraxial limit, and to the definition of Laguerre--Gaussian modes for photons as well as classical light fields taking full account of the polarization degree of freedom. | 翻訳日:2023-05-17 04:35:47 公開日:2020-06-04 |
# 多くの負のデコヒーレンス率を持つ量子進化 Quantum evolution with a large number of negative decoherence rates ( http://arxiv.org/abs/2006.02793v1 ) ライセンス: Link先を確認 | Katarzyna Siudzi\'nska and Dariusz Chru\'sci\'nski | (参考訳) 量子進化における非マルコフ効果は、システムが環境と強く結合し、長期間にわたって相互作用するときに現れる。
マスター方程式にメモリエフェクトを含めるために、通常は時間ローカルのジェネレータやメモリカーネルを組み込む。
しかし、恒常的に負のデコヒーレンス率を持つ非マルコフ的進化は、マルコフ半群の単純な混合から生じる。
さらに、$(d-1)^2$は常に$d^2-1$の負の速度を持つことができ、量子進化は依然として正当である。 Non-Markovian effects in quantum evolution appear when the system is strongly coupled to the environment and interacts with it for long periods of time. To include memory effects in the master equations, one usually incorporates time-local generators or memory kernels. However, it turns out that non-Markovian evolution with eternally negative decoherence rates arises from a simple mixture of Markovian semigroups. Moreover, one can have as many as $(d-1)^2$ always negative rates out of $d^2-1$ total, and the quantum evolution is still legitimate. | 翻訳日:2023-05-17 04:31:23 公開日:2020-06-04 |
# 量子型ロボット知覚モデルのための予備的検討 A Preliminary Study for a Quantum-like Robot Perception Model ( http://arxiv.org/abs/2006.02771v1 ) ライセンス: Link先を確認 | Davide Lanza, Paolo Solinas, Fulvio Mastrogiovanni | (参考訳) 量子論に基づく形式論は、その記述的特徴から何十年にもわたって認知科学において用いられてきた。
quantum-like(ql)アプローチは、状態重ね合わせや確率的干渉行動といった記述的特徴を提供する。
さらに、量子系ダイナミクスは認知系や生物学的系のダイナミクスに同型であることが発見されている。
本研究の目的は,感知能力に乏しいロボットのql知覚モデルの実現可能性を検討することである。
そこで本研究では,その限界を浮き彫りにして,シミュレーションによる実際のロボットの動作を解析し,量子デバイスに基づく実際の実装が不均衡な状況でエラーに遭遇するケーススタディを紹介する。
ロボットの振る舞いに対するQLモデルの調査と、ロボットの知識表現と処理にQLアプローチが活用する利点について研究するために、量子バックエンドの実際の実現よりもシミュレーション指向の手法を進めることが望ましいと論じる。 Formalisms based on quantum theory have been used in Cognitive Science for decades due to their descriptive features. A quantum-like (QL) approach provides descriptive features such as state superposition and probabilistic interference behavior. Moreover, quantum systems dynamics have been found isomorphic to cognitive or biological systems dynamics. The objective of this paper is to study the feasibility of a QL perception model for a robot with limited sensing capabilities. We introduce a case study, we highlight its limitations, and we investigate and analyze actual robot behaviors through simulations, while actual implementations based on quantum devices encounter errors for unbalanced situations. In order to investigate QL models for robot behavior, and to study the advantages leveraged by QL approaches for robot knowledge representation and processing, we argue that it is preferable to proceed with simulation-oriented techniques rather than actual realizations on quantum backends. | 翻訳日:2023-05-17 04:30:38 公開日:2020-06-04 |
# 反強磁性体トポロジー絶縁体ヘテロ構造からの異常磁気光学効果 Anomalous Magneto Optic Effects from an Antiferromagnet Topological-Insulator Heterostructure ( http://arxiv.org/abs/2006.02752v1 ) ライセンス: Link先を確認 | Amrit De, Tonmoy K. Bhowmick and Roger Lake | (参考訳) ネット磁化のない物質は一般に磁気光学活性を持たない。
これは、コリニア反強磁性体(AFM)とトポロジカル絶縁体(TI)にそれぞれ当てはまるが、TI膜とAFM膜が近接すると、磁気光学カー効果(MOKE)が現れる。
マクロ磁化の欠如により、AFMはTIの表面の1つが時間反転対称性と反転対称性を破るスピンにのみ結合し、これは小さな$\mu$deg MOKE信号に繋がる。
この小型MOKEは、基板上のAFM膜とTI膜厚を最適化することにより、空洞共鳴により5桁の規模で容易に拡張することができる。
わずかに非共鳴構造の場合、フェルミエネルギーを変化させることで6デグのカー回転を電気的に切り替えることができる。
これは20 meV未満で、低消費電力のスピントロニクスと磁気光学デバイスを奨励する。
さらに, この簡単な構造は5%の材料成長誤差に対して容易に弾力性を示す。 Materials with no net magnetization are generally not magneto-optically active. While this is individually true for a collinear antiferromagnet (AFM) and a topological insulator (TI), it is shown here that the magneto-optic Kerr effect (MOKE) emerges when the TI and AFM films are proximity coupled. Because of the lack of macroscopic magnetization, the AFM only couples to the spin of one of the TI's surfaces breaking time-reversal and inversion symmetry -- which leads to a tiny $\mu$deg MOKE signal. This small MOKE can be easily enhanced by 5 orders of magnitude, via cavity resonance, by optimizing the AFM and TI film thicknesses on the substrate. For slightly off-resonant structures, a 6 deg Kerr rotation can be electrically switched on by varying the Fermi energy. This requires less than 20 meV, which is encouraging for low power spintronics and magneto-optic devices. We further show that this simple structure is easily resilient to 5% material growth error. | 翻訳日:2023-05-17 04:30:08 公開日:2020-06-04 |
# 3配位子スピンスター構造における動的対絡と2点相関 Dynamical pairwise entanglement and two-point correlations in the three-ligand spin-star structure ( http://arxiv.org/abs/2006.02738v1 ) ライセンス: Link先を確認 | Mostafa Motamedifar | (参考訳) 動的対絡の枠組みにおいて、均質なハイゼンベルク相互作用(XXX-3LSSS)による三配位子スピン星構造を考える。
中央量子ビット "one-particle" 状態 (cops) の時間発展は周期的時間瞬間における量子w状態の生成をもたらすことが示されている。
反対に、w状態はリガンド「1粒子」状態(lops)の時間発展から生成することはできない。
また, 2点量子相関の動的挙動や, xxx-3lsssの各要素に対するスピン成分の期待値についても検討した。
w状態が生成されると、全ての量子ビット間で同じ共起の値がxxとyyの2点の量子相関から生じることが分かる。
反対に、2つの量子ビット間のzz量子相関は、この瞬間に消失する。 We consider the three-ligand spin-star structure through homogeneous Heisenberg interactions (XXX-3LSSS) in the framework of dynamical pairwise entanglement. It is shown that the time evolution of the central qubit "one-particle" state (COPS) results in the generation of quantum W states at periodical time instants. On the contrary, W states cannot be generated from the time evolution of a ligand "one-particle" state (LOPS). We also investigate the dynamical behavior of two-point quantum correlations as well as the expectation values of the different spin-components for each element in the XXX-3LSSS. It is found that when a W state is generated, the same value of concurrence among all qubits arises from xx and yy two-point quantum correlations. On the opposite, zz quantum correlation between any two qubits vanishes at these time instants. | 翻訳日:2023-05-17 04:29:49 公開日:2020-06-04 |
# 完全量子ドットを用いた量子テレポーテーション Quantum Teleportation with Imperfect Quantum Dots ( http://arxiv.org/abs/2006.02733v1 ) ライセンス: Link先を確認 | Francesco Basso Basset, Francesco Salusti, Lucas Schweickert, Michele B. Rota, Davide Tedeschi, Saimon F. Covre da Silva, Emanuele Roccia, Val Zwiller, Klaus D. J\"ons, Armando Rastelli, Rinaldo Trotta | (参考訳) 効率的な全フォトニック量子テレポーテーションは、高度に区別不能で絡み合った光子の高速かつ決定論的源を必要とする。
固体ベースの量子エミッタ — 特に半導体量子ドット — は、この役割の有望な候補である。
しかしながら、ナノファブリケーションの著しい進歩にもかかわらず、量子テレポーテーションの概念実証は、エミッタの不完全さが依然として応用方法の大きな障害となっていることを強調している。
ここでは、ソース最適化戦略に重点を置くのではなく、異なるテレポーテーションプロトコルを研究し、最大テレポーテーション忠実度を持つものを特定することを目的としている。
エンタングルメントと光子不明瞭性のサブパー値を持つ量子ドットを用いて、古典的極限以下から0.842(14)まで平均テレポーテーション忠実度を上げることができることを示す。
実験結果を定量的に説明する理論モデルによって裏付けられたこの結果は、理想的なエンタングル光子源に設定された厳密な要件を緩和し、テレポーテーションベースの量子通信アーキテクチャにおいて、不完全な量子ドットがいまだに存在し得ることを強調する。 Efficient all-photonic quantum teleportation requires fast and deterministic sources of highly indistinguishable and entangled photons. Solid-state-based quantum emitters--notably semiconductor quantum dots--are a promising candidate for the role. However, despite the remarkable progress in nanofabrication, proof-of-concept demonstrations of quantum teleportation have highlighted that imperfections of the emitter still place a major roadblock in the way of applications. Here, rather than focusing on source optimization strategies, we deal with imperfections and study different teleportation protocols with the goal of identifying the one with maximal teleportation fidelity. Using a quantum dot with sub-par values of entanglement and photon indistinguishability, we show that the average teleportation fidelity can be raised from below the classical limit to 0.842(14). Our results, which are backed by a theoretical model that quantitatively explains the experimental findings, loosen the very stringent requirements set on the ideal entangled-photon source and highlight that imperfect quantum dots can still have a say in teleportation-based quantum communication architectures. | 翻訳日:2023-05-17 04:29:40 公開日:2020-06-04 |
# 長距離ポテンシャルの伝達行列 Transfer matrix for long-range potentials ( http://arxiv.org/abs/2006.02989v1 ) ライセンス: Link先を確認 | Farhang Loran and Ali Mostafazadeh | (参考訳) 我々は、ポテンシャル散乱の移動行列の概念を、大きな長距離ポテンシャルのクラス$v(x)$に拡張し、その基本的性質を導出する。
我々は、このポテンシャルのクラスに対する時間非依存散乱理論の動的定式化を概説し、それらの移動行列を、ある有効で非ユニタリな2レベル量子系の$s$行列と同一視する。
十分大きな値$|x|$ に対して、v(x)$ を短距離ポテンシャルと正確に可解な長距離ポテンシャルの和として表す。
この結果と移動行列の合成特性を用いて, 散乱問題を解く近似スキームを $v(x)$ で概説する。
このスキームの有効性を示すために,完全可解な長距離ポテンシャルを構築し,その反射係数と伝達係数の正確な値を近似スキームを用いて比較する。 We extend the notion of the transfer matrix of potential scattering to a large class of long-range potentials $v(x)$ and derive its basic properties. We outline a dynamical formulation of the time-independent scattering theory for this class of potentials where we identify their transfer matrix with the $S$-matrix of a certain effective non-unitary two-level quantum system. For sufficiently large values of $|x|$, we express $v(x)$ as the sum of a short-range potential and an exactly solvable long-range potential. Using this result and the composition property of the transfer matrix, we outline an approximation scheme for solving the scattering problem for $v(x)$. To demonstrate the effectiveness of this scheme, we construct an exactly solvable long-range potential and compare the exact values of its reflection and transmission coefficients with those we obtain using our approximation scheme. | 翻訳日:2023-05-17 04:23:40 公開日:2020-06-04 |
# クイップEプログラムにおける量子マルコフ連鎖解析 Quantum Markov Chain Semantics for Quip-E Programs ( http://arxiv.org/abs/2006.02847v1 ) ライセンス: Link先を確認 | Linda Anticoli and Leonardo Taglialegne | (参考訳) 本稿では、量子プログラミング言語quipperの断片であるquip-eからqpmcモデルチェッカーのセマンティクスへのマッピングを示し、量子プログラムの自動検証を目指す。
結果として,量子マルコフ連鎖に対応するquip-e言語の構造的操作的意味論を定義し,qpmcモデルチェッカーによる量子プログラム解析の基礎として用いる。
セマンティクスの性質は、量子プログラムから量子マルコフ連鎖への変換ツールの開発において証明され、文脈化された。 In this work we present a mapping from a fragment of the quantum programming language Quipper, called Quip-E, to the semantics of the QPMC model checker, aiming at the automatic verification of quantum programs. As a main outcome, we define a structural operational semantics for the Quip-E language corresponding to quantum Markov chains, and we use it as a basis for analysing quantum programs through the QPMC model checker. The properties of the semantics are proved and contextualised in the development of a tool translating from quantum programs to quantum Markov chains. | 翻訳日:2023-05-17 04:21:22 公開日:2020-06-04 |
# 対称一般化拡張運動量演算子$\mathcal{pt}$-symmetric extended momentum operator $\mathcal{PT}$-Symmetric Generalized Extended Momentum Operator ( http://arxiv.org/abs/2006.02843v1 ) ライセンス: Link先を確認 | M. Izadparast and S. Habib Mazharimousavi | (参考訳) 我々は、最近 \citep{M.H2} で導入された一般化拡張運動量作用素 (GEMO) の概念をさらに発展させ、いわゆる $\mathcal{PT}$-symmetric GEMO を提案する。
GEMOと類似して、$\mathcal{PT}$-symmetric GEMOは拡張不確実性原理(EUP)関係を満たす。
さらに、実または$\mathcal{pt}$対称ポテンシャルを持つ、$\mathcal{pt}$-symmetric gemo上に構築される対応するハミルトニアンは、非エルミート的だが$\mathcal{pt}$-symmetricであり、従ってそのエネルギーと運動量固有値は実である。
我々は、準自由量子粒子にフォーマリズムを適用し、エネルギースペクトルの正確な解を提示する。 We develop further the concept of generalized extended momentum operator (GEMO), which has been introduced very recently in \citep{M.H2}, and propose the so called $\mathcal{PT}$-symmetric GEMO. In analogy with GEMO, the $\mathcal{PT}$-symmetric GEMO also satisfies the extended uncertainty principle (EUP) relation. Moreover, the corresponding Hamiltonian that is constructed upon the $\mathcal{PT}$-symmetric GEMO, with a real or $\mathcal{PT}$-symmetric potential, remains non-Hermitian but $\mathcal{PT}$-symmetric and consequently its energy and momentum eigenvalues are real. We apply our formalism to a quasi-free quantum particle and the exact solutions for the energy spectrum are presented. | 翻訳日:2023-05-17 04:21:13 公開日:2020-06-04 |
# 量子最適制御のための拡張XACC Extending XACC for Quantum Optimal Control ( http://arxiv.org/abs/2006.02837v1 ) ライセンス: Link先を確認 | Thien Nguyen, Anthony Santana, Alexander McCaskey | (参考訳) 量子コンピューティングベンダーは、直接パルスレベルの量子制御のためのアプリケーションプログラミングインターフェースを開放し始めている。
これにより、任意のパルス形状のシーケンスによって量子カーネルの実行を記述できるようになる。
これにより、高レベルなデジタルアセンブリ表現をこれらのネイティブパルス命令に直接変換できるスマート量子コンパイルルーチンに関する研究と開発の新しい道を開くことができる。
本稿では,XACCシステムレベルの量子古典ソフトウェアフレームワークを拡張し,ユーザが指定した量子最適制御技術により,このコンパイルの低下を直接的に行えるようにする。
この拡張により、デジタル量子回路表現をバックエンドシステムのダイナミクスに関して最適な等価なパルスシーケンスに変換することができる。
私たちの作業はモジュール化され拡張可能で、サードパーティの最適制御技術と戦略をC++とPythonで実現しています。
この拡張は、勾配上昇パルス工学(GRAPE)、解析制御(GOAT)の勾配最適化、クロトフ法など、親しみやすい勾配に基づく手法を用いて実証する。
我々の研究は、高レベルプログラム表現を低レベルマシン命令に下げる、将来の量子古典型コンパイラ設計の基礎コンポーネントとして機能します。 Quantum computing vendors are beginning to open up application programming interfaces for direct pulse-level quantum control. With this, programmers can begin to describe quantum kernels of execution via sequences of arbitrary pulse shapes. This opens new avenues of research and development with regards to smart quantum compilation routines that enable direct translation of higher-level digital assembly representations to these native pulse instructions. In this work, we present an extension to the XACC system-level quantum-classical software framework that directly enables this compilation lowering phase via user-specified quantum optimal control techniques. This extension enables the translation of digital quantum circuit representations to equivalent pulse sequences that are optimal with respect to the backend system dynamics. Our work is modular and extensible, enabling third party optimal control techniques and strategies in both C++ and Python. We demonstrate this extension with familiar gradient-based methods like gradient ascent pulse engineering (GRAPE), gradient optimization of analytic controls (GOAT), and Krotov's method. Our work serves as a foundational component of future quantum-classical compiler designs that lower high-level programmatic representations to low-level machine instructions. | 翻訳日:2023-05-17 04:20:55 公開日:2020-06-04 |
# SOS -- 生き残るための自己組織化: 命を救うための緊急通信の公平性の導入 SOS -- Self-Organization for Survival: Introducing fairness in emergency communication to save lives ( http://arxiv.org/abs/2006.02825v1 ) ライセンス: Link先を確認 | Indushree Banerjee, Martijn Warnier, Frances M.T. Brazier, and Dirk Helbing | (参考訳) 災害が人々のコミュニティを隔離し、救助が遅れたとき、コミュニケーションは不可欠である。
このような遅れにより、市民は第一応答者となり、小さな救助隊を結成せざるを得なくなった。
救助チームは、特に72時間以内に信頼できる通信を必要とするが、これはインフラの損傷と停電のために困難である。
これらの課題を満たすピアツーピア通信ネットワークを設計する。
携帯電話の電池充電における初期不平等にかかわらず、全ての市民に平等なコミュニケーション機会を与える。
われわれの価値に敏感なデザインアプローチは、時間とともに携帯電話間でさらにバッテリーの充電を分配し、市民が72時間以上通信できるようにする。
スケールフリーネットワークに適応した標準バラバシ・アルベールモデルにおける通信に公平性原理を適用する。
(i)高熱携帯電話をハブとして割り当てる。
(ii)時空間電荷分布にネットワークトポロジーを適応させ、
(iii)リンクが切れたり、電話がネットワークを離れたりすると、自己組織が堅牢で信頼性を保つこと。
barabasi-albertモデルは広く記述モデルとなっているが、公正性やシステム効率といった価値を満たすための設計原理としての利用を実証する。
その結果,汎用ピアツーピアメッシュネットワークと比較して,新たなプロトコルが実現できることが実証された。
(i)ネットワークの長寿命化。
(ii)適応的な情報の流れ
三 電池料金の公平な分配、及び
(4)参加率が高い。
したがって、我々のプロトコルであるSOS(Self-Organization for Survival)は、自己組織を通じて災害時のすべての市民に公正なコミュニケーション機会を提供する。
SOSは参加型レジリエンスと持続可能性を可能にし、最も必要なときに市民がコミュニケーションすることを可能にする。 Communication is crucial when disasters isolate communities of people and rescue is delayed. Such delays force citizens to be first responders and form small rescue teams. Rescue teams require reliable communication, particularly in the first 72 hours, which is challenging due to damaged infrastructure and electrical blackouts. We design a peer-to-peer communication network that meets these challenges. We introduce the concept of participatory fairness: equal communication opportunities for all citizens regardless of initial inequality in phone battery charge. Our value-sensitive design approach achieves an even battery charge distribution across phones over time and enables citizens to communicate over 72 hours. We apply the fairness principle to communication in an adapted standard Barabasi-Albert model of a scale-free network that automatically (i) assigns high-battery phones as hubs, (ii) adapts the network topology to the spatio-temporal battery charge distribution, and (iii) self-organizes to remain robust and reliable when links fail or phones leave the network. While the Barabasi-Albert model has become a widespread descriptive model, we demonstrate its use as a design principle to meet values such as fairness and systemic efficiency. Our results demonstrate that, compared to a generic peer-to-peer mesh network, the new protocol achieves (i) a longer network lifetime, (ii) an adaptive information flow, (iii) a fair distribution of battery charge, and (iv) higher participation rates. Hence, our protocol, Self-Organization for Survival ('SOS'), provides fair communication opportunities to all citizens during a disaster through self-organization. SOS enables participatory resilience and sustainability, empowering citizens to communicate when they need it most. | 翻訳日:2023-05-17 04:20:35 公開日:2020-06-04 |
# 格子手術における論理キュービットの絡み込み Entangling logical qubits with lattice surgery ( http://arxiv.org/abs/2006.03071v1 ) ライセンス: Link先を確認 | Alexander Erhard, Hendrik Poulsen Nautrup, Michael Meth, Lukas Postler, Roman Stricker, Martin Ringbauer, Philipp Schindler, Hans J. Briegel, Rainer Blatt, Nicolai Friis, Thomas Monz | (参考訳) 将来の量子コンピュータは忠実な操作のために量子誤差補正を必要とする。
訂正機能は、符号化された量子ビット上でフォールトトレラントな論理演算を実行するオーバーヘッドを伴う。
論理演算を実行する最も資源効率の良い方法の1つは格子手術であり、格子上に配置された物理キュービットのグループをマージして分割することで、ゲートの絡み合いとテレポート論理情報を実現することができる。
本稿では, 10-qubit イオントラップ量子情報処理装置における2つの位相符号化量子ビット間の格子演算の実験的実現について報告する。
特に,2つの論理量子ビット間の絡み合いを示し,論理状態テレポーテーションを実装した。 Future quantum computers will require quantum error correction for faithful operation. The correction capabilities come with an overhead for performing fault-tolerant logical operations on the encoded qubits. One of the most resource efficient ways to implement logical operations is lattice surgery, where groups of physical qubits, arranged on lattices, can be merged and split to realize entangling gates and teleport logical information. Here, we report on the experimental realization of lattice surgery between two topologically encoded qubits in a 10-qubit ion trap quantum information processor. In particular, we demonstrate entanglement between two logical qubits and we implement logical state teleportation. | 翻訳日:2023-05-17 04:11:58 公開日:2020-06-04 |
# 半デバイス依存ブラインド量子トモグラフィ Semi-device-dependent blind quantum tomography ( http://arxiv.org/abs/2006.03069v1 ) ライセンス: Link先を確認 | Ingo Roth, Jadwiga Wilkens, Dominik Hangleiter, Jens Eisert | (参考訳) 量子状態に関するトモグラフィー情報を抽出することは、高精度量子デバイスを開発するための重要な課題である。
現在のスキームは通常、高精度に調整されたトモグラフィのための測定装置を必要とする。
皮肉なことに、測定校正の精度は、状態調整の精度によって根本的に制限され、悪循環が確立される。
ここでは, このサイクルが破られ, 測定装置への根本的な依存が著しく緩和されることを実証する。
その結果, 量子状態の自然低ランク構造を利用して, 古典的効率のよい後処理アルゴリズムを用いた高度にスケーラブルなブラインドトモグラフィ法が得られた。
さらに,キャリブレーションのスパース構造を利用することで,提案手法の効率をさらに向上させる。
これは、ブラインド量子トモグラフィー問題を低ランク量子状態のスパース和をデミックスするタスクに緩和することで達成される。
モデルに基づく圧縮センシング技術に基づき,提案アルゴリズムが低ランク量子状態を回復し,測定モデルが制限された等長特性を示すキャリブレーションを行うことを証明した。
そこで本手法では, ブラインドトモグラフィーの課題を解決するために, 近似数測定設定が必要であることを示す。
これらの概念的および数学的知見を補完することにより,制約付き交互最適化を用いた捕捉イオンの実装に触発された実用環境での低位仮定を活用し,ブラインド量子トモグラフィーが可能となることを数値的に証明した。 Extracting tomographic information about quantum states is a crucial task in the quest towards devising high-precision quantum devices. Current schemes typically require measurement devices for tomography that are a priori calibrated to a high precision. Ironically, the accuracy of the measurement calibration is fundamentally limited by the accuracy of state preparation, establishing a vicious cycle. Here, we prove that this cycle can be broken and the fundamental dependence on the measurement devices significantly relaxed. We show that exploiting the natural low-rank structure of quantum states of interest suffices to arrive at a highly scalable blind tomography scheme with a classically efficient post-processing algorithm. We further improve the efficiency of our scheme by making use of the sparse structure of the calibrations. This is achieved by relaxing the blind quantum tomography problem to the task of de-mixing a sparse sum of low-rank quantum states. Building on techniques from model-based compressed sensing, we prove that the proposed algorithm recovers a low-rank quantum state and the calibration provided that the measurement model exhibits a restricted isometry property. For generic measurements, we show that our algorithm requires a close-to-optimal number measurement settings for solving the blind tomography task. Complementing these conceptual and mathematical insights, we numerically demonstrate that blind quantum tomography is possible by exploiting low-rank assumptions in a practical setting inspired by an implementation of trapped ions using constrained alternating optimization. | 翻訳日:2023-05-17 04:11:32 公開日:2020-06-04 |
# 新型コロナウイルスの接触追跡モバイルアプリ:意思決定者の評価と評価 COVID-19 Contact-Tracing Mobile Apps: Evaluation and Assessment for Decision Makers ( http://arxiv.org/abs/2006.05812v1 ) ライセンス: Link先を確認 | Ramesh Raskar, Greg Nadeau, John Werner, Rachel Barbar, Ashley Mehra, Gabriel Harp, Markus Leopoldseder, Bryan Wilson, Derrick Flakoll, Praneeth Vepakomma, Deepti Pahwa, Robson Beaudry, Emelin Flores, Maciej Popielarz, Akanksha Bhatia, Andrea Nuzzo, Matt Gee, Jay Summet, Rajeev Surati, Bikram Khastgir, Francesco Maria Benedetti, Kristen Vilcans, Sienna Leis, Khahlil Louisy | (参考訳) 政府や非営利団体など、いくつかのグループが、新型コロナウイルス(COVID-19)危機への対応としてコンタクトトレーシングアプリを設計、構築、ローンチするなど、コンタクトトレーシングのプロセスの革新に素早く取り組みました。
さまざまなアプローチが存在し、コミュニティにコンタクトトレーシング技術を導入しようとする政府関係者にとって困難な選択となり、コンタクトトレーディングに参加するよう求められた市民の間でこれらの選択に対する懸念が高まる。
コンタクトトレーシングアプリケーションの選択肢をどのように評価し、区別するか、頻繁に聞かれる。
ここでは、グローバルなステージに現れる多くの連絡先追跡アプリについて、アプリの機能や計画について質問する。 A number of groups, from governments to non-profits, have quickly acted to innovate the contact-tracing process: they are designing, building, and launching contact-tracing apps in response to the COVID-19 crisis. A diverse range of approaches exist, creating challenging choices for officials looking to implement contact-tracing technology in their community and raising concerns about these choices among citizens asked to participate in contact tracing. We are frequently asked how to evaluate and differentiate between the options for contact-tracing applications. Here, we share the questions we ask about app features and plans when reviewing the many contact-tracing apps appearing on the global stage. | 翻訳日:2023-05-17 04:03:34 公開日:2020-06-04 |
# Excel思想のリーダーシップの開発 Developing Excel Thought Leadership ( http://arxiv.org/abs/2006.04793v1 ) ライセンス: Link先を確認 | David Lyford-Smith | (参考訳) 5年間にわたって、イングランドとウェールズの会計士協会 (ICAEW) は、スプレッドシートの使用とスプレッドシート作業環境における良い実践を取り巻く3つの「思想的リーダーシップ」論文群を開発した。
我々は,これら3つの論文の歴史を振り返り,それぞれが教えなければならない重要な教訓について考察し,それらの制作過程がicaewのこの分野における立場形成にどのように寄与したかを論じる。 Over a period of five years, the Institute of Chartered Accountants in England and Wales (ICAEW) has developed a suite of three 'thought leadership' papers surrounding good practice in spreadsheet use and spreadsheet work environments. We will review the history of these three papers, the key lessons which each has to teach, and discuss how the process of making them has helped ICAEW to develop its position in the field. | 翻訳日:2023-05-17 04:03:03 公開日:2020-06-04 |
# CDIOによる工学教育と統合学習ブロックのためのフレームワーク Framework for an Integrated Learning Block with CDIO-led Engineering Education ( http://arxiv.org/abs/2006.03150v1 ) ライセンス: Link先を確認 | Mouhamed Abdulla, Meagan Troop, Amjed Majeed | (参考訳) CDIOの共同メンバーとして、シェリダンの機械・電気工学学校は、スキルベースの学習、経験的学習、工学設計に深く根ざしたカリキュラムを維持している。
卒業生がアジャイルで労働力の準備ができていることを保証するため、私たちは、学習経験をさらに改善するための積極的な措置を講じています。
学生の知識獲得を妨げる重要な課題は、プログラムコースが学習結果に相容れないという認識である。
プログラムのコースマップは、特定のコースで獲得した技術スキルが徐々に相互に構築されるように慎重に設計されている。
伝統的に前提条件や共同条件が存在するにもかかわらず、授業が独立して機能するという不正確な見解は学生の間でも、時には教員の間でも続いている。
この教育的課題に取り組むための1つの実現可能なアプローチは、様々なコースを統合学習ブロック(ilb)に統合することである。
Sheridan's School of MEETでは、すべてのB.Engに対して、同じ学期内に3つのエンジニアリングコースを提供するILBを適用しています。
学位プログラム。
ILBの成果物は、プロジェクトベースラーニング(PBL)環境で選択されたエンジニアリングシステムまたはサブユニットの設計に基づいている。
本論文の理論的根拠は,工学系プログラムにILBを実装するための枠組みを共有し,この種のカリキュラム設計にかかわる機会と課題を検討することである。
特に,業界主導型PBLの適切性を考慮しつつ,ILBを形成するためのコースの選択方法について議論する。
これに続いて,CDIO能力に基づく形式的,要約的な評価を通じて,ILBの学生のパフォーマンスを評価するための戦略が提案される。 As a CDIO collaborating member, the School of Mechanical and Electrical Engineering of Sheridan maintains a curriculum that is deeply rooted in skills-based learning, experiential learning, and engineering design. To ensure our graduates are agile and ready for the workforce, we are taking proactive measures to further improve their learning experiences. An important challenge still impeding our students knowledge acquisition is the perception that program courses have disjointed learning outcomes. The course map of programs is carefully designed in such a way that technical skills acquired in particular courses gradually build on each other. Despite the traditional existence of prerequisites and co-requisites, the inaccurate view that courses function independently persists among students and, occasionally, among faculty members. One feasible approach to tackle this pedagogical challenge is to combine various courses into an integrated learning block (ILB) having a unified mission and objective. At Sheridan's School of MEET, we are applying an ILB with three engineering courses offered within the same semester for all our B.Eng. degree programs. The ILB deliverables are based on the design of a chosen engineering system or subunit in a project-based learning (PBL) environment. The rationale of this paper is to share our framework for implementing an ILB in engineering programs and to examine the opportunities and challenges related to this type of curriculum design. In particular, we will discuss the methodology by which courses are selected to form an ILB while taking into account their appropriateness for an industry-driven PBL. This will be followed up with some of the strategies that are proposed to evaluate the performance of students in an ILB through formative and summative assessments based on CDIO competencies. | 翻訳日:2023-05-17 04:02:55 公開日:2020-06-04 |
# エントロピーのトポス理論的表記法 A Topos Theoretic Notion of Entropy ( http://arxiv.org/abs/2006.03139v1 ) ライセンス: Link先を確認 | Carmen-Maria Constantin, Andreas Doering | (参考訳) 量子論へのトポスアプローチにおいて、スペクトルプレシーフは量子系の状態空間の役割を担っている。
スペクトルプレシーフ上の状態と測度の等価性を用いて、エントロピーの概念がトポス形式においてどのように定義されるかを示す。
この構成がシャノンとフォン・ノイマンのエントロピーと古典的および量子的レニイエントロピーを一体化することを示す。
主な結果は、有限次元系の量子状態の文脈エントロピーの知識から、ヒルベルト空間が3ドル以上の次元であれば(数学的に)量子状態、すなわち密度行列を再構成できるということである。
我々は,この状態再構成のための明示的なアルゴリズムを示し,その結果をグリーソンの定理に関連付ける。 In the topos approach to quantum theory, the spectral presheaf plays the role of the state space of a quantum system. We show how a notion of entropy can be defined within the topos formalism using the equivalence between states and measures on the spectral presheaf. We show how this construction unifies Shannon and von Neumann entropy as well as classical and quantum Renyi entropies. The main result is that from the knowledge of the contextual entropy of a quantum state of a finite-dimensional system, one can (mathematically) reconstruct the quantum state, i.e., the density matrix, if the Hilbert space is of dimension $3$ or greater. We present an explicit algorithm for this state reconstruction and relate our result to Gleason's theorem. | 翻訳日:2023-05-17 04:02:31 公開日:2020-06-04 |
# 超高応答性とghz動作速度を有する液体窒素冷却超電導遷移エッジセンサ A liquid nitrogen cooled superconducting transition edge sensor with ultra-high responsivity and GHz operation speeds ( http://arxiv.org/abs/2006.03130v1 ) ライセンス: Link先を確認 | Paul Seifert, Jose Ramon Duran Retamal, Rafael Luque Merino, Hanan Herzig Sheinfux, John N. Moore, Mohammed Ali Aamir, Takashi Taniguchi, Kenji Wantanabe, Kazuo Kadowaki, Massimo Artiglia, Marco Romagnoli and Dmitri K. Efetov | (参考訳) ナノ構造超伝導薄膜に基づく光検出器は、現在最も感度の高い量子センサーであり、量子情報、量子計算、電波天文学などの幅広い分野において鍵となる技術である。
しかし、その幅広い用途は、高価なクライオスタットを必要とする低い運転温度で抑えられている。
本稿では,77k以上で動作した超伝導検出器の応答率9.61x10^4 v/w,雑音等価電力15.9 fw/hz-1/2,動作速度を最大ghzまで向上させた,窒素冷却型超伝導遷移エッジセンサを示す。
高温超伝導体Bi2Sr2CaCu2O8のファンデルワールスヘテロ構造に基づいており、極小形状のナノワイヤになっている。
検出器の汎用性を強調するために, テレコムグレードSiN導波路チップの試作と動作を実演した。
我々の検出器は超伝導検出器の実用化の要求を大いに緩和し、フォトニクスベースの量子応用にその大きな可能性を示す。 Photodetectors based on nano-structured superconducting thin films are currently some of the most sensitive quantum sensors and are key enabling technologies in such broad areas as quantum information, quantum computation and radio-astronomy. However, their broader use is held back by the low operation temperatures which require expensive cryostats. Here, we demonstrate a nitrogen cooled superconducting transition edge sensor, which shows orders of magnitude improved performance characteristics of any superconducting detector operated above 77K, with a responsivity of 9.61x10^4 V/W, noise equivalent power of 15.9 fW/Hz-1/2 and operation speeds up to GHz frequencies. It is based on van der Waals heterostructures of the high temperature superconductor Bi2Sr2CaCu2O8, which are shaped into nano-wires with ultra-small form factor. To highlight the versatility of the detector we demonstrate its fabrication and operation on a telecom grade SiN waveguide chip. Our detector significantly relaxes the demands of practical applications of superconducting detectors and displays its huge potential for photonics based quantum applications. | 翻訳日:2023-05-17 04:02:19 公開日:2020-06-04 |
# 個人行動がオンラインコミュニティの規模に不平等をもたらす方法:エージェントによるシミュレーション How individual behaviors drive inequality in online community sizes: an agent-based simulation ( http://arxiv.org/abs/2006.03119v1 ) ライセンス: Link先を確認 | Jeremy Foote, Nathan TeBlunthuis, Benjamin Mako Hill, Aaron Shaw | (参考訳) なぜオンラインコミュニティのサイズがこれほど不平等なのか?
この問題に対するほとんどの答えは、累積的優位性のような物理学から引き出された一般的な数学的プロセスを示している。
これらの説明は、コミュニティへの参加や離脱の際に個人が行う特定の社会的ダイナミクスや決定についての洞察をほとんど与えていない。
加えて、累積的優位性の観点からの説明は、個人の行動を研究する巨大な社会コンピューティング研究から引き出されていない。
私たちの研究は、コミュニティ参加を説明するために使用される2つの影響力のある社会的メカニズムが、コミュニティ規模の分布を説明できるかどうかをテストすることで、この違いを橋渡ししています。
エージェントベースのシミュレーションを用いて,redditから得られた実験的なコミュニティサイズのデータを,個人の期待する利益に基づいて,社会的露出と意思決定の個人レベルでのプロセスがいかに良好であるかを評価する。
シミュレーションは,両プロセスが協調して,コミュニティサイズの現実的な分布を生成する証拠を提供することで,社会コンピューティング理論に寄与する。
また,オンラインコミュニティ研究者が個人理論とグループレベルの理論の評価と橋渡しを行う上で,エージェントベースシミュレーションの潜在的価値を示す。 Why are online community sizes so extremely unequal? Most answers to this question have pointed to general mathematical processes drawn from physics like cumulative advantage. These explanations provide little insight into specific social dynamics or decisions that individuals make when joining and leaving communities. In addition, explanations in terms of cumulative advantage do not draw from the enormous body of social computing research that studies individual behavior. Our work bridges this divide by testing whether two influential social mechanisms used to explain community joining can also explain the distribution of community sizes. Using agent-based simulations, we evaluate how well individual-level processes of social exposure and decisions based on individual expected benefits reproduce empirical community size data from Reddit. Our simulations contribute to social computing theory by providing evidence that both processes together---but neither alone---generate realistic distributions of community sizes. Our results also illustrate the potential value of agent-based simulation to online community researchers to both evaluate and bridge individual and group-level theories. | 翻訳日:2023-05-17 04:01:58 公開日:2020-06-04 |
# Jahn-Teller効果とスピン軌道結合--友人か敵か? The Jahn-Teller effect and spin--orbit coupling: friends or foes? ( http://arxiv.org/abs/2006.03097v1 ) ライセンス: Link先を確認 | S.V. Streltsov, D.I. Khomskii | (参考訳) ヤーン・テラー効果は物理学だけでなく、化学や物質科学においても重要な現象の1つである。
ハーン・テラー問題の解法と強い電子相関を考慮すると、スピン-軌道結合によるスピンと軌道自由度の量子絡み合いがこの効果に強く影響を及ぼすことを示す。
d$電子の数によっては、クエンチ(電子配置 $t_{2g}^2$, $t_{2g}^4$, $t_{2g}^5$)、部分的に(t_{2g}^1$)を抑える、あるいは対照的に(t_{2g}^3$)ヤーン・テラー歪みを誘導する。
さらに、jahn-teller効果とスピン軌道結合との相互作用は、様々な量子現象を促進する「メキシカンハット」エネルギー面の形成を促進する。 The Jahn-Teller effect is one of the most fundamental phenomena important not only for physics, but also for chemistry and material science. Solving the Jahn-Teller problem and taking into account strong electron correlations we show that quantum entanglement of the spin and orbital degrees of freedom via spin--orbit coupling strongly affects this effect. Depending on the number of $d$ electrons it may quench (electronic configurations $t_{2g}^2$, $t_{2g}^4$, and $t_{2g}^5$), partially suppress ($t_{2g}^1$) or in contrast induce ($t_{2g}^3$) Jahn-Teller distortions. Moreover, in certain situations, interplay between the Jahn-Teller effect and spin--orbit coupling promotes formation of the "Mexican hat" energy surface facilitating various quantum phenomena. | 翻訳日:2023-05-17 04:01:31 公開日:2020-06-04 |
# プラトン固体と量子力学の基礎実験 The Platonic solids and fundamental tests of quantum mechanics ( http://arxiv.org/abs/2001.00188v3 ) ライセンス: Link先を確認 | Armin Tavakoli and Nicolas Gisin | (参考訳) プラトン固体(英: Platonic solids)は、伝統的に5つの通常の凸多面体、すなわちテトラドロン、オクタヘドロン、立方体、イコサヘドロン、ドデカヘドロンに与えられる名前である。
これらの美しい固体は、おそらく彼らの名前の歴史的影響の積み重ねによって強く強化され、2千年以上にわたって、伝統的な境界を越え、様々な分野の段階に入った。
例えば、古典古代の自然哲学や数学、ヨーロッパ科学革命時代の科学的モデリング、ルネサンスから現代まで幅広い視覚芸術などがある。
数学の美しさと豊かな歴史に動機づけられ、現代の量子力学の文脈でプラトニックな固体を考える。
具体的には, 極大違反が達成されるベル不等式を, プラトニック固体の頂点を示す測定値で構成する。
これらのプラトンベルの不等式は、プラトン固体の可視対称性を検査することによってのみ構成される。
また、より一般的なポリヘドラに対するベルの不等式を構築し、有名なクレーター・ホーネ=シモニー=ホルトベルの不等式よりもノイズに強いベル不等式を求める。
最後に,初期のモチベーションである数学的美学と,すべての経験的科学において必要となる実験的親和性との緊張関係について詳述した。 The Platonic solids is the name traditionally given to the five regular convex polyhedra, namely the tetradron, the octahedron, the cube, the icosahedron and the dodecahedron. Perhaps strongly boosted by the towering historical influence of their namesake, these beautiful solids have, in well over two millenia, transcended traditional boundaries and entered the stage in a range of disciplines. Examples include natural philosophy and mathematics from classical antiquity, scientific modeling during the days of the european scientific revolution and visual arts ranging from the renaissance to modernity. Motivated by mathematical beauty and a rich history, we consider the Platonic solids in the context of modern quantum mechanics. Specifically, we construct Bell inequalities whose maximal violations are achieved with measurements pointing to the vertices of the Platonic solids. These Platonic Bell inequalities are constructed only by inspecting the visible symmetries of the Platonic solids. We also construct Bell inequalities for more general polyhedra and find a Bell inequality that is more robust to noise than the celebrated Clauser-Horne-Shimony-Holt Bell inequality. Finally, we elaborate on the tension between mathematical beauty, which was our initial motivation, and experimental friendliness, which is necessary in all empirical sciences. | 翻訳日:2023-01-16 09:45:56 公開日:2020-06-04 |
# データ融合とディープラーニングを利用した共通操作画像フレームワーク A Common Operating Picture Framework Leveraging Data Fusion and Deep Learning ( http://arxiv.org/abs/2001.05982v2 ) ライセンス: Link先を確認 | Benjamin Ortiz, David Lindenbaum, Joseph Nassar, Brendan Lammers, John Wahl, Robert Mangum, Margaret Smith, and Marc Bosch | (参考訳) 組織は、洞察や状況認識、ミッションの推進のために、データとデータ駆動のアルゴリズムモデルの組み合わせの力を認識し始めています。
洞察を得るための一般的な課題は、本質的に異なるデータセットを接続することだ。
これらのデータセット(ジオコーディングされた機能、ビデオストリーム、生のテキスト、ソーシャルネットワークデータなど)は別々に、非常に狭い回答を提供するが、全体としては新しい機能を提供できる。
本研究では,PED(Processing, Exploitation, and Dissemination)のソリューションを高速化するためのデータ融合フレームワークを提案する。
私たちのプラットフォームは、ディープラーニングやその他の処理手段を利用して、複数のデータソースから(別々に)情報を抽出するサービスのコレクションです。
この情報は、異なるデータソースからの情報を組み合わせるために、データ相関、検索、その他のモデリング操作を実行する分析エンジンによって融合される。
その結果、興味のある事象を検出し、位置決めし、ログし、共通の操作図に提示する。
この一般的なオペレーティング・ピクチャは、ユーザが個別にすべてのデータソースをリアルタイムで視覚化し、共同作業を行うことを可能にする。
さらに、法医学的活動が実装され、フレームワークを通じて利用可能になっている。
ユーザーはアーカイブされた結果をレビューし、運用環境の最新スナップショットと比較することができる。
最初のイテレーションでは、ビジュアルデータ(FMV、WAM、CCTV/PTZ-Cameras、オープンソースビデオなど)とAISデータストリーム(衛星と地上のソース)に焦点を当てました。
コンセプション・オブ・コンセプション(概念実証)として,本実験では,AISソースからの船体追跡信号とFMV検出を組み合わせ,身元確認,空中偵察,地域の船舶活動の監視を行う方法を示した。 Organizations are starting to realize of the combined power of data and data-driven algorithmic models to gain insights, situational awareness, and advance their mission. A common challenge to gaining insights is connecting inherently different datasets. These datasets (e.g. geocoded features, video streams, raw text, social network data, etc.) per separate they provide very narrow answers; however collectively they can provide new capabilities. In this work, we present a data fusion framework for accelerating solutions for Processing, Exploitation, and Dissemination (PED). Our platform is a collection of services that extract information from several data sources (per separate) by leveraging deep learning and other means of processing. This information is fused by a set of analytical engines that perform data correlations, searches, and other modeling operations to combine information from the disparate data sources. As a result, events of interest are detected, geolocated, logged, and presented into a common operating picture. This common operating picture allows the user to visualize in real time all the data sources, per separate and their collective cooperation. In addition, forensic activities have been implemented and made available through the framework. Users can review archived results and compare them to the most recent snapshot of the operational environment. In our first iteration we have focused on visual data (FMV, WAMI, CCTV/PTZ-Cameras, open source video, etc.) and AIS data streams (satellite and terrestrial sources). As a proof-of-concept, in our experiments we show how FMV detections can be combined with vessel tracking signals from AIS sources to confirm identity, tip-and-cue aerial reconnaissance, and monitor vessel activity in an area. | 翻訳日:2023-01-11 00:20:30 公開日:2020-06-04 |
# チューブMPCのための深層学習チューブ Deep Learning Tubes for Tube MPC ( http://arxiv.org/abs/2002.01587v2 ) ライセンス: Link先を確認 | David D. Fan, Ali-akbar Agha-mohammadi and Evangelos A. Theodorou | (参考訳) 学習に基づく制御は、例えばモデルに基づく強化学習において、計画や軌道最適化に使用するシステムのモデルを構築することを目的としている。
この文脈で安全を保証するためには、不確実性は正確に定量化する必要がある。
この不確実性は、学習におけるエラー(例えばデータの欠如による)や、システム固有のものである可能性がある。
学習力学モデルにおける不確実性を前進させることは難しい問題である。
本研究では、ディープラーニングを用いて軌道の分布の振る舞いの表現的および柔軟なモデルを求め、非線形モデル予測制御(MPC)に使用する。
我々は,確率的質的境界を強制し,認識的不確かさを定量化する制御のための深い質的回帰フレームワークを提案する。
提案手法を用いて,システムの軌跡を包含するチューブを学習するための3つの異なるアプローチを探索し,それぞれをチューブmpc方式で使用する方法を示す。
これらのスキームは再帰的に実現可能であり、制約を所望の確率の限界で満たす。
本稿では,非線形四重項系のシミュレーション実験を行い,その実効性を示す。 Learning-based control aims to construct models of a system to use for planning or trajectory optimization, e.g. in model-based reinforcement learning. In order to obtain guarantees of safety in this context, uncertainty must be accurately quantified. This uncertainty may come from errors in learning (due to a lack of data, for example), or may be inherent to the system. Propagating uncertainty forward in learned dynamics models is a difficult problem. In this work we use deep learning to obtain expressive and flexible models of how distributions of trajectories behave, which we then use for nonlinear Model Predictive Control (MPC). We introduce a deep quantile regression framework for control that enforces probabilistic quantile bounds and quantifies epistemic uncertainty. Using our method we explore three different approaches for learning tubes that contain the possible trajectories of the system, and demonstrate how to use each of them in a Tube MPC scheme. We prove these schemes are recursively feasible and satisfy constraints with a desired margin of probability. We present experiments in simulation on a nonlinear quadrotor system, demonstrating the practical efficacy of these ideas. | 翻訳日:2023-01-03 22:04:03 公開日:2020-06-04 |
# 強化学習による記述に基づくテキスト分類 Description Based Text Classification with Reinforcement Learning ( http://arxiv.org/abs/2002.03067v3 ) ライセンス: Link先を確認 | Duo Chai, Wei Wu, Qinghong Han, Fei Wu, Jiwei Li | (参考訳) テキスト分類のタスクは、通常、"it text feature extraction}"と"it classification"の2つの段階に分けられる。
この標準形式化カテゴリは単にラベル語彙のインデックスとして表現されるだけであり、モデルは分類すべきものに関する明示的な指示を欠いている。
質問応答タスクとしてNLP問題を形式化する現在の傾向に触発されて,各カテゴリラベルをカテゴリ記述に関連付ける,テキスト分類のための新しいフレームワークを提案する。
記述は手作りのテンプレートや強化学習からの抽象的/極端なモデルによって生成される。
記述とテキストの結合は分類器に送られ、現在のラベルがテキストに割り当てられるべきかどうかを判断する。
提案された戦略は、モデルにラベルに関する最も有意義なテキストへの出席を強いるものであり、これは注意の堅いバージョンと見なすことができ、より良いパフォーマンスをもたらす。
シングルラベル分類,マルチラベル分類,マルチアスペクト感情分析など,幅広いテキスト分類タスクにおいて,強いベースラインに対する顕著なパフォーマンス向上が観察された。 The task of text classification is usually divided into two stages: {\it text feature extraction} and {\it classification}. In this standard formalization categories are merely represented as indexes in the label vocabulary, and the model lacks for explicit instructions on what to classify. Inspired by the current trend of formalizing NLP problems as question answering tasks, we propose a new framework for text classification, in which each category label is associated with a category description. Descriptions are generated by hand-crafted templates or using abstractive/extractive models from reinforcement learning. The concatenation of the description and the text is fed to the classifier to decide whether or not the current label should be assigned to the text. The proposed strategy forces the model to attend to the most salient texts with respect to the label, which can be regarded as a hard version of attention, leading to better performances. We observe significant performance boosts over strong baselines on a wide range of text classification tasks including single-label classification, multi-label classification and multi-aspect sentiment analysis. | 翻訳日:2023-01-02 22:46:05 公開日:2020-06-04 |
# 並列人口型メタヒューリスティックスを用いた分散エネルギー資源のスケーラブルスケジューリング手法 A Scalable Method for Scheduling Distributed Energy Resources using Parallelized Population-based Metaheuristics ( http://arxiv.org/abs/2002.07505v2 ) ライセンス: Link先を確認 | Hatem Khalloof, Wilfried Jakob, Shadi Shahoud, Clemens Duepmeier and Veit Hagenmeyer | (参考訳) 近年、分散型再生可能エネルギー資源の既存の電力網への統合が増加している。
再生可能エネルギー資源の不確実性のため、ネットワークオペレーターは負荷と発生のバランスをとる新しい課題に直面している。
新たな要求を満たすため、需要側管理やフレキシブル・ジェネレーションなどの仮想発電所を提供するインテリジェントな分散エネルギー資源プラントを使用できる。
しかし、そのような分散エネルギー資源の単位コミットメントに対する適切なスケジュールの計算は、多くの分散エネルギー資源が考慮されている場合、通常、標準最適化アルゴリズムでは複雑すぎる複雑な最適化問題である。
このような複雑な最適化タスクを解決するために、人口ベースのメタヒューリスティック(例えば進化的アルゴリズム)は強力な代替案を表す。
必然的に、進化的アルゴリズムはそのような問題をタイムリーに解くために多くの計算力を必要とする。
この性能問題に対する有望な解決策の1つは、通常時間を要する代替ソリューションの評価の並列化である。
本稿では,メタヒューリスティックアルゴリズムを用いた分散エネルギー資源の単位コミットメントのための,新しい汎用的でスケーラブルな並列手法を提案する。
マイクロサービス、コンテナ仮想化、分散エネルギーリソースのスケジューリングのためのパブリッシュ/サブスクライブメッセージングパラダイムに基づいている。
3つの分散エネルギー資源スケジューリングシナリオに対して,ビッグデータ環境で並列最適化を行うことにより,提案手法のスケーラビリティと適用性を評価する。
この新しい手法はクラスタやクラウドの並列化性を提供し、多数の分散エネルギーリソースを相互に扱うことができる。
提案手法の適用により,最適化速度のスケールアップに非常に優れた性能が得られる。 Recent years have seen an increasing integration of distributed renewable energy resources into existing electric power grids. Due to the uncertain nature of renewable energy resources, network operators are faced with new challenges in balancing load and generation. In order to meet the new requirements, intelligent distributed energy resource plants can be used which provide as virtual power plants e.g. demand side management or flexible generation. However, the calculation of an adequate schedule for the unit commitment of such distributed energy resources is a complex optimization problem which is typically too complex for standard optimization algorithms if large numbers of distributed energy resources are considered. For solving such complex optimization tasks, population-based metaheuristics -- as e.g. evolutionary algorithms -- represent powerful alternatives. Admittedly, evolutionary algorithms do require lots of computational power for solving such problems in a timely manner. One promising solution for this performance problem is the parallelization of the usually time-consuming evaluation of alternative solutions. In the present paper, a new generic and highly scalable parallel method for unit commitment of distributed energy resources using metaheuristic algorithms is presented. It is based on microservices, container virtualization and the publish/subscribe messaging paradigm for scheduling distributed energy resources. Scalability and applicability of the proposed solution are evaluated by performing parallelized optimizations in a big data environment for three distinct distributed energy resource scheduling scenarios. The new method provides cluster or cloud parallelizability and is able to deal with a comparably large number of distributed energy resources. The application of the new proposed method results in very good performance for scaling up optimization speed. | 翻訳日:2022-12-30 20:36:34 公開日:2020-06-04 |
# アフィニティと多様性:データ拡張の定量化メカニズム Affinity and Diversity: Quantifying Mechanisms of Data Augmentation ( http://arxiv.org/abs/2002.08973v2 ) ライセンス: Link先を確認 | Raphael Gontijo-Lopes, Sylvia J. Smullin, Ekin D. Cubuk, Ethan Dyer | (参考訳) データ拡張はディープニューラルネットワークトレーニングの標準コンポーネントとなっているが、これらのテクニックの有効性の基盤となるメカニズムはいまだ理解されていない。
実際には、増補ポリシーは分布シフトまたは増補多様性のヒューリスティックを使って選択されることが多い。
これらに触発されて、データ拡張がモデル一般化をどのように改善するかを定量化する。
この目的のために,親和性と多様性という,解釈可能で計算容易な手段を導入する。
その結果, 拡張性能は, これら2つのみでなく, 共同で最適化することで予測できることがわかった。 Though data augmentation has become a standard component of deep neural network training, the underlying mechanism behind the effectiveness of these techniques remains poorly understood. In practice, augmentation policies are often chosen using heuristics of either distribution shift or augmentation diversity. Inspired by these, we seek to quantify how data augmentation improves model generalization. To this end, we introduce interpretable and easy-to-compute measures: Affinity and Diversity. We find that augmentation performance is predicted not by either of these alone but by jointly optimizing the two. | 翻訳日:2022-12-30 06:22:00 公開日:2020-06-04 |
# 脳MRI画像における任意スケール超解像 Arbitrary Scale Super-Resolution for Brain MRI Images ( http://arxiv.org/abs/2004.02086v2 ) ライセンス: Link先を確認 | Chuan Tan (1), Jin Zhu (1), Pietro Lio' (1) ((1) University of Cambridge) | (参考訳) 医用画像の超解像化における最近の試みは、GAN(Generative Adversarial Networks)のような深層学習技術を用いて、知覚的に現実的な単一画像の超解像を実現する。
しかし、それらは異なるスケール因子に一般化できないことに制約されている。
これは、すべての整数スケール係数が別々のニューラルネットワークを含むため、高いストレージとエネルギーコストを伴う。
最近の論文では、重み予測ネットワークを用いて、単一のニューラルネットワークのみを使用して任意のスケールファクターの超解像を可能にする、新しいメタラーニング手法を提案している。
本稿では,この手法を最先端のGANアーキテクチャであるSRGANと組み合わせて,任意のスケールで高精度な医用画像の超解像を実現する新しいネットワークを提案する。
このネットワークを用いて、BraTS(Multimodal Brain tumor Segmentation Challenge)データセットの画像を任意のスケールで拡大することにより、脳MRI画像の一般性を維持しつつ、SSIMスコアに対して最大20$\%の従来の補間手法より優れていることを示す。
また,edsrのような最先端の手法と競合する結果を得ることができ,かつ,その50倍の精度で性能を向上できることを示した。
効率性、性能、一般性を組み合わせることで、医療画像の超解像処理の新たな基盤になることを期待している。
https://metasrgan.herokuapp.com/https://github.com/pancakewaffles/metasrgan-tutorial.com/githubチュートリアルを参照してください。 Recent attempts at Super-Resolution for medical images used deep learning techniques such as Generative Adversarial Networks (GANs) to achieve perceptually realistic single image Super-Resolution. Yet, they are constrained by their inability to generalise to different scale factors. This involves high storage and energy costs as every integer scale factor involves a separate neural network. A recent paper has proposed a novel meta-learning technique that uses a Weight Prediction Network to enable Super-Resolution on arbitrary scale factors using only a single neural network. In this paper, we propose a new network that combines that technique with SRGAN, a state-of-the-art GAN-based architecture, to achieve arbitrary scale, high fidelity Super-Resolution for medical images. By using this network to perform arbitrary scale magnifications on images from the Multimodal Brain Tumor Segmentation Challenge (BraTS) dataset, we demonstrate that it is able to outperform traditional interpolation methods by up to 20$\%$ on SSIM scores whilst retaining generalisability on brain MRI images. We show that performance across scales is not compromised, and that it is able to achieve competitive results with other state-of-the-art methods such as EDSR whilst being fifty times smaller than them. Combining efficiency, performance, and generalisability, this can hopefully become a new foundation for tackling Super-Resolution on medical images. Check out the webapp here: https://metasrgan.herokuapp.com/ Check out the github tutorial here: https://github.com/pancakewaffles/metasrgan-tutorial | 翻訳日:2022-12-16 12:25:30 公開日:2020-06-04 |
# 制御リアプノフ関数と制御バリア関数を用いたモデル不確かさ下における安全臨界制御の強化学習 Reinforcement Learning for Safety-Critical Control under Model Uncertainty, using Control Lyapunov Functions and Control Barrier Functions ( http://arxiv.org/abs/2004.07584v2 ) ライセンス: Link先を確認 | Jason Choi, Fernando Casta\~neda, Claire J. Tomlin, Koushil Sreenath | (参考訳) 本稿では,安全クリティカル制御におけるモデル不確実性の問題に,データ駆動型アプローチで対処する。
そこで本研究では,制御バリア関数と制御リャプノフ関数に基づく準数値プログラム(CBF-CLF-QP)とともに,名目モデルに基づく入出力線形化制御器の構成を利用する。
具体的には、CBFおよびCLF制約に存在するモデル不確かさと二次プログラムにおける他の制御-アフィン動的制約を学習する新しい強化学習フレームワークを提案する。
訓練された方針は、名目上のモデルに基づくCBF-CLF-QPと組み合わせられ、強化学習に基づくCBF-CLF-QP(RL-CBF-CLF-QP)が安全制約におけるモデル不確実性の問題に対処する。
モデル不確実性の下で安定かつ安全に歩行できる無作為な二足歩行ロボットを1ステップのプレビューで無作為に間隔を置いたまま歩行することで,提案手法の性能を検証した。 In this paper, the issue of model uncertainty in safety-critical control is addressed with a data-driven approach. For this purpose, we utilize the structure of an input-ouput linearization controller based on a nominal model along with a Control Barrier Function and Control Lyapunov Function based Quadratic Program (CBF-CLF-QP). Specifically, we propose a novel reinforcement learning framework which learns the model uncertainty present in the CBF and CLF constraints, as well as other control-affine dynamic constraints in the quadratic program. The trained policy is combined with the nominal model-based CBF-CLF-QP, resulting in the Reinforcement Learning-based CBF-CLF-QP (RL-CBF-CLF-QP), which addresses the problem of model uncertainty in the safety constraints. The performance of the proposed method is validated by testing it on an underactuated nonlinear bipedal robot walking on randomly spaced stepping stones with one step preview, obtaining stable and safe walking under model uncertainty. | 翻訳日:2022-12-12 22:22:04 公開日:2020-06-04 |
# ニューラルネットワークの初期化の再考 Revisiting Initialization of Neural Networks ( http://arxiv.org/abs/2004.09506v3 ) ライセンス: Link先を確認 | Maciej Skorski, Alessandro Temperoni, Martin Theobald | (参考訳) 重みの適切な初期化は、ディープニューラルネットワーク(DNN)の効果的なトレーニングと高速収束に不可欠である。
この領域での以前の仕事は、安定性を維持するために層毎の重みのばらつきのバランスをとることに集中してきた。
(i)ネットワークを介して転送された入力データ
(ii) 損失勾配はそれぞれ後方に伝播した。
しかし、この一般的なヒューリスティックは、様々な層にわたる勾配間の依存関係に依存しず、一階効果のみをキャプチャする。
本稿では,ヘッセン行列のノルムを近似し,制御することにより,層間の重みのグローバルな曲率の厳密な推定に基づく初期化原理を提案し,議論する。
提案手法はより体系的であり、スムーズ関数やドロップアウト、ReLUといったDNNアクティベーションの以前の結果を復元する。
word2vecおよびmnist/cifar画像分類タスクにおける実験により,ヘッセンノルムの追跡がより厳密なウェイト初期化に役立つ診断ツールであることを確認した。 The proper initialization of weights is crucial for the effective training and fast convergence of deep neural networks (DNNs). Prior work in this area has mostly focused on balancing the variance among weights per layer to maintain stability of (i) the input data propagated forwards through the network and (ii) the loss gradients propagated backwards, respectively. This prevalent heuristic is however agnostic of dependencies among gradients across the various layers and captures only firstorder effects. In this paper, we propose and discuss an initialization principle that is based on a rigorous estimation of the global curvature of weights across layers by approximating and controlling the norm of their Hessian matrix. The proposed approach is more systematic and recovers previous results for DNN activations such as smooth functions, dropouts, and ReLU. Our experiments on Word2Vec and the MNIST/CIFAR image classification tasks confirm that tracking the Hessian norm is a useful diagnostic tool which helps to more rigorously initialize weights | 翻訳日:2022-12-11 18:21:29 公開日:2020-06-04 |
# 移動操作のための空間行動マップ Spatial Action Maps for Mobile Manipulation ( http://arxiv.org/abs/2004.09141v2 ) ライセンス: Link先を確認 | Jimmy Wu, Xingyuan Sun, Andy Zeng, Shuran Song, Johnny Lee, Szymon Rusinkiewicz, Thomas Funkhouser | (参考訳) ロボットナビゲーションを学ぶための典型的なエンドツーエンドの定式化は、現在の状態の画像(SLAM再構成の鳥眼図など)から小さな操舵コマンドアクション(例えば、前進、左旋回、右旋回など)を予測することである。
その代わりに、状態と同じドメインで定義された高密度なアクション表現で学ぶことが有利であることを示す。
本研究では,現在状態の入力画像と一致した)画素マップで可能なアクションの集合を表現し,各画素が対応するシーン位置における局所的なナビゲーション終端を表す「空間行動マップ」を提案する。
状態画像から空間的行動マップを推測するためにConvNetsを使用すると、アクション予測はシーン内の局所的な視覚的特徴に空間的に固定され、強化学習によるモバイル操作タスクの複雑な動作の学習が大幅に高速化される。
実験では,対象を目標位置まで押し上げるロボットにタスクを課し,空間的アクションマップで学習したポリシーが従来の方法よりもはるかに優れたパフォーマンスを実現することを見出した。 Typical end-to-end formulations for learning robotic navigation involve predicting a small set of steering command actions (e.g., step forward, turn left, turn right, etc.) from images of the current state (e.g., a bird's-eye view of a SLAM reconstruction). Instead, we show that it can be advantageous to learn with dense action representations defined in the same domain as the state. In this work, we present "spatial action maps," in which the set of possible actions is represented by a pixel map (aligned with the input image of the current state), where each pixel represents a local navigational endpoint at the corresponding scene location. Using ConvNets to infer spatial action maps from state images, action predictions are thereby spatially anchored on local visual features in the scene, enabling significantly faster learning of complex behaviors for mobile manipulation tasks with reinforcement learning. In our experiments, we task a robot with pushing objects to a goal location, and find that policies learned with spatial action maps achieve much better performance than traditional alternatives. | 翻訳日:2022-12-11 17:36:23 公開日:2020-06-04 |
# 表象ベイズリスク分解とマルチソースドメイン適応 Representation Bayesian Risk Decompositions and Multi-Source Domain Adaptation ( http://arxiv.org/abs/2004.10390v2 ) ライセンス: Link先を確認 | Xi Wu, Yang Guo, Jiefeng Chen, Yingyu Liang, Somesh Jha, Prasad Chalasani | (参考訳) 表現学習(hypothesis class $\mathcal{H} = \mathcal{F}\circ\mathcal{G}$)を考える。
最近の研究では、この問題に対する一般的なアプローチであるドメイン不変表現学習のヒントと失敗例を提供しているが、説明は多少異なり、統一された図を提供していない。
本稿では,より詳細な説明と潜在的な一般化問題を明らかにするリスクの新たな分解について述べる。
単一ソース領域適応では、(1)ソースリスク、(2)条件付きラベルのばらつき、(3)表現共変量シフトの3つの要因の合計として、目標リスクの正確な分解(等価性)を自然なハイブリッド引数を介して与える。
マルチソースの場合も同様の分解を導出する。
これらの分解は、因子 (2) と (3) を一般化の失敗の正確な理由として明らかにする。
例えば、domain adversarial neural networks (dann) は (3) を正規化しようとするが、miss (2) を試みているのに対し、最近の technique invariant risk minimization (irm) は (2) を考慮しようとするが (3) を考慮しない。
また,実験により観察を検証した。 We consider representation learning (hypothesis class $\mathcal{H} = \mathcal{F}\circ\mathcal{G}$) where training and test distributions can be different. Recent studies provide hints and failure examples for domain invariant representation learning, a common approach for this problem, but the explanations provided are somewhat different and do not provide a unified picture. In this paper, we provide new decompositions of risk which give finer-grained explanations and clarify potential generalization issues. For Single-Source Domain Adaptation, we give an exact decomposition (an equality) of the target risk, via a natural hybrid argument, as sum of three factors: (1) source risk, (2) representation conditional label divergence, and (3) representation covariate shift. We derive a similar decomposition for the Multi-Source case. These decompositions reveal factors (2) and (3) as the precise reasons for failure to generalize. For example, we demonstrate that domain adversarial neural networks (DANN) attempt to regularize for (3) but miss (2), while a recent technique Invariant Risk Minimization (IRM) attempts to account for (2) but does not consider (3). We also verify our observations experimentally. | 翻訳日:2022-12-10 17:21:00 公開日:2020-06-04 |
# ColBERT: BERT上のコンテキスト化遅延インタラクションによる効率的かつ効果的なパス検索 ColBERT: Efficient and Effective Passage Search via Contextualized Late Interaction over BERT ( http://arxiv.org/abs/2004.12832v2 ) ライセンス: Link先を確認 | Omar Khattab and Matei Zaharia | (参考訳) 自然言語理解(NLU)の最近の進歩は、文書ランキングのための微調整深層言語モデル(LM)に大きく依存する情報検索(IR)の急速な進歩を推進している。
非常に効果的ではあるが、これらのLMに基づくランキングモデルは、特に1つの関連スコアを計算するために、巨大なニューラルネットワークを介してクエリとドキュメントのペアを供給する必要があるため、以前のアプローチよりも桁違いに計算コストを増大させる。
そこで本研究では,深いLM(特にBERT)を効率よく検索する新しいランキングモデルであるColBERTを提案する。
ColBERTは、クエリとドキュメントを独立してBERTを使ってエンコードする遅延インタラクションアーキテクチャを導入し、その上で、きめ細かい類似性をモデル化する、安価で強力なインタラクションステップを採用している。
ColBERTは、この微粒な相互作用を遅らせながら保持することにより、深いLMの表現性を生かし、同時に文書表現をオフラインでプリコンパイルし、クエリ処理を大幅に高速化する。
ColBERTのプルーニングフレンドリーなインタラクションメカニズムは、従来のモデルで取得したドキュメントの再ランク付けコストの削減に加えて、大規模なドキュメントコレクションから直接、エンドツーエンドの検索にベクトル類似性インデックスを活用することができる。
最近の2つの経路探索データセットを用いてColBERTを広範囲に評価した。
ColBERTの有効性は既存のBERTベースモデルと競合し(かつBERTベースラインを全て上回る)、2桁の命令を高速に実行し、4桁の命令を要求されるクエリあたりのFLOPを少なくすることを示している。 Recent progress in Natural Language Understanding (NLU) is driving fast-paced advances in Information Retrieval (IR), largely owed to fine-tuning deep language models (LMs) for document ranking. While remarkably effective, the ranking models based on these LMs increase computational cost by orders of magnitude over prior approaches, particularly as they must feed each query-document pair through a massive neural network to compute a single relevance score. To tackle this, we present ColBERT, a novel ranking model that adapts deep LMs (in particular, BERT) for efficient retrieval. ColBERT introduces a late interaction architecture that independently encodes the query and the document using BERT and then employs a cheap yet powerful interaction step that models their fine-grained similarity. By delaying and yet retaining this fine-granular interaction, ColBERT can leverage the expressiveness of deep LMs while simultaneously gaining the ability to pre-compute document representations offline, considerably speeding up query processing. Beyond reducing the cost of re-ranking the documents retrieved by a traditional model, ColBERT's pruning-friendly interaction mechanism enables leveraging vector-similarity indexes for end-to-end retrieval directly from a large document collection. We extensively evaluate ColBERT using two recent passage search datasets. Results show that ColBERT's effectiveness is competitive with existing BERT-based models (and outperforms every non-BERT baseline), while executing two orders-of-magnitude faster and requiring four orders-of-magnitude fewer FLOPs per query. | 翻訳日:2022-12-09 05:37:50 公開日:2020-06-04 |
# 対称スキップオートエンコーダを用いた直交正規化器による画像融合 Image fusion using symmetric skip autoencodervia an Adversarial Regulariser ( http://arxiv.org/abs/2005.00447v2 ) ライセンス: Link先を確認 | Snigdha Bhagat, S. D. Joshi, Brejesh Lall | (参考訳) 可視画像の空間特性と赤外画像のスペクトル内容を組み合わせることで、両世界のベストを抽出することは難しい課題である。
本研究では,赤外線と可視画像から深い特徴を抽出し,より包括的でグローバルな表現を得る空間制約付き対向オートエンコーダを提案する。
本稿では,残差逆ネットワークによって規則化された残差オートエンコーダアーキテクチャを提案し,より現実的な融合画像を生成する。
残余モジュールは、エンコーダ、デコーダ及び敵ネットワークのプライマリビルディングとして機能し、対称スキップ接続への加算により、エンコーダ構造の初期層からネットワークのデコーダ部に直接空間特性を埋め込む機能を実行する。
融合構造のエンコーダ部にある複数の層に特徴マップを付加することにより、赤外線画像のスペクトル情報を組み込むことにより、視覚画像と赤外線画像の両方を別々に推測する。
そこで本研究では,ネットワークのパラメータを効率的に最適化するために,融合画像とオリジナル画像の教師付き学習を行う逆正規化ネットワークを提案する。 It is a challenging task to extract the best of both worlds by combining the spatial characteristics of a visible image and the spectral content of an infrared image. In this work, we propose a spatially constrained adversarial autoencoder that extracts deep features from the infrared and visible images to obtain a more exhaustive and global representation. In this paper, we propose a residual autoencoder architecture, regularised by a residual adversarial network, to generate a more realistic fused image. The residual module serves as primary building for the encoder, decoder and adversarial network, as an add on the symmetric skip connections perform the functionality of embedding the spatial characteristics directly from the initial layers of encoder structure to the decoder part of the network. The spectral information in the infrared image is incorporated by adding the feature maps over several layers in the encoder part of the fusion structure, which makes inference on both the visual and infrared images separately. In order to efficiently optimize the parameters of the network, we propose an adversarial regulariser network which would perform supervised learning on the fused image and the original visual image. | 翻訳日:2022-12-07 23:18:00 公開日:2020-06-04 |
# pyBART: IEのエビデンスベースの構文変換 pyBART: Evidence-based Syntactic Transformations for IE ( http://arxiv.org/abs/2005.01306v2 ) ライセンス: Link先を確認 | Aryeh Tiktinsky, Yoav Goldberg, Reut Tsarfaty | (参考訳) 構文依存性は高い精度で予測でき、機械学習とパターンに基づく情報抽出タスクの両方に有用である。
しかし、その実用性は改善できる。
これらの構文的依存関係は、構文的関係を正確に反映するように設計されており、意味的関係を明確にしない。
したがって、これらの表現にはコンテンツワード間の明示的な関係が欠如しており、下流のアプリケーションに役立ちます。
英語拡張UDのような提案は、追加の明示的な弧で普遍的な依存木を拡張することで状況を改善する。
しかし、Pythonユーザーには提供されておらず、カバー範囲も限られている。
我々は,イベント構造と多くの語彙関係を明確化する,広範でデータ駆動型,言語的に健全な変換セットを導入する。
pyBARTは、英語のUDツリーを拡張UDグラフまたは表現に変換するためのオープンソースのPythonライブラリである。
ライブラリはスタンドアロンのパッケージとして動作するか、あるいは SpaCy NLPパイプラインに統合される。
パターンに基づく関係抽出のシナリオで評価すると、より少ないパターンを必要としながらUDよりも高い抽出スコアが得られる。 Syntactic dependencies can be predicted with high accuracy, and are useful for both machine-learned and pattern-based information extraction tasks. However, their utility can be improved. These syntactic dependencies are designed to accurately reflect syntactic relations, and they do not make semantic relations explicit. Therefore, these representations lack many explicit connections between content words, that would be useful for downstream applications. Proposals like English Enhanced UD improve the situation by extending universal dependency trees with additional explicit arcs. However, they are not available to Python users, and are also limited in coverage. We introduce a broad-coverage, data-driven and linguistically sound set of transformations, that makes event-structure and many lexical relations explicit. We present pyBART, an easy-to-use open-source Python library for converting English UD trees either to Enhanced UD graphs or to our representation. The library can work as a standalone package or be integrated within a spaCy NLP pipeline. When evaluated in a pattern-based relation extraction scenario, our representation results in higher extraction scores than Enhanced UD, while requiring fewer patterns. | 翻訳日:2022-12-07 00:47:40 公開日:2020-06-04 |
# 微分物理シミュレーションによる未知物体のすべりの学習 Learning to Slide Unknown Objects with Differentiable Physics Simulations ( http://arxiv.org/abs/2005.05456v2 ) ライセンス: Link先を確認 | Changkyu Song and Abdeslam Boularias | (参考訳) 本稿では,初期設定から安定制約のある目標設定へ未知のオブジェクトをプッシュする新しい手法を提案する。
提案手法は, 微分可能な物理モデルの最近の進歩を利用して, 質量分布や摩擦係数など, 押された物体の未知の力学特性を学習する。
提案手法は,物体の予測されたポーズと実際のポーズとの間の距離の勾配を計算し,その勾配を利用して,現実のギャップを減少させる機械的特性の値を求める。
提案手法は,目標設定に向けて効率的にオブジェクトをプッシュするためのポリシーの最適化にも利用される。
実物体を用いた実ロボットによるデータ収集実験により,提案手法は,複数回の押下動作から異種物体の力学特性を識別できることを示した。 We propose a new technique for pushing an unknown object from an initial configuration to a goal configuration with stability constraints. The proposed method leverages recent progress in differentiable physics models to learn unknown mechanical properties of pushed objects, such as their distributions of mass and coefficients of friction. The proposed learning technique computes the gradient of the distance between predicted poses of objects and their actual observed poses and utilizes that gradient to search for values of the mechanical properties that reduce the reality gap. The proposed approach is also utilized to optimize a policy to efficiently push an object toward the desired goal configuration. Experiments with real objects using a real robot to gather data show that the proposed approach can identify the mechanical properties of heterogeneous objects from a small number of pushing actions. | 翻訳日:2022-12-04 21:04:42 公開日:2020-06-04 |
# 2020年サーカスム検出共有作業報告 A Report on the 2020 Sarcasm Detection Shared Task ( http://arxiv.org/abs/2005.05814v2 ) ライセンス: Link先を確認 | Debanjan Ghosh and Avijit Vajpayee and Smaranda Muresan | (参考訳) 皮肉や言葉の皮肉を検出することは、人々の実際の感情や信念を理解する上で重要である。
そのため, 自然言語処理におけるサーカズム解析の分野は, 一般的な研究課題となっている。
サルカズム検出のための計算手法に取り組むコミュニティが増えている中、現在の技術状況を分析するためのベンチマーク研究を行い、この分野の進歩を促進することが不可欠である。
ACL 2020の第2回図形言語処理ワークショップ(FigLang 2020)の一環として実施したサルカズム検出の共有タスクについて報告する。 Detecting sarcasm and verbal irony is critical for understanding people's actual sentiments and beliefs. Thus, the field of sarcasm analysis has become a popular research problem in natural language processing. As the community working on computational approaches for sarcasm detection is growing, it is imperative to conduct benchmarking studies to analyze the current state-of-the-art, facilitating progress in this area. We report on the shared task on sarcasm detection we conducted as a part of the 2nd Workshop on Figurative Language Processing (FigLang 2020) at ACL 2020. | 翻訳日:2022-12-03 18:14:38 公開日:2020-06-04 |
# フェデレーション学習による非IIDデータのキーワードスポッティングモデルの訓練 Training Keyword Spotting Models on Non-IID Data with Federated Learning ( http://arxiv.org/abs/2005.10406v2 ) ライセンス: Link先を確認 | Andrew Hard, Kurt Partridge, Cameron Nguyen, Niranjan Subrahmanya, Aishanee Shah, Pai Zhu, Ignacio Lopez Moreno, Rajiv Mathews | (参考訳) 本研究では,本番品質のキーワードスポッティングモデルをフェデレーション学習を用いてデバイス上で訓練し,中央学習モデルと同等の偽受容率と偽拒絶率を達成できることを実証する。
オンデバイスデータの適合に関連するアルゴリズム上の制約を克服するため,大規模フェデレーションシミュレーションを用いて最適化アルゴリズムとハイパーパラメータ構成の徹底的な実証研究を行う。
資源制約を克服するため,メモリ集約型mtrデータ拡張をスペックオーグメントに置き換え,偽の拒絶率を56%削減した。
最後に,サンプルのラベル付け(デバイス上のデータにゼロ可視性を持たせる)を行うために,教師の学習について検討する。 We demonstrate that a production-quality keyword-spotting model can be trained on-device using federated learning and achieve comparable false accept and false reject rates to a centrally-trained model. To overcome the algorithmic constraints associated with fitting on-device data (which are inherently non-independent and identically distributed), we conduct thorough empirical studies of optimization algorithms and hyperparameter configurations using large-scale federated simulations. To overcome resource constraints, we replace memory intensive MTR data augmentation with SpecAugment, which reduces the false reject rate by 56%. Finally, to label examples (given the zero visibility into on-device data), we explore teacher-student training. | 翻訳日:2022-11-30 22:52:52 公開日:2020-06-04 |
# データベース上の対話型自然言語インタフェースの効率的な展開 Efficient Deployment of Conversational Natural Language Interfaces over Databases ( http://arxiv.org/abs/2006.00591v2 ) ライセンス: Link先を確認 | Anthony Colas, Trung Bui, Franck Dernoncourt, Moumita Sinha, Doo Soon Kim | (参考訳) 多くのユーザーはチャットボットやaiアシスタントとコミュニケーションしてさまざまなタスクをこなす。
アシスタントの重要な構成要素は、質問回答(QA)に対するユーザの自然言語質問を理解し、答える能力である。
通常、データは構造化された方法で格納されるため、自然言語の質問を対応するクエリ言語に変換することが重要なステップである。
しかし、ほとんどの自然言語とクエリーの最先端モデルをトレーニングするには、まず大量のトレーニングデータが必要である。
ほとんどのドメインでは、このデータは利用できないため、さまざまなドメインでこのようなデータセットを収集するのは面倒で時間がかかる。
本研究では,自然言語から問合せ言語への機械学習モデルを開発するための学習データセットの収集を高速化する新しい手法を提案する。
本システムでは,対話セッションを複数回定義する対話型多項データを生成することができ,チャットボットインタフェースをより活用することができる。
作成したデータの適応性と有効性を示すため、SQLとSPARQLベースのデータセット上で、最先端の2つのNL-to-QLモデルをトレーニングします。 Many users communicate with chatbots and AI assistants in order to help them with various tasks. A key component of the assistant is the ability to understand and answer a user's natural language questions for question-answering (QA). Because data can be usually stored in a structured manner, an essential step involves turning a natural language question into its corresponding query language. However, in order to train most natural language-to-query-language state-of-the-art models, a large amount of training data is needed first. In most domains, this data is not available and collecting such datasets for various domains can be tedious and time-consuming. In this work, we propose a novel method for accelerating the training dataset collection for developing the natural language-to-query-language machine learning models. Our system allows one to generate conversational multi-term data, where multiple turns define a dialogue session, enabling one to better utilize chatbot interfaces. We train two current state-of-the-art NL-to-QL models, on both an SQL and SPARQL-based datasets in order to showcase the adaptability and efficacy of our created data. | 翻訳日:2022-11-26 12:50:32 公開日:2020-06-04 |
# MLOS: ソフトウェアパフォーマンスエンジニアリングを自動化するインフラストラクチャ MLOS: An Infrastructure for Automated Software Performance Engineering ( http://arxiv.org/abs/2006.02155v2 ) ライセンス: Link先を確認 | Carlo Curino, Neha Godwal, Brian Kroth, Sergiy Kuryata, Greg Lapinski, Siqi Liu, Slava Oks, Olga Poppe, Adam Smiechowski, Ed Thayer, Markus Weimer, Yiwen Zhu | (参考訳) 現代のシステムソフトウェアの開発は、ビジネスロジックプログラミングとソフトウェアパフォーマンスエンジニアリング(SPE)を組み合わせた複雑なタスクである。
後者は、所定のハードウェア、ソフトウェア、ワークロード(hw/sw/wl)コンテキストに対するシステムの最適化に焦点を当てた、実験的かつ労働集約的な活動である。
今日のSPEは、特殊なチームによるビルド/リリースフェーズで行われ、呪われています。
1)標準化・自動化ツールの欠如
2) hw/sw/wl コンテキスト変更として重要な繰り返し処理。
3) ひとつのワークロードやコンポーネントの改善が他に影響を与える可能性がある)チューニングによって引き起こされる脆弱性。
結果として、コストのかかる投資にもかかわらず、システムソフトウェアは最適な運用ポイント外にあることが多い。
データサイエンス(DS)の最近の発展は、DSツールと方法論を新しい開発者エクスペリエンスと組み合わせて、SPEの実践を変革する機会を示唆している。
本稿では、ソフトウェアパフォーマンスエンジニアリングを民主化し自動化するためのmlベースのインフラストラクチャと方法論であるmlosについて述べる。
MLOSは継続的、インスタンスレベル、堅牢で、追跡可能なシステムの最適化を可能にする。
MLOSは、SQL Serverのパフォーマンスを最適化するためにMicrosoft内で開発され、採用されている。
初期の結果は、コンポーネントレベルの最適化が特定のhw/sw/wlをカスタマイズする際の20%-90%の改善につながることを示唆しており、大きなチャンスを示唆している。
しかし、コミュニティの関与を必要とするいくつかの研究課題が残っている。
この目的のために、私たちはMLOSコアインフラストラクチャをオープンソース化する過程にあり、学術機関と協業して、Software 2.0とMLOSのアイデアに関する教育プログラムを作成しています。 Developing modern systems software is a complex task that combines business logic programming and Software Performance Engineering (SPE). The later is an experimental and labor-intensive activity focused on optimizing the system for a given hardware, software, and workload (hw/sw/wl) context. Today's SPE is performed during build/release phases by specialized teams, and cursed by: 1) lack of standardized and automated tools, 2) significant repeated work as hw/sw/wl context changes, 3) fragility induced by a "one-size-fit-all" tuning (where improvements on one workload or component may impact others). The net result: despite costly investments, system software is often outside its optimal operating point - anecdotally leaving 30% to 40% of performance on the table. The recent developments in Data Science (DS) hints at an opportunity: combining DS tooling and methodologies with a new developer experience to transform the practice of SPE. In this paper we present: MLOS, an ML-powered infrastructure and methodology to democratize and automate Software Performance Engineering. MLOS enables continuous, instance-level, robust, and trackable systems optimization. MLOS is being developed and employed within Microsoft to optimize SQL Server performance. Early results indicated that component-level optimizations can lead to 20%-90% improvements when custom-tuning for a specific hw/sw/wl, hinting at a significant opportunity. However, several research challenges remain that will require community involvement. To this end, we are in the process of open-sourcing the MLOS core infrastructure, and we are engaging with academic institutions to create an educational program around Software 2.0 and MLOS ideas. | 翻訳日:2022-11-26 07:56:12 公開日:2020-06-04 |
# uavとロボットによる遠隔熱センシングのための実時間熱画像と1d/2d/3dレーザーの融合 Fusion of Real Time Thermal Image and 1D/2D/3D Depth Laser Readings for Remote Thermal Sensing in Industrial Plants by Means of UAVs and/or Robots ( http://arxiv.org/abs/2006.01286v3 ) ライセンス: Link先を確認 | Corneliu Arsene | (参考訳) 本稿では,高電圧直流(hvdc)コンバータステーションなどの工業プラントで見られるような,暗くgpsで固定された環境における赤外線リモートセンシングの高速化について述べる。
これらの手順は、1次元LIDARレーザーまたは2次元北陽レーザーまたは3次元マルチセンスSLBレーザーセンサから得られる深度推定と、FLIR Duo Rデュアルセンサー熱カメラからの可視・熱カメラとの組み合わせに基づいている。
これらのセンサーとカメラの組み合わせは、危険環境の中で見られる潜在的な故障に関する情報を提供するために、無人航空機(UAV)やロボットに搭載されるのに適している。
For example, the capabilities of the developed software and hardware system corresponding to the combination of the 1-D LIDAR sensor and the FLIR Duo R dual-sensor thermal camera is assessed from the point of the accuracy of results and the required computational times: the obtained computational times are under 10 ms, with a maximum localization error of 8 mm and an average standard deviation for the measured temperatures of 1.11 degree Celsius, which results are obtained for a number of test cases.
本論文は, 工業プラントにおけるホットスポットの同定と局在化のためのシステムについて, 第2節で述べる。
第III節では, 1次元LIDARレーザセンサとサーマル画像を用いて, プラントの故障の同定と位置決めを行う手法と結果について述べる。
第4節では、リアルタイムの熱画像処理を行う。
第6節では3次元マルチセンスslbレーザーと熱画像の組み合わせについて述べる。
第7節では議論といくつかの結論が述べられている。 This paper presents fast procedures for thermal infrared remote sensing in dark, GPS-denied environments, such as those found in industrial plants such as in High-Voltage Direct Current (HVDC) converter stations. These procedures are based on the combination of the depth estimation obtained from either a 1-Dimensional LIDAR laser or a 2-Dimensional Hokuyo laser or a 3D MultiSense SLB laser sensor and the visible and thermal cameras from a FLIR Duo R dual-sensor thermal camera. The combination of these sensors/cameras is suitable to be mounted on Unmanned Aerial Vehicles (UAVs) and/or robots in order to provide reliable information about the potential malfunctions, which can be found within the hazardous environment. For example, the capabilities of the developed software and hardware system corresponding to the combination of the 1-D LIDAR sensor and the FLIR Duo R dual-sensor thermal camera is assessed from the point of the accuracy of results and the required computational times: the obtained computational times are under 10 ms, with a maximum localization error of 8 mm and an average standard deviation for the measured temperatures of 1.11 degree Celsius, which results are obtained for a number of test cases. The paper is structured as follows: the description of the system used for identification and localization of hotspots in industrial plants is presented in section II. In section III, the method for faults identification and localization in plants by using a 1-Dimensional LIDAR laser sensor and thermal images is described together with results. In section IV the real time thermal image processing is presented. Fusion of the 2-Dimensional depth laser Hokuyo and the thermal images is described in section V. In section VI the combination of the 3D MultiSense SLB laser and thermal images is described. In section VII a discussion and several conclusions are drawn. | 翻訳日:2022-11-26 07:51:39 公開日:2020-06-04 |
# 配列ラベリングのためのラベル成分の埋め込み:きめ細かな名前付きエンティティ認識を事例として Embeddings of Label Components for Sequence Labeling: A Case Study of Fine-grained Named Entity Recognition ( http://arxiv.org/abs/2006.01372v2 ) ライセンス: Link先を確認 | Takuma Kato, Kaori Abe, Hiroki Ouchi, Shumpei Miyawaki, Jun Suzuki, Kentaro Inui | (参考訳) 一般に、シーケンスラベリングで使われるラベルは異なる種類の要素から構成される。
例えば、B-Person や I-Person のような IOB-format のエンティティラベルは、スパン (B と I) とタイプ情報 (Person) に分解することができる。
しかし、ほとんどのシーケンスラベリングモデルはそのようなラベルコンポーネントを考慮していないが、personのようなラベル間の共有コンポーネントはラベル予測に有用である。
本稿では,ラベル成分情報をモデルへの埋め込みとして統合することを提案する。
提案手法は,英語および日本語の微粒な実体認識実験を通じて,特に低周波ラベルの事例において,性能の向上を実証する。 In general, the labels used in sequence labeling consist of different types of elements. For example, IOB-format entity labels, such as B-Person and I-Person, can be decomposed into span (B and I) and type information (Person). However, while most sequence labeling models do not consider such label components, the shared components across labels, such as Person, can be beneficial for label prediction. In this work, we propose to integrate label component information as embeddings into models. Through experiments on English and Japanese fine-grained named entity recognition, we demonstrate that the proposed method improves performance, especially for instances with low-frequency labels. | 翻訳日:2022-11-26 00:20:04 公開日:2020-06-04 |
# PAC-Bayesian 機械学習による組合せ予想 A combinatorial conjecture from PAC-Bayesian machine learning ( http://arxiv.org/abs/2006.01387v2 ) ライセンス: Link先を確認 | M. Younsi, A. Lacasse | (参考訳) 2番目の著者のPh.D.論文からの組合せ予想の証明を示す。
証明は二項と多項の和が同一性に依存する。
また、PAC-ベイジアン機械学習の文脈における予測の関連性についても論じる。 We present a proof of a combinatorial conjecture from the second author's Ph.D. thesis. The proof relies on binomial and multinomial sums identities. We also discuss the relevance of the conjecture in the context of PAC-Bayesian machine learning. | 翻訳日:2022-11-25 23:53:50 公開日:2020-06-04 |
# 公正な機械学習でセックスは何をすべきか? What's Sex Got To Do With Fair Machine Learning? ( http://arxiv.org/abs/2006.01770v2 ) ライセンス: Link先を確認 | Lily Hu and Issa Kohler-Hausmann | (参考訳) 機械学習における公平性に関する議論は、主に集団間の公平性や非差別性が必要とするものを定義することに集中している。
しかし、グループが正確に何であるかにはほとんど注意が払われていない。
フェーネス」に対する最近の多くのアプローチでは、データ生成プロセスの因果モデルを指定する必要がある。
これらのエクササイズは、人種または性集団が単に特定の特性を共有する個人の集合であるという暗黙のオントロジ的仮定を与える。
因果モデルにおけるモジュラリティの形式的仮定を探求し、ある因果経路によって捕獲される依存関係が他の経路の介入に不変であることを示す。
セックスの因果モデルは2つの実体的主張を提案する。
1)世界に社会現象を因果的に引き起こす個人固有の特徴である性同一性(ex-on-in-own)が存在する。
2) 性別と効果の関係はどんな方法でも変更可能であり, 前者の特徴は, セックスが世界において有する意味を保っている。
この存在論図は誤りであると主張する。
セックスが「原因」であるとされる「影響」の多くは、実際には社会的地位としての性の構成的特徴である。
性的な特徴の社会的意味、すなわち性差別を道徳的に問題のある行動にすることの正確な意味を与える。
この概念的エラーの修正は、モデルを差別の検出に利用する上で、多くの意味を持つ。
構成関係の形式図は、差別について推論する全く異なる経路を示す。
因果ダイアグラムが洗練されたモジュラー反ファクトの構築を導くのに対し、構成的ダイアグラムは異なる種類の反ファクトを差別に関する調査の中心として特定する。 Debate about fairness in machine learning has largely centered around competing definitions of what fairness or nondiscrimination between groups requires. However, little attention has been paid to what precisely a group is. Many recent approaches to "fairness" require one to specify a causal model of the data generating process. These exercises make an implicit ontological assumption that a racial or sex group is simply a collection of individuals who share a given trait. We show this by exploring the formal assumption of modularity in causal models, which holds that the dependencies captured by one causal pathway are invariant to interventions on any other pathways. Causal models of sex propose two substantive claims: 1) There exists a feature, sex-on-its-own, that is an inherent trait of an individual that causally brings about social phenomena external to it in the world; and 2) the relations between sex and its effects can be modified in whichever ways and the former feature would still retain the meaning that sex has in our world. We argue that this ontological picture is false. Many of the "effects" that sex purportedly "causes" are in fact constitutive features of sex as a social status. They give the social meaning of sex features, meanings that are precisely what make sex discrimination a distinctively morally problematic type of action. Correcting this conceptual error has a number of implications for how models can be used to detect discrimination. Formal diagrams of constitutive relations present an entirely different path toward reasoning about discrimination. Whereas causal diagrams guide the construction of sophisticated modular counterfactuals, constitutive diagrams identify a different kind of counterfactual as central to an inquiry on discrimination: one that asks how the social meaning of a group would be changed if its non-modular features were altered. | 翻訳日:2022-11-25 23:44:07 公開日:2020-06-04 |
# 糖尿病性ワグナーのリアルタイム検出と評価のためのyolov3の効率的改良 Efficient refinements on YOLOv3 for real-time detection and assessment of diabetic foot Wagner grades ( http://arxiv.org/abs/2006.02322v2 ) ライセンス: Link先を確認 | Aifu Han, Yongze Zhang, Ajuan Li, Changjin Li, Fengying Zhao, Qiujie Dong, Qin Liu, Yanting Liu, Ximei Shen, Sunjie Yan and Shengzong Zhou | (参考訳) 現在、wagner grades of diabetic feet (df)のスクリーニングはプロのポディアトリストに依存している。
しかし、先進国ではポジアトリストが乏しく、未診断患者の大多数が入院している。
本研究では,Wagnerグレードのリアルタイム検出と位置推定法について,YOLOv3の改良に基づく提案を行った。
2,688個のデータサンプルを収集し,視覚コヒーレント画像のミックスアップ,ラベル平滑化,トレーニングスケジューラのリフレクションなどの手法をアブレーション実験に基づいて実装した。
実験の結果、yolov3の改良は91.95%の精度を達成し、単一の画像の推論速度はnvidia tesla v100で31ミリ秒に達した。
スマートフォン上でモデルの性能をテストするため,Android 9 システムスマートフォン上で YOLOv3 モデル上で改良を行った。
本研究は, 今後DFの臨床治療のパラダイムシフトにつながる可能性があり, DF組織解析と治癒状態に対する効果的な医療ソリューションを提供する。 Currently, the screening of Wagner grades of diabetic feet (DF) still relies on professional podiatrists. However, in less-developed countries, podiatrists are scarce, which led to the majority of undiagnosed patients. In this study, we proposed the real-time detection and location method for Wagner grades of DF based on refinements on YOLOv3. We collected 2,688 data samples and implemented several methods, such as a visual coherent image mixup, label smoothing, and training scheduler revamping, based on the ablation study. The experimental results suggested that the refinements on YOLOv3 achieved an accuracy of 91.95% and the inference speed of a single picture reaches 31ms with the NVIDIA Tesla V100. To test the performance of the model on a smartphone, we deployed the refinements on YOLOv3 models on an Android 9 system smartphone. This work has the potential to lead to a paradigm shift for clinical treatment of the DF in the future, to provide an effective healthcare solution for DF tissue analysis and healing status. | 翻訳日:2022-11-25 18:12:30 公開日:2020-06-04 |
# オンラインソーシャルメディアにおける行動行動による影響伝播に基づく影響対象の推薦 Recommending Influenceable Targets based on Influence Propagation through Activity Behaviors in Online Social Media ( http://arxiv.org/abs/2008.02736v1 ) ライセンス: Link先を確認 | Dhrubasish Sarkar | (参考訳) オンラインソーシャルメディア(英語: Online Social Media、OSM)は、ユーザーがメッセージ、投稿、リアクション、タグ付け、他のソーシャル活動と異なるコンテンツで共有することで、接続された世界に自分自身を提示するプラットフォームである。
今日では、産業、ビジネス、社会の様々な面、そしてユーザー生活に大きな影響を与えている。
OSNプラットフォームでは、ターゲットユーザに到達することが、ほとんどの企業や他の組織にとって、主要な焦点の1つです。
影響のあるターゲットの同定と推薦は、適切なオーディエンスを効率的かつ効果的に捉えるのに役立つ。
本稿では,egocentric osnにおいて,特定のソーシャルネットワークユーザに対して最も影響力のあるターゲットユーザリストを作成するために,効果的な影響測定レコメンデーションシステムを導入することで,効果的なモデルについて検討した。
まず、すべてのアクティビティに基づいて対話型ネットワークメンバーのリストが更新された。
最も類似した活動を行うネットワークメンバーは、感情型のある特定の影響カテゴリーに基づいて推薦されている。
その後、主ユーザの活動内容に対する活動内容の類似度と頻度を分析し、それらの更新されたネットワーク部材の更新リストのうち、必要な量に基づいて最も影響力のあるネットワーク部材を適切なランキングとして特定した。
これら2つの連続的な段階を通じて、メインユーザーの最も影響力のあるターゲットの有効リストは、あらゆるソーシャルネットワークのエゴセントリックな視点と区別されている。 Online Social Media (OSM) is a platform through which the users present themselves to the connected world by means of messaging, posting, reacting, tagging, and sharing on different contents with also other social activities. Nowadays, it has a vast impact on various aspects of the industry, business and society along with on users life. In an OSN platform, reaching the target users is one of the primary focus for most of the businesses and other organizations. Identification and recommendation of influenceable targets help to capture the appropriate audience efficiently and effectively. In this paper, an effective model has been discussed in egocentric OSN by incorporating an efficient influence measured Recommendation System in order to generate a list of top most influenceable target users among all connected network members for any specific social network user. Firstly the list of interacted network members has been updated based on all activities. On which the interacted network members with most similar activities have been recommended based on the specific influence category with sentiment type. After that, the top most influenceable network members in the basis of the required amount among those updated list of interacted network members have been identified with proper ranking by analyzing the similarity and frequency of their activity contents with respect to the activity contents of the main user. Through these two continuous stages, an effective list of top influenceable targets of the main user has been distinguished from the egocentric view of any social network. | 翻訳日:2022-11-25 12:51:05 公開日:2020-06-04 |
# Dense-Vnet を用いた脳腫瘍のMRIにおけるロバスト自動脳抽出 Robust Automatic Whole Brain Extraction on Magnetic Resonance Imaging of Brain Tumor Patients using Dense-Vnet ( http://arxiv.org/abs/2006.02627v1 ) ライセンス: Link先を確認 | Sara Ranjbar (1), Kyle W. Singleton (1), Lee Curtin (1), Cassandra R. Rickertsen (1), Lisa E. Paulson (1), Leland S. Hu (1,2), J. Ross Mitchell (3), Kristin R. Swanson (1) ((1) Mathematical NeuroOncology Lab, Precision Neurotherapeutics Innovation Program, Department of Neurological Surgery, Mayo Clinic, Phoenix, AZ, USA, (2) Department of Diagnostic Imaging and Interventional Radiology, Mayo Clinic, Phoenix, AZ, USA, (3) Department of Biostatistics and Bioinformatics, Moffitt Cancer Center and Research Institute, Tampa, Florida, USA) | (参考訳) 全身脳抽出(ひゃく脳きゅうがく、英: Whole brain extract)は、頭蓋骨、眼球、皮膚などの非脳組織を神経画像から除去する過程である。
Skull stripingは、術前計画、大脳皮質再建、および自動腫瘍分節の予備段階である。
頭蓋骨のストリッピングアプローチは多岐にわたるが,病理mri,特に脳腫瘍を伴うmriの処理には十分正確なものはほとんどない。
本研究では,脳腫瘍患者におけるT1-weighted with Gadolinium contrast (T1Gd) やT2-weighted fluid attenuated inversion recovery (FLAIR) などの腫瘍学における共通MRIシークエンシングのための深層学習手法を提案する。
我々は,SPM12ソフトウェアを用いて白黒,白白,CSFの確率マスクを自動生成し,モデルトレーニングのための最後の全脳マスクとしてマスクを1つにマージした。
DeepBrainと呼ばれる)モデルの味の一致、感度、特異性は、手動の脳マスクに対して試験された。
データ効率を評価するために、段階的に少ないトレーニングデータ例を用いてモデルを再訓練し、各ラウンドでトレーニングされたモデルのテストセットの平均ダイススコアを算出した。
さらに, LBP40Aデータセットから得られた健康脳のMRIと比較した。
DeepBrainは平均ダイススコア94.5%、感度96.4%、特異度98.5%の脳腫瘍データを得た。
健康な脳では、モデル性能が96.2%、感度96.6%、特異性99.2%に向上した。
データ効率の実験は、この特定のタスクに対して、50のトレーニングサンプルで同等の精度が達成できたことを示した。
その結果, 自動生成ラベルを最小処理した深層学習モデルでは, 脳腫瘍患者のmriでより正確な脳マスクを数秒以内に生成できることがわかった。 Whole brain extraction, also known as skull stripping, is a process in neuroimaging in which non-brain tissue such as skull, eyeballs, skin, etc. are removed from neuroimages. Skull striping is a preliminary step in presurgical planning, cortical reconstruction, and automatic tumor segmentation. Despite a plethora of skull stripping approaches in the literature, few are sufficiently accurate for processing pathology-presenting MRIs, especially MRIs with brain tumors. In this work we propose a deep learning approach for skull striping common MRI sequences in oncology such as T1-weighted with gadolinium contrast (T1Gd) and T2-weighted fluid attenuated inversion recovery (FLAIR) in patients with brain tumors. We automatically created gray matter, white matter, and CSF probability masks using SPM12 software and merged the masks into one for a final whole-brain mask for model training. Dice agreement, sensitivity, and specificity of the model (referred herein as DeepBrain) was tested against manual brain masks. To assess data efficiency, we retrained our models using progressively fewer training data examples and calculated average dice scores on the test set for the models trained in each round. Further, we tested our model against MRI of healthy brains from the LBP40A dataset. Overall, DeepBrain yielded an average dice score of 94.5%, sensitivity of 96.4%, and specificity of 98.5% on brain tumor data. For healthy brains, model performance improved to a dice score of 96.2%, sensitivity of 96.6% and specificity of 99.2%. The data efficiency experiment showed that, for this specific task, comparable levels of accuracy could have been achieved with as few as 50 training samples. In conclusion, this study demonstrated that a deep learning model trained on minimally processed automatically-generated labels can generate more accurate brain masks on MRI of brain tumor patients within seconds. | 翻訳日:2022-11-25 12:47:59 公開日:2020-06-04 |
# 物理モデルによる機械学習の統合 Integrating Machine Learning with Physics-Based Modeling ( http://arxiv.org/abs/2006.02619v1 ) ライセンス: Link先を確認 | Weinan E, Jiequn Han, Linfeng Zhang | (参考訳) 機械学習は、科学研究を行う能力を大幅に向上させる、非常に強力なツールとして位置づけられている。
しかし、これが現実になる前に、多くの問題に対処する必要がある。
機械学習と物理に基づくモデリングを統合して、新しい解釈可能で真に信頼できる物理モデルを開発するにはどうすればよいのか?
一般ガイドラインを導入した後、機械学習ベースの物理モデルを開発する上で最も重要な2つの課題について論じる。
また、現代の機械学習の成功の背後にある根本的な理由について、シンプルで直感的な説明を提供するとともに、機械学習と物理ベースのモデリングを統合するために必要な並行機械学習フレームワークの導入も提供する。
分子動力学と運動方程式のモーメント閉包は、議論される主な問題を説明する例として用いられる。
最終的には、この統合がどこに結びつくのか、そして機械学習が科学的モデリングにうまく統合された後、新たなフロンティアがどこにあるのか、という一般的な議論で終わります。 Machine learning is poised as a very powerful tool that can drastically improve our ability to carry out scientific research. However, many issues need to be addressed before this becomes a reality. This article focuses on one particular issue of broad interest: How can we integrate machine learning with physics-based modeling to develop new interpretable and truly reliable physical models? After introducing the general guidelines, we discuss the two most important issues for developing machine learning-based physical models: Imposing physical constraints and obtaining optimal datasets. We also provide a simple and intuitive explanation for the fundamental reasons behind the success of modern machine learning, as well as an introduction to the concurrent machine learning framework needed for integrating machine learning with physics-based modeling. Molecular dynamics and moment closure of kinetic equations are used as examples to illustrate the main issues discussed. We end with a general discussion on where this integration will lead us to, and where the new frontier will be after machine learning is successfully integrated into scientific modeling. | 翻訳日:2022-11-25 12:47:23 公開日:2020-06-04 |
# 2次元画像特徴検出と記述子選択エキスパートシステム 2D Image Features Detector And Descriptor Selection Expert System ( http://arxiv.org/abs/2006.02933v1 ) ライセンス: Link先を確認 | Ibon Merino, Jon Azpiazu, Anthony Remazeilles, Basilio Sierra | (参考訳) 画像からのキーポイントの検出と記述はコンピュータビジョンにおいてよく研究されている問題である。
SIFT、SURF、ORBといったいくつかの手法は計算的に非常に効率的である。
本稿では,階層的分類に基づく産業部品の物体認識に関する特別ケーススタディの解法を提案する。
インスタンス数を減らすことでパフォーマンスが向上します。
この手法は,orb,sift,freakなどの1つのメソッドを使用するよりも,かなり遅くても優れた性能を示す。 Detection and description of keypoints from an image is a well-studied problem in Computer Vision. Some methods like SIFT, SURF or ORB are computationally really efficient. This paper proposes a solution for a particular case study on object recognition of industrial parts based on hierarchical classification. Reducing the number of instances leads to better performance, indeed, that is what the use of the hierarchical classification is looking for. We demonstrate that this method performs better than using just one method like ORB, SIFT or FREAK, despite being fairly slower. | 翻訳日:2022-11-25 12:43:26 公開日:2020-06-04 |
# ドローン, コンピュータビジョン, 機械学習による軌道安全性の向上 Improving Train Track Safety using Drones, Computer Vision and Machine Learning ( http://arxiv.org/abs/2006.11379v1 ) ライセンス: Link先を確認 | Kirthi Kumar and Anuraag Kaashyap | (参考訳) 世界中の列車事故による数百万人の死者は、非効率で手動の線路検査によって引き起こされる。
欧州連合(eu)や世界各国で一連の事故が報告されたことを受け、政府当局は鉄道産業の安全な運営を真剣に懸念している。
軌道上の欠陥による損失は、公共投資や民間投資の数十億ドルの損失と、ダウンタイムによる収入の損失をもたらし、最終的には大衆の信頼を失う結果となった。
手動、平凡で高価な鉄道線路の安全性の監視は、ドローン、コンピュータビジョン、機械学習を用いて変換することができる。
本研究の目的は,列車線路の模擬訓練データに基づいて安全か安全かを正確に解析する教師付き学習と半教師付き学習を実装する複数のアルゴリズムを開発することである。
これには、教師付き学習を用いてトラック欠陥を特定できる畳み込みニューラルネットワークの開発や、新しいモデルでは、コンピュータビジョン画像処理アルゴリズムとともに、トラック欠陥検出プロセスのスピードアップと品質向上の両方を行うことができる。
その他の目標は、トラックの欠陥をシミュレートし、ドローンを使った視覚検査を正確かつ一貫して行うために、線路のプロトタイプを設計、構築することでした。
最終的には、ドローン、コンピュータビジョン、機械学習を使用することで、鉄道線路の良好な修理が達成できることが実証される。 Millions of human casualties resulting from train accidents globally are caused by the inefficient, manual track inspections. Government agencies are seriously concerned about the safe operations of the rail industry after series of accidents reported across e USA and around the globe, mainly attributed to track defects. Casualties resulting from track defects result in billions of dollars loss in public and private investments and loss of revenue due to downtime, ultimately resulting in loss of the public's confidence. The manual, mundane, and expensive monitoring of rail track safety can be transform through the use of drones, computer vision, and machine learning. The primary goal of this study is to develop multiple algorithms that implement supervised and semi-supervised learning that accurately analyze whether a track is safe or unsafe based on simulated training data of train tracks. This includes being able to develop a Convolutional Neural Network that can identify track defects using supervised learning without having to specify a particular algorithm for detecting those defects, and that the new model would both speed up and improve the quality of the track defect detection process, accompanied with a computer vision image-processing algorithm. Our other goals included designing and building a prototype representation of train tracks to simulate track defects, to precisely and consistently conduct the visual inspection using drones. Ultimately, the goal demonstrates that the state of good repairs in railway tracks can be attained through the use of drones, computer vision and machine learning. | 翻訳日:2022-11-25 12:43:01 公開日:2020-06-04 |
# 技術言語処理におけるストップワード Stopwords in Technical Language Processing ( http://arxiv.org/abs/2006.02633v1 ) ライセンス: Link先を確認 | Serhad Sarica and Jianxi Luo | (参考訳) 自然言語処理技術の工学的文脈における情報検索、索引付け、トピックモデリングへの応用が増えている。
このようなタスクの標準コンポーネントは、データの非形式的なコンポーネントであるストップワードの削除である。
研究者は一般的な英語に派生したストップワードリストをすぐに利用することができるが、工学分野の技術用語には、非常に頻繁で非定型的な単語が含まれており、技術言語処理アプリケーションのための標準ストップワードリストは存在しない。
ここでは,汎用的,非意味的,非形式的ストップワードを一般テキストのストップワード以外のエンジニアリングテキストで厳密に識別し,代替データ駆動アプローチの合成と,技術言語処理アプリケーション用に準備されたストップワードリストのキュレーションによって,このギャップに対処する。 There are increasingly applications of natural language processing techniques for information retrieval, indexing and topic modelling in the engineering contexts. A standard component of such tasks is the removal of stopwords, which are uninformative components of the data. While researchers use readily available stopword lists which are derived for general English language, the technical jargon of engineering fields contains their own highly frequent and uninformative words and there exists no standard stopword list for technical language processing applications. Here we address this gap by rigorously identifying generic, insignificant, uninformative stopwords in engineering texts beyond the stopwords in general texts, based on the synthesis of alternative data-driven approaches, and curating a stopword list ready for technical language processing applications. | 翻訳日:2022-11-25 12:42:40 公開日:2020-06-04 |
# solo: 孤独な状態を調べるためのツイートのコーパス SOLO: A Corpus of Tweets for Examining the State of Being Alone ( http://arxiv.org/abs/2006.03096v1 ) ライセンス: Link先を確認 | Svetlana Kiritchenko, Will E. Hipson, Robert J. Coplan, Saif M. Mohammad | (参考訳) 独りぼっちの状態は私たちの生活に大きな影響を与えうるが、時間と経験は個人によって大きく異なる。
心理学者は孤独の概念、自発的な孤独の肯定的な状態、孤独の概念、社会的相互作用の質に対する不満の否定的な状態とを区別する。
そこで,本研究では,大規模計算解析を初めて実施し,オンライン言語において単独の状態に関する用語がどのように使われているかを検討する。
我々は,400万以上のツイートを収集したコーパスであるsolo(独りでいる状態)を,「孤独」,「孤独」,「孤独」,「孤独」で提示する。
我々はSOLOを用いて、単独である状況に関連する言語と感情を分析する。
孤独」という言葉は、より肯定的で、高い支配の言葉(例えば、楽しむ、楽しむ)と共起する傾向にあり、一方「孤独」と「孤独」という言葉は、しばしば否定的で、低支配の単語(例えば、恐怖、抑うつ)と共起し、心理学における概念的な区別を裏付ける傾向がある。
また、女性は男性に比べて孤独であるという否定的な感情を報告しやすく、また「孤独」という言葉を使うツイート者よりも「孤独」という言葉を使うトゥイーターの方が多いことを示している。 The state of being alone can have a substantial impact on our lives, though experiences with time alone diverge significantly among individuals. Psychologists distinguish between the concept of solitude, a positive state of voluntary aloneness, and the concept of loneliness, a negative state of dissatisfaction with the quality of one's social interactions. Here, for the first time, we conduct a large-scale computational analysis to explore how the terms associated with the state of being alone are used in online language. We present SOLO (State of Being Alone), a corpus of over 4 million tweets collected with query terms 'solitude', 'lonely', and 'loneliness'. We use SOLO to analyze the language and emotions associated with the state of being alone. We show that the term 'solitude' tends to co-occur with more positive, high-dominance words (e.g., enjoy, bliss) while the terms 'lonely' and 'loneliness' frequently co-occur with negative, low-dominance words (e.g., scared, depressed), which confirms the conceptual distinctions made in psychology. We also show that women are more likely to report on negative feelings of being lonely as compared to men, and there are more teenagers among the tweeters that use the word 'lonely' than among the tweeters that use the word 'solitude'. | 翻訳日:2022-11-25 12:42:24 公開日:2020-06-04 |
# 審美的好奇心による知識ネットワークの成長と形態 The growth and form of knowledge networks by kinesthetic curiosity ( http://arxiv.org/abs/2006.02949v1 ) ライセンス: Link先を確認 | Dale Zhou, David M. Lydon-Staley, Perry Zurn, Danielle S. Bassett | (参考訳) 人生を通して、私たちは電話、仲間、スキル、エンターテイメント、真実、自己認識、美、そして啓蒙を求めます。
好奇心の実践は、相互接続された情報の複雑な空間における隠れたアイデンティティと位置を持つ貴重な情報の拡張的でオープンな検索と見なすことができる。
その重要性にもかかわらず、好奇心は、特定の目標、外部報酬、即時フィードバックなしで好奇心の実践が盛んになるため、計算的にモデル化することは困難である。
ここでは、ネットワーク科学、統計物理学、哲学が、特定の多様性と知覚的認識的好奇心の心理学的分類を統一し拡張するアプローチにどのように統合できるかを示す。
この学際的アプローチを用いて,情報空間における探索運動として探索する興味のある情報の機能的モードを蒸留する。
好奇心の審美的モデルは、モデルに基づく強化学習の熟考的予測と相容れない。
そうすることで、このモデルは好奇心を惹きつけるものを特定するための新しい計算機会を発掘する。 Throughout life, we might seek a calling, companions, skills, entertainment, truth, self-knowledge, beauty, and edification. The practice of curiosity can be viewed as an extended and open-ended search for valuable information with hidden identity and location in a complex space of interconnected information. Despite its importance, curiosity has been challenging to computationally model because the practice of curiosity often flourishes without specific goals, external reward, or immediate feedback. Here, we show how network science, statistical physics, and philosophy can be integrated into an approach that coheres with and expands the psychological taxonomies of specific-diversive and perceptual-epistemic curiosity. Using this interdisciplinary approach, we distill functional modes of curious information seeking as searching movements in information space. The kinesthetic model of curiosity offers a vibrant counterpart to the deliberative predictions of model-based reinforcement learning. In doing so, this model unearths new computational opportunities for identifying what makes curiosity curious. | 翻訳日:2022-11-25 12:41:57 公開日:2020-06-04 |
# 知識蒸留によるエンドツーエンド音声翻訳:FBK@IWSLT2020 End-to-End Speech-Translation with Knowledge Distillation: FBK@IWSLT2020 ( http://arxiv.org/abs/2006.02965v1 ) ライセンス: Link先を確認 | Marco Gaido, Mattia Antonino Di Gangi, Matteo Negri, Marco Turchi | (参考訳) 本稿では,FBKによるIWSLT 2020オフライン音声翻訳(ST)タスクへの参加について述べる。
このタスクは、英語のTEDトーク音声をドイツ語のテキストに翻訳するシステムの能力を評価する。
テストトークは2つのバージョンで提供される: 1つは、既に自動ツールで区切られたデータを含み、もう1つは、セグメンテーションなしで生のデータである。
参加者はカスタムセグメンテーションに取り組むかどうかを判断できる。
提供されたセグメンテーションを使用しました。
本システムは音声データに対するTransformerの適応に基づくエンドツーエンドモデルである。
本論文の焦点はトレーニングプロセスであり,その基礎は次のとおりである。
一 トランスファーラーニング(ASR予習及び知識蒸留)
二 データ強化(特定拡張、時間延長及び合成データ)
三 異なるドメインとしてマークされた合成及び実データを組み合わせること。
iv) CTC損失を用いたマルチタスク学習。
最後に,単語レベルの知識蒸留が完了した後,ラベルスムーズなクロスエントロピーを用いてSTモデルを微調整する。
これは最近の論文と比較して優れた結果であり、vadで区切られた同じデータでは23.7 bleuであり、この特定のデータ条件に対するソリューションの研究の必要性を示している。 This paper describes FBK's participation in the IWSLT 2020 offline speech translation (ST) task. The task evaluates systems' ability to translate English TED talks audio into German texts. The test talks are provided in two versions: one contains the data already segmented with automatic tools and the other is the raw data without any segmentation. Participants can decide whether to work on custom segmentation or not. We used the provided segmentation. Our system is an end-to-end model based on an adaptation of the Transformer for speech data. Its training process is the main focus of this paper and it is based on: i) transfer learning (ASR pretraining and knowledge distillation), ii) data augmentation (SpecAugment, time stretch and synthetic data), iii) combining synthetic and real data marked as different domains, and iv) multi-task learning using the CTC loss. Finally, after the training with word-level knowledge distillation is complete, our ST models are fine-tuned using label smoothed cross entropy. Our best model scored 29 BLEU on the MuST-C En-De test set, which is an excellent result compared to recent papers, and 23.7 BLEU on the same data segmented with VAD, showing the need for researching solutions addressing this specific data condition. | 翻訳日:2022-11-25 12:41:13 公開日:2020-06-04 |
# 感染症性角膜炎の画像分類における深部特徴学習 Deep Sequential Feature Learning in Clinical Image Classification of Infectious Keratitis ( http://arxiv.org/abs/2006.02666v1 ) ライセンス: Link先を確認 | Yesheng Xu, Ming Kong, Wenjia Xie, Runping Duan, Zhengqing Fang, Yuxiao Lin, Qiang Zhu, Siliang Tang, Fei Wu, Yu-Feng Yao | (参考訳) 感染性角膜炎は角膜疾患の最も一般的な疾患であり、角膜に病原体が増殖し、炎症や角膜組織の破壊を引き起こす。
感染性角膜炎(英語: Infectious keratitis)は、疾患の進行を抑え、角膜損傷の程度を制限するために、迅速かつ正確な治療を迅速かつ迅速に開始するために、迅速かつ正確な診断が必要である医療用緊急事態である。
本稿では,臨床画像の分類による感染性角膜疾患の鑑別と微妙さを効果的に識別するシーケンシャルレベルの深層学習モデルを提案する。
本研究では, 臨床像の空間的構造を保存し, 感染性角膜炎の画像分類のための情報的特徴を解消するための適切なメカニズムを考案する。
421人の眼科医と競合するように、提案されたシーケンシャルレベル深層モデルの性能は80.00%の診断精度を達成し、120以上の眼科医が達成した49.27%の診断精度よりもはるかに優れている。 Infectious keratitis is the most common entities of corneal diseases, in which pathogen grows in the cornea leading to inflammation and destruction of the corneal tissues. Infectious keratitis is a medical emergency, for which a rapid and accurate diagnosis is needed for speedy initiation of prompt and precise treatment to halt the disease progress and to limit the extent of corneal damage; otherwise it may develop sight-threatening and even eye-globe-threatening condition. In this paper, we propose a sequential-level deep learning model to effectively discriminate the distinction and subtlety of infectious corneal disease via the classification of clinical images. In this approach, we devise an appropriate mechanism to preserve the spatial structures of clinical images and disentangle the informative features for clinical image classification of infectious keratitis. In competition with 421 ophthalmologists, the performance of the proposed sequential-level deep model achieved 80.00% diagnostic accuracy, far better than the 49.27% diagnostic accuracy achieved by ophthalmologists over 120 test images. | 翻訳日:2022-11-25 12:39:53 公開日:2020-06-04 |
# 深層学習を用いた同時病変分割による病理近視分類 Pathological myopia classification with simultaneous lesion segmentation using deep learning ( http://arxiv.org/abs/2006.02813v1 ) ライセンス: Link先を確認 | Ruben Hemelings, Bart Elen, Matthew B. Blaschko, Julie Jacob, Ingeborg Stalmans, Patrick De Boever | (参考訳) 本研究は,最近導入したPathologicalal Myopia(PALM)データセットのために開発された畳み込みニューラルネットワークの結果について報告する。
我々は,新しい視神経頭(ONH)による萎縮と葉のセグメンテーションの予測法を提案する。
400のトレーニング画像で訓練されたモデルは、病的近視分類のauc 0.9867、foveaローカライズタスクのユークリッド距離58.27ピクセルを達成し、400画像のテストセットで評価した。
光ディスクでは0.9303, 0.9869, 網膜萎縮では0.8001, 0.9135, 網膜剥離では0.8073, 0.7059であった。
われわれの研究は、IEEE International Symposium on Biomedical Imaging (2019年4月)で開かれた「網膜画像からのPathologicalal Myopia検出」の文脈で認められた。
緑内障の分類システムにおいて(病理)近視症例が偽陽性,陰性と認識されることが多いことから,本研究は,fovea, optic disc,atrophyなどのランドマークの局在と分節化を補完する,緑内障眼と高視眼の両眼を識別する今後の研究に役立つと考えられる。 This investigation reports on the results of convolutional neural networks developed for the recently introduced PathologicAL Myopia (PALM) dataset, which consists of 1200 fundus images. We propose a new Optic Nerve Head (ONH)-based prediction enhancement for the segmentation of atrophy and fovea. Models trained with 400 available training images achieved an AUC of 0.9867 for pathological myopia classification, and a Euclidean distance of 58.27 pixels on the fovea localization task, evaluated on a test set of 400 images. Dice and F1 metrics for semantic segmentation of lesions scored 0.9303 and 0.9869 on optic disc, 0.8001 and 0.9135 on retinal atrophy, and 0.8073 and 0.7059 on retinal detachment, respectively. Our work was acknowledged with an award in the context of the "PathologicAL Myopia detection from retinal images" challenge held during the IEEE International Symposium on Biomedical Imaging (April 2019). Considering that (pathological) myopia cases are often identified as false positives and negatives in classification systems for glaucoma, we envision that the current work could aid in future research to discriminate between glaucomatous and highly-myopic eyes, complemented by the localization and segmentation of landmarks such as fovea, optic disc and atrophy. | 翻訳日:2022-11-25 12:39:30 公開日:2020-06-04 |
# 災害対応のための道路被害対応型ソーシャルメディア駆動車センシングフレームワークDASC DASC: Towards A Road Damage-Aware Social-Media-Driven Car Sensing Framework for Disaster Response Applications ( http://arxiv.org/abs/2006.02681v1 ) ライセンス: Link先を確認 | Md Tahmid Rashid and Daniel (Yue) Zhang and Dong Wang | (参考訳) vehicular sensor networks (vsns) は、自動車に内蔵されたセンサーを利用したモバイルセンシングパラダイムの長所を得たが、自動車のドライバーが新しいイベントを日和見的に発見するだけであるため、センシング範囲は限られている。
逆に、社会感覚は、人間から物理世界の測定を収集する新しいセンシングパラダイムとして現れつつある。
VSNとは対照的に、ソーシャルセンシングはより広く普及しているが、その重要な制限は、信頼できない人間のセンサーによるデータからの一貫性の欠如にある。
本稿では,社会センシングとvnsの協調力を活用し,災害対応の信頼性を高めるための道路被害対応型自動車センシングフレームワークdascを提案する。
しかし、VSNとソーシャルセンシングを統合することで、新しい課題がもたらされる。
一 騒音及び信頼性の低い社会信号を利用して、車両を正確な利害地域へ誘導する方法。
ii) 自動車運転手が合理的な行為であるために生じる一貫性のない可用性(例えばチャーン)に取り組むには、どうすればよいか?
三 災害による道路被害についての事前知識がなく、また、物理的世界及びソーシャルメディアのダイナミクスを扱いながら、効率よく自動車をイベント場所へ案内する方法。
dascフレームワークは、ゲーム理論、フィードバック制御、マルコフ決定プロセス(mdp)の技法を用いた新しいハイブリッドソーシャルカーセンシングシステムを確立することで、上記の課題に対処する。
特に、DASCは、ソーシャルメディアから発信された信号を蒸留し、道路の損傷を発見し、車両を目標エリアまで効果的に駆動し、緊急イベントを検証する。
我々は,実世界の災害対応シナリオをエミュレート可能な車両シミュレータでdascを実装し,評価する。
実世界の応用の結果,現在のvsnsベースのソリューションよりもdascの方が検出精度と効率が優れていることが示された。 While vehicular sensor networks (VSNs) have earned the stature of a mobile sensing paradigm utilizing sensors built into cars, they have limited sensing scopes since car drivers only opportunistically discover new events. Conversely, social sensing is emerging as a new sensing paradigm where measurements about the physical world are collected from humans. In contrast to VSNs, social sensing is more pervasive, but one of its key limitations lies in its inconsistent reliability stemming from the data contributed by unreliable human sensors. In this paper, we present DASC, a road Damage-Aware Social-media-driven Car sensing framework that exploits the collective power of social sensing and VSNs for reliable disaster response applications. However, integrating VSNs with social sensing introduces a new set of challenges: i) How to leverage noisy and unreliable social signals to route the vehicles to accurate regions of interest? ii) How to tackle the inconsistent availability (e.g., churns) caused by car drivers being rational actors? iii) How to efficiently guide the cars to the event locations with little prior knowledge of the road damage caused by the disaster, while also handling the dynamics of the physical world and social media? The DASC framework addresses the above challenges by establishing a novel hybrid social-car sensing system that employs techniques from game theory, feedback control, and Markov Decision Process (MDP). In particular, DASC distills signals emitted from social media and discovers the road damages to effectively drive cars to target areas for verifying emergency events. We implement and evaluate DASC in a reputed vehicle simulator that can emulate real-world disaster response scenarios. The results of a real-world application demonstrate the superiority of DASC over current VSNs-based solutions in detection accuracy and efficiency. | 翻訳日:2022-11-25 12:38:38 公開日:2020-06-04 |
# Adaptive Summationによる分散トレーニングのスケールアップ Scaling Distributed Training with Adaptive Summation ( http://arxiv.org/abs/2006.02924v1 ) ライセンス: Link先を確認 | Saeed Maleki, Madan Musuvathi, Todd Mytkowicz, Olli Saarikivi, Tianju Xu, Vadim Eksarevskiy, Jaliya Ekanayake, Emad Barsoum | (参考訳) 確率的勾配降下 (sgd) は本質的に逐次学習アルゴリズムであり、バッチ $i$ の勾配はバッチ $i-1$ から得られたモデルパラメータに依存する。
この依存を破る以前のアプローチは、それらに敬意を払わず(例えば、各バッチの勾配を和ること、これはシーケンシャルなSGDがやることではない)、結果として収束不良に悩まされる可能性がある。
本稿では,従来の作業よりも早く収束するAdasum(適応和)と呼ばれる勾配を組み合わせる新しい手法を提案する。
Adasumの実装は簡単で、グラデーションを要約するのと同じくらい効率的で、オープンソースのツールキットHorovodに統合されている。
本稿はまず, Adasum の形式的正当性について述べるとともに, Adasum が先行的な勾配累積法よりも精度が高いことを実証的に示す。
adasumが複数のフレームワーク(tensorflowとpytorch)で動作し、複数のオプティマイザ(momentum-sgd、adam、lamb)をより大きなバッチサイズにスケールすると同時に、下流の精度も向上している。
最後に、アダサムが収束することを証明する。
要約すると、adasumは、mlperf resnet50ベンチマークでmomentum-sgdを、通信前の64kの例(mlperf v0.5のエントリが16k以上で収束しない)、bert-largeでの通信前にadamオプティマイザを64kの例に、bert-largeでの通信前にlammオプティマイザを128kにスケールする。
最後に、ユーザがスケールする必要がなければ、bert-large に adasum を付けたラムがベースラインよりも30%少ないステップで収束することを示す。 Stochastic gradient descent (SGD) is an inherently sequential training algorithm--computing the gradient at batch $i$ depends on the model parameters learned from batch $i-1$. Prior approaches that break this dependence do not honor them (e.g., sum the gradients for each batch, which is not what sequential SGD would do) and thus potentially suffer from poor convergence. This paper introduces a novel method to combine gradients called Adasum (for adaptive sum) that converges faster than prior work. Adasum is easy to implement, almost as efficient as simply summing gradients, and is integrated into the open-source toolkit Horovod. This paper first provides a formal justification for Adasum and then empirically demonstrates Adasum is more accurate than prior gradient accumulation methods. It then introduces a series of case-studies to show Adasum works with multiple frameworks, (TensorFlow and PyTorch), scales multiple optimizers (Momentum-SGD, Adam, and LAMB) to larger batch-sizes while still giving good downstream accuracy. Finally, it proves that Adasum converges. To summarize, Adasum scales Momentum-SGD on the MLPerf Resnet50 benchmark to 64K examples before communication (no MLPerf v0.5 entry converged with more than 16K), the Adam optimizer to 64K examples before communication on BERT-LARGE (prior work showed Adam stopped scaling at 16K), and the LAMB optimizer to 128K before communication on BERT-LARGE (prior work used 64K), all while maintaining downstream accuracy metrics. Finally, if a user does not need to scale, we show LAMB with Adasum on BERT-LARGE converges in 30% fewer steps than the baseline. | 翻訳日:2022-11-25 12:37:48 公開日:2020-06-04 |
# 核分割のための境界支援地域提案ネットワーク Boundary-assisted Region Proposal Networks for Nucleus Segmentation ( http://arxiv.org/abs/2006.02695v1 ) ライセンス: Link先を確認 | Shengcong Chen, Changxing Ding, Dacheng Tao | (参考訳) 核セグメンテーションは医用画像解析において重要な課題である。
しかし、大量の混在する原子核が存在するため、機械学習モデルはうまく機能しない。
この問題に対処するため、既存のアプローチでは手作りの高度な後処理戦略を採用しているため、後処理のハイパーパラメータの変動に弱い。
そこで本稿では,堅牢なインスタンスレベル核分割を実現する境界支援領域提案ネットワーク(BRP-Net)を提案する。
まず,セマンティックセグメンテーションやインスタンス境界検出タスクのための高品質な特徴を効率的に抽出するタスク認識型特徴符号化(tafe)ネットワークを提案する。
これは2つのタスク間の相関と差を慎重に検討することで達成される。
次に、上記の2つのタスクの予測に基づいて粗核プロポーザルを生成する。
第三に、これらの提案はより正確な予測のためにインスタンスセグメンテーションネットワークに送られる。
実験結果から,BRP-Netの性能は後処理ハイパーパラメータの変動に頑健であることがわかった。
さらに、BRP-Netは、KumarとCPM17データセットの両方で最先端のパフォーマンスを達成する。
BRP-Netのコードはhttps://github.com/csccsccsccsc/brpnetで公開される。 Nucleus segmentation is an important task in medical image analysis. However, machine learning models cannot perform well because there are large amount of clusters of crowded nuclei. To handle this problem, existing approaches typically resort to sophisticated hand-crafted post-processing strategies; therefore, they are vulnerable to the variation of post-processing hyper-parameters. Accordingly, in this paper, we devise a Boundary-assisted Region Proposal Network (BRP-Net) that achieves robust instance-level nucleus segmentation. First, we propose a novel Task-aware Feature Encoding (TAFE) network that efficiently extracts respective high-quality features for semantic segmentation and instance boundary detection tasks. This is achieved by carefully considering the correlation and differences between the two tasks. Second, coarse nucleus proposals are generated based on the predictions of the above two tasks. Third, these proposals are fed into instance segmentation networks for more accurate prediction. Experimental results demonstrate that the performance of BRP-Net is robust to the variation of post-processing hyper-parameters. Furthermore, BRP-Net achieves state-of-the-art performances on both the Kumar and CPM17 datasets. The code of BRP-Net will be released at https://github.com/csccsccsccsc/brpnet. | 翻訳日:2022-11-25 10:10:57 公開日:2020-06-04 |
# lrnnet:リアルタイム意味セマンティクスセグメンテーションのための効率のよい非局所操作を備えた軽量ネットワーク LRNNet: A Light-Weighted Network with Efficient Reduced Non-Local Operation for Real-Time Semantic Segmentation ( http://arxiv.org/abs/2006.02706v1 ) ライセンス: Link先を確認 | Weihao Jiang and Zhaozhi Xie and Yaoyi Li and Chang Liu and Hongtao Lu | (参考訳) 近年の軽量ニューラルネットワーク開発により、リソース制約下でのディープラーニングやモバイルアプリケーションの利用が促進されている。
これらのアプリケーションの多くは、軽量ネットワークによるセマンティックセグメンテーションのリアルタイムかつ効率的な予測を行う必要がある。
本稿では,高効率かつリアルタイムなセマンティックセグメンテーションを実現するために,LRNNetを用いた軽量ネットワークを提案する。
resnetスタイルのエンコーダにおいて,より軽量で効率的かつ強力な特徴抽出を実現するために,因子化畳み込みブロックを提案する。
一方,提案する還元型非局所モジュールは,空間的局所支配特異ベクトルを用いて,計算量とメモリコストを大幅に削減し,より代表的な非局所機能統合を実現する。
実験では、軽量、スピード、計算、精度のトレードオフが優れています。
追加の処理と事前トレーニングなしで、lrnnet は 72.2% の miou を cityscapes test dataset で達成し、わずか 0.68m のパラメータと 71 fps の gtx 1080ti カードでトレーニングを行う。 The recent development of light-weighted neural networks has promoted the applications of deep learning under resource constraints and mobile applications. Many of these applications need to perform a real-time and efficient prediction for semantic segmentation with a light-weighted network. This paper introduces a light-weighted network with an efficient reduced non-local module (LRNNet) for efficient and realtime semantic segmentation. We proposed a factorized convolutional block in ResNet-Style encoder to achieve more lightweighted, efficient and powerful feature extraction. Meanwhile, our proposed reduced non-local module utilizes spatial regional dominant singular vectors to achieve reduced and more representative non-local feature integration with much lower computation and memory cost. Experiments demonstrate our superior trade-off among light-weight, speed, computation and accuracy. Without additional processing and pretraining, LRNNet achieves 72.2% mIoU on Cityscapes test dataset only using the fine annotation data for training with only 0.68M parameters and with 71 FPS on a GTX 1080Ti card. | 翻訳日:2022-11-25 10:10:39 公開日:2020-06-04 |
# GANに基づく顔の魅力向上 GAN-Based Facial Attractiveness Enhancement ( http://arxiv.org/abs/2006.02766v1 ) ライセンス: Link先を確認 | Yuhongze Zhou, Qinjie Xiao | (参考訳) 本稿では、顔のアイデンティティと忠実性を維持しつつ、顔の魅力を高めるために、gan(generative adversarial network)に基づく生成フレームワークを提案する。
入力としてポートレート画像が与えられると、この生成フレームワークが入力画像に似た画像の合成に使用できる潜伏ベクトルを復元するために勾配降下を適用し、InterFaceGANに基づく対応する回復潜伏ベクトルの美的セマンティック編集により、顔画像の美化を実現することができる。
本稿では,Beholder-GANと提案したBeholder-GANとの比較を行った。
その結果、我々のフレームワークは最先端の魅力を高める結果を得た。
コードはhttps://github.com/zoezhou1999/beautifybasedonganで入手できる。 We propose a generative framework based on generative adversarial network (GAN) to enhance facial attractiveness while preserving facial identity and high-fidelity. Given a portrait image as input, having applied gradient descent to recover a latent vector that this generative framework can use to synthesize an image resemble to the input image, beauty semantic editing manipulation on the corresponding recovered latent vector based on InterFaceGAN enables this framework to achieve facial image beautification. This paper compared our system with Beholder-GAN and our proposed result-enhanced version of Beholder-GAN. It turns out that our framework obtained state-of-art attractiveness enhancement results. The code is available at https://github.com/zoezhou1999/BeautifyBasedOnGAN. | 翻訳日:2022-11-25 10:09:07 公開日:2020-06-04 |
# deep ordinal regression network を用いた単眼画像からの身長推定 Height estimation from single aerial images using a deep ordinal regression network ( http://arxiv.org/abs/2006.02801v1 ) ライセンス: Link先を確認 | Xiang Li, Mingyang Wang, Yi Fang | (参考訳) 地球表面の3d幾何学的構造を理解することは、写真測量とリモートセンシングのコミュニティで何十年も前から活発な研究テーマであり、3dデジタル都市モデリング、変化検出、都市管理といった様々な応用において必須の構成要素となっている。
これまでの研究では、ステレオ画像やマルチビュー画像マッチングに基づく空中画像からの高さ推定の問題が広く研究されてきた。
これらの方法は3D座標をカメラ情報で再構成するために異なる視点から2つ以上の画像を必要とする。
本稿では,1つの空中画像から高度推定を行う不明瞭で未解決な問題に対処する。
ディープラーニング、特に深層畳み込みニューラルネットワーク(CNN)の大成功によって、大規模な注釈付きデータセットで深部CNNモデルをトレーニングすることにより、単一の空中画像から高さ情報を推定する研究が提案されている。
これらの手法は、高さ推定を回帰問題として扱い、エンコーダ・デコーダネットワークを直接使用して高さ値を回帰する。
本稿では,ネットワークトレーニングにおける順序損失を用いて,高さ値を間隔増加区間に分割し,回帰問題を順序回帰問題に変換する手法を提案する。
マルチスケールな特徴抽出を実現するため,複数の拡張畳み込み層から特徴を抽出するために,Atrous Space Pyramid Pooling (ASPP)モジュールを組み込んだ。
その後、各パッチの予測された高さマップをシームレスな高さマップに変換するポストプロセッシング手法が考案される。
最後に,ISPRS Vaihingen と Potsdam のデータセットについて広範な実験を行った。
実験の結果,最先端手法と比較して,提案手法の性能は有意に向上した。 Understanding the 3D geometric structure of the Earth's surface has been an active research topic in photogrammetry and remote sensing community for decades, serving as an essential building block for various applications such as 3D digital city modeling, change detection, and city management. Previous researches have extensively studied the problem of height estimation from aerial images based on stereo or multi-view image matching. These methods require two or more images from different perspectives to reconstruct 3D coordinates with camera information provided. In this paper, we deal with the ambiguous and unsolved problem of height estimation from a single aerial image. Driven by the great success of deep learning, especially deep convolution neural networks (CNNs), some researches have proposed to estimate height information from a single aerial image by training a deep CNN model with large-scale annotated datasets. These methods treat height estimation as a regression problem and directly use an encoder-decoder network to regress the height values. In this paper, we proposed to divide height values into spacing-increasing intervals and transform the regression problem into an ordinal regression problem, using an ordinal loss for network training. To enable multi-scale feature extraction, we further incorporate an Atrous Spatial Pyramid Pooling (ASPP) module to extract features from multiple dilated convolution layers. After that, a post-processing technique is designed to transform the predicted height map of each patch into a seamless height map. Finally, we conduct extensive experiments on ISPRS Vaihingen and Potsdam datasets. Experimental results demonstrate significantly better performance of our method compared to the state-of-the-art methods. | 翻訳日:2022-11-25 10:08:54 公開日:2020-06-04 |
# 幼児の視点からの初期単語学習の計算モデル A Computational Model of Early Word Learning from the Infant's Point of View ( http://arxiv.org/abs/2006.02802v1 ) ライセンス: Link先を確認 | Satoshi Tsutsui, Arjun Chandrasekaran, Md Alimoor Reza, David Crandall, Chen Yu | (参考訳) 人間の幼児は、本質的に曖昧な経験から、オブジェクト名と視覚的オブジェクトの関係を学習する驚くべき能力を持っている。
認知科学と発達心理学の研究者は、原則内学習アルゴリズムを実装する形式モデルを構築し、その後、事前選択されたデータセットと事前クリーニングデータセットを使用して、入力データから統計的正規性を見つけるモデルの能力をテストする。
従来のモデリング手法とは対照的に,本研究では,親との遊戯中に幼児学習者から収集した自我中心のビデオと視線データを用いた。
これにより,学習者自身の視点から学習環境を捉えることができた。
次に、畳み込みニューラルネットワーク(CNN)モデルを用いて、幼児の視点から感覚データを処理し、スクラッチから名前オブジェクト関連を学習した。
本研究は,幼児の単語学習をシミュレートするために生のエゴセントリックビデオを利用する最初のモデルとして,幼児の学習者が知覚する実際の視覚データを用いて,早期の単語学習の問題を解決できることを示す。
さらに,幼児の知覚経験の視覚的,知覚的,注意的特性が単語学習に与える影響を体系的に評価するシミュレーション実験を行った。 Human infants have the remarkable ability to learn the associations between object names and visual objects from inherently ambiguous experiences. Researchers in cognitive science and developmental psychology have built formal models that implement in-principle learning algorithms, and then used pre-selected and pre-cleaned datasets to test the abilities of the models to find statistical regularities in the input data. In contrast to previous modeling approaches, the present study used egocentric video and gaze data collected from infant learners during natural toy play with their parents. This allowed us to capture the learning environment from the perspective of the learner's own point of view. We then used a Convolutional Neural Network (CNN) model to process sensory data from the infant's point of view and learn name-object associations from scratch. As the first model that takes raw egocentric video to simulate infant word learning, the present study provides a proof of principle that the problem of early word learning can be solved, using actual visual data perceived by infant learners. Moreover, we conducted simulation experiments to systematically determine how visual, perceptual, and attentional properties of infants' sensory experiences may affect word learning. | 翻訳日:2022-11-25 10:08:26 公開日:2020-06-04 |
# 文法的誤り訂正のパーソナライズ:習熟度とL1への適応 Personalizing Grammatical Error Correction: Adaptation to Proficiency Level and L1 ( http://arxiv.org/abs/2006.02964v1 ) ライセンス: Link先を確認 | Maria Nadejde and Joel Tetreault | (参考訳) 文法エラー訂正(GEC)システムは、様々なソフトウェアアプリケーションで広く普及し、いくつかのデータセットに対して人間レベルのパフォーマンスにアプローチし始めた。
しかし、これらのシステムを、習熟度や第一言語、新しいテキスト領域など、ユーザの特性に効率よくパーソナライズする方法については、ほとんど分かっていない。
本稿では,数千文の注釈文を用いて,汎用神経gecシステムを文の習熟度レベルと第1言語の両方に適応させる最初の結果を示す。
本研究は,5つの習熟レベルと12の異なる言語を網羅し,習熟レベルのみへの適応,第一言語のみへの適応,両言語同時適応という3つの異なる適応シナリオを比較した。
両シナリオの調整により,強いベースラインに対して最大の性能向上(3.6F0.5)が得られることを示す。 Grammar error correction (GEC) systems have become ubiquitous in a variety of software applications, and have started to approach human-level performance for some datasets. However, very little is known about how to efficiently personalize these systems to the user's characteristics, such as their proficiency level and first language, or to emerging domains of text. We present the first results on adapting a general-purpose neural GEC system to both the proficiency level and the first language of a writer, using only a few thousand annotated sentences. Our study is the broadest of its kind, covering five proficiency levels and twelve different languages, and comparing three different adaptation scenarios: adapting to the proficiency level only, to the first language only, or to both aspects simultaneously. We show that tailoring to both scenarios achieves the largest performance improvement (3.6 F0.5) relative to a strong baseline. | 翻訳日:2022-11-25 10:01:38 公開日:2020-06-04 |
# 確率的モデルを好む言語学者:関数型分布意味論の定量化 Linguists Who Use Probabilistic Models Love Them: Quantification in Functional Distributional Semantics ( http://arxiv.org/abs/2006.03002v1 ) ライセンス: Link先を確認 | Guy Emerson | (参考訳) 関数分布セマンティクスは、コーパスから真理条件セマンティクスを学ぶための計算可能なフレームワークを提供する。
このフレームワークの以前の仕事は、一階述語論理の確率的バージョンを提供し、ベイズ推論として量子化を再キャストした。
本稿では,前回の定式化が,曖昧な述語で正確な量化器を用いた場合の自明な真理値を与える方法を示す。
そこで本稿では,不明瞭な述語を正確な述語上の分布として扱うことにより,この問題を回避した。
この説明を、一般的な定量化をモデル化するRational Speech Actsフレームワークの最近の研究と結びつけ、ロバ文のモデル化に拡張します。
最後に, 一般量化器は実用的複雑かつ計算上, 正確な量化器よりもシンプルであることを示す。 Functional Distributional Semantics provides a computationally tractable framework for learning truth-conditional semantics from a corpus. Previous work in this framework has provided a probabilistic version of first-order logic, recasting quantification as Bayesian inference. In this paper, I show how the previous formulation gives trivial truth values when a precise quantifier is used with vague predicates. I propose an improved account, avoiding this problem by treating a vague predicate as a distribution over precise predicates. I connect this account to recent work in the Rational Speech Acts framework on modelling generic quantification, and I extend this to modelling donkey sentences. Finally, I explain how the generic quantifier can be both pragmatically complex and yet computationally simpler than precise quantifiers. | 翻訳日:2022-11-25 10:01:23 公開日:2020-06-04 |
# 例による構文検索 Syntactic Search by Example ( http://arxiv.org/abs/2006.03010v1 ) ライセンス: Link先を確認 | Micah Shlain, Hillel Taub-Tabib, Shoval Sadde, Yoav Goldberg | (参考訳) 本稿では,ユーザが依存グラフ上の構文パターンを用いて,大きな言語的注釈付きコーパスを検索できるシステムを提案する。
この効果に対する以前の試みとは対照的に、ユーザが構文表現の詳細を知る必要がなく、代わりに単純なマークアップと結合したサンプル文を提供することでコーパスをクエリする軽量なクエリ言語を導入する。
効率的な言語グラフインデクシングと検索エンジンにより,対話的な速度で検索を行う。
これにより、構文ベースのクエリの迅速な探索、開発、改善が可能になる。
本稿では,2つのコーパス(ウィキペディア,英文パブ付き要約)を問うクエリを用いたシステムについて紹介する。
wikipediaシステムのデモは、https://allenai.github.io/spikeで見ることができる。 We present a system that allows a user to search a large linguistically annotated corpus using syntactic patterns over dependency graphs. In contrast to previous attempts to this effect, we introduce a light-weight query language that does not require the user to know the details of the underlying syntactic representations, and instead to query the corpus by providing an example sentence coupled with simple markup. Search is performed at an interactive speed due to an efficient linguistic graph-indexing and retrieval engine. This allows for rapid exploration, development and refinement of syntax-based queries. We demonstrate the system using queries over two corpora: the English wikipedia, and a collection of English pubmed abstracts. A demo of the wikipedia system is available at: https://allenai.github.io/spike | 翻訳日:2022-11-25 10:01:07 公開日:2020-06-04 |
# NewB:政治バイアス検出のための20万以上の文 NewB: 200,000+ Sentences for Political Bias Detection ( http://arxiv.org/abs/2006.03051v1 ) ライセンス: Link先を確認 | Jerry Wei | (参考訳) 我々は、ドナルド・トランプに関する11のニュースソースから20万文以上のテキストコーパスであるNewspaper Bias Dataset(NewB)を提示する。
以前のデータセットでは、文をリベラルか保守的かのどちらかに分類しているが、newbは11の人気のあるメディアソースの政治的見解をカバーし、従来のバイナリ分類システムよりも微妙な政治的視点を捉えている。
我々は、11の新聞から与えられた文のニュースソースを予測するために、2つの最先端のディープラーニングモデルをトレーニングし、反復ニューラルネットワークが33.3%、61.4%、77.6%のトップ1、トップ3、トップ5のアキュラシーを達成し、それぞれ18.3%、42.6%、60.8%のベースラインロジスティック回帰モデルのアキュラシーを著しく上回ります。
論文のニュースソースラベルを用いて、私たちのモデルで上位n-gramを分析し、メディアソースによるトランプの描写に関する有意義な洞察を得る。我々のデータセットの公開は、自然言語処理を使用してより複雑な政治的バイアスを分析するためのさらなる研究を促進することを願っている。
私たちのデータセットはhttps://github.com/JerryWei03/NewB.orgにポストされます。 We present the Newspaper Bias Dataset (NewB), a text corpus of more than 200,000 sentences from eleven news sources regarding Donald Trump. While previous datasets have labeled sentences as either liberal or conservative, NewB covers the political views of eleven popular media sources, capturing more nuanced political viewpoints than a traditional binary classification system does. We train two state-of-the-art deep learning models to predict the news source of a given sentence from eleven newspapers and find that a recurrent neural network achieved top-1, top-3, and top-5 accuracies of 33.3%, 61.4%, and 77.6%, respectively, significantly outperforming a baseline logistic regression model's accuracies of 18.3%, 42.6%, and 60.8%. Using the news source label of sentences, we analyze the top n-grams with our model to gain meaningful insight into the portrayal of Trump by media sources.We hope that the public release of our dataset will encourage further research in using natural language processing to analyze more complex political biases. Our dataset is posted at https://github.com/JerryWei03/NewB . | 翻訳日:2022-11-25 10:00:52 公開日:2020-06-04 |
# 単純な教師なしマルチオブジェクトトラッキング Simple Unsupervised Multi-Object Tracking ( http://arxiv.org/abs/2006.02609v1 ) ライセンス: Link先を確認 | Shyamgopal Karthik, Ameya Prabhu, Vineet Gandhi | (参考訳) マルチオブジェクト追跡は最近、より良いラベル付きデータセットを開発するためのかなりのアノテーションコストにもかかわらず、多くの進歩を遂げている。
本研究では,教師なし再識別ネットワークを提案することで,アノテートされたデータセットの必要性をなくし,トレーニングに必要なラベリングコストを完全に削減する。
提案手法(simplereid)では,まずソートを用いた追跡ラベルを生成し,reidネットワークを訓練し,クロスエントロピー損失を用いて生成ラベルを予測する。
我々はSimpleReIDがより単純な代替手段よりもはるかに優れた性能を示し、さまざまなトラッキングフレームワークで一貫した教師付きパフォーマンスを回復する。
監視されていないReIDは、閉塞を伴う混雑したシナリオでは優れておらず、劇的な視点の変化が期待できるため、この観測は珍しい。
教師なしのSimpleReIDを、強化された静止画像に基づいてトレーニングされたCenterTrackに組み込むことで、トラッキングの監督を使わずにMOT16/17のような一般的なデータセット上で、最先端のパフォーマンスを確立します。
さらに,研究環境における非教師なし ReID 以外の IDF1 スコアの改善範囲が限定された証拠も提示する。
我々の調査は、より洗練された教師なしのエンド・ツー・エンドトラッカーへの再考を示唆している。 Multi-object tracking has seen a lot of progress recently, albeit with substantial annotation costs for developing better and larger labeled datasets. In this work, we remove the need for annotated datasets by proposing an unsupervised re-identification network, thus sidestepping the labeling costs entirely, required for training. Given unlabeled videos, our proposed method (SimpleReID) first generates tracking labels using SORT and trains a ReID network to predict the generated labels using crossentropy loss. We demonstrate that SimpleReID performs substantially better than simpler alternatives, and we recover the full performance of its supervised counterpart consistently across diverse tracking frameworks. The observations are unusual because unsupervised ReID is not expected to excel in crowded scenarios with occlusions, and drastic viewpoint changes. By incorporating our unsupervised SimpleReID with CenterTrack trained on augmented still images, we establish a new state-of-the-art performance on popular datasets like MOT16/17 without using tracking supervision, beating current best (CenterTrack) by 0.2-0.3 MOTA and 4.4-4.8 IDF1 scores. We further provide evidence for limited scope for improvement in IDF1 scores beyond our unsupervised ReID in the studied settings. Our investigation suggests reconsideration towards more sophisticated, supervised, end-to-end trackers by showing promise in simpler unsupervised alternatives. | 翻訳日:2022-11-25 10:00:07 公開日:2020-06-04 |
# 制限データ環境における心臓音の半教師的・非教師的分類法 Semi-supervised and Unsupervised Methods for Heart Sounds Classification in Restricted Data Environments ( http://arxiv.org/abs/2006.02610v1 ) ライセンス: Link先を確認 | Balagopal Unnikrishnan, Pranshu Ranjan Singh, Xulei Yang, and Matthew Chin Heng Chua | (参考訳) 自動心臓音分類は、世界中で心臓関連疾患の発生が増加するという観点から、非常に必要な診断ツールである。
本研究では,PhysioNet/CinC 2016 Challengeデータセット上で,様々な教師付き,半教師付き,教師なしのアプローチを用いて,心臓音の分類に関する総合的研究を行う。
ディープラーニングや機械学習といった教師ありのアプローチでは、モデルのトレーニングには大量のラベル付きデータを必要とする。
臨床実践におけるラベル付けの負担を軽減する必要があるため、制限されたデータ設定において、ヒトのラベル付けは高価で時間を要する。
そこで,GANをベースとした半教師付き手法を提案する。
限られたデータサンプルが存在する場合、教師付きベースラインよりもAUROCの方がパフォーマンスがよい。
さらに,与えられた問題を異常検出シナリオとして考慮し,教師なし手法を代替手法として検討した。
特に、1D CNN Autoencoderと1クラスSVMを併用した教師なし特徴抽出は、データラベルなしで優れた性能が得られる。
提案された半教師なしおよび教師なしのメソッドのポテンシャルは、将来、高品質なデータセットを作成するためのワークフローツールにつながるかもしれない。 Automated heart sounds classification is a much-required diagnostic tool in the view of increasing incidences of heart related diseases worldwide. In this study, we conduct a comprehensive study of heart sounds classification by using various supervised, semi-supervised and unsupervised approaches on the PhysioNet/CinC 2016 Challenge dataset. Supervised approaches, including deep learning and machine learning methods, require large amounts of labelled data to train the models, which are challenging to obtain in most practical scenarios. In view of the need to reduce the labelling burden for clinical practices, where human labelling is both expensive and time-consuming, semi-supervised or even unsupervised approaches in restricted data setting are desirable. A GAN based semi-supervised method is therefore proposed, which allows the usage of unlabelled data samples to boost the learning of data distribution. It achieves a better performance in terms of AUROC over the supervised baseline when limited data samples exist. Furthermore, several unsupervised methods are explored as an alternative approach by considering the given problem as an anomaly detection scenario. In particular, the unsupervised feature extraction using 1D CNN Autoencoder coupled with one-class SVM obtains good performance without any data labelling. The potential of the proposed semi-supervised and unsupervised methods may lead to a workflow tool in the future for the creation of higher quality datasets. | 翻訳日:2022-11-25 09:59:40 公開日:2020-06-04 |
# コンテクストサイクル一貫性による画像補完と外挿 Image Completion and Extrapolation with Contextual Cycle Consistency ( http://arxiv.org/abs/2006.02620v1 ) ライセンス: Link先を確認 | Sai Hemanth Kasaraneni, Abhishek Mishra | (参考訳) Image Completionは、画像の欠落した領域を埋めるタスクであり、Image Extrapolationは、その境界で画像を一貫性を維持しながら拡張するタスクである。
GANに基づく最近の多くの研究は、これらの問題ステートメントに対処する進歩を示しているが、これら2つのケースには適応性がない。
本稿では,相互に利益を得ながら,補完ネットワークと外挿ネットワークを同時に訓練する手法を提案する。
そこで本研究では, 大規模欠落地域を補完する手法の有効性を実証し, アートベースラインの現代的状態と比較する。 Image Completion refers to the task of filling in the missing regions of an image and Image Extrapolation refers to the task of extending an image at its boundaries while keeping it coherent. Many recent works based on GAN have shown progress in addressing these problem statements but lack adaptability for these two cases, i.e. the neural network trained for the completion of interior masked images does not generalize well for extrapolating over the boundaries and vice-versa. In this paper, we present a technique to train both completion and extrapolation networks concurrently while benefiting each other. We demonstrate our method's efficiency in completing large missing regions and we show the comparisons with the contemporary state of the art baseline. | 翻訳日:2022-11-25 09:59:20 公開日:2020-06-04 |
# 差分プライバシーを伴うメディアレグレッション Median regression with differential privacy ( http://arxiv.org/abs/2006.02983v1 ) ライセンス: Link先を確認 | E Chen, Ying Miao and Yu Tang | (参考訳) メディアレグレッション分析は、平均に基づくレグレッションと比較して魅力的なロバスト性特性を持つ一方、差分プライバシーは特定のデータセットの統計分析中に個人のプライバシを保護することができる。
本稿では,中央回帰のための3つのプライバシー保護手法を提案する。
第1のアルゴリズムは有限な滑らか化法に基づいており、第2のアルゴリズムは反復的な方法を提供し、最後のアルゴリズムはさらにグリーディ座標降下法を用いる。
これら3つの方法のプライバシー保護特性はすべて証明されている。
これらのアルゴリズムの精度バウンドまたは収束特性も提供される。
数値計算により,試料サイズが小さい場合,第1の手法は他の方法よりも精度が良いことがわかった。
サンプルサイズが大きくなると、第1のメソッドはより多くの時間を必要とするが、第2のメソッドは精度が良く一致した時間が少なくなる。
第3の方法は、どちらのケースでもコストが削減されるが、ステップサイズに大きく依存する。 Median regression analysis has robustness properties which make it attractive compared with regression based on the mean, while differential privacy can protect individual privacy during statistical analysis of certain datasets. In this paper, three privacy preserving methods are proposed for median regression. The first algorithm is based on a finite smoothing method, the second provides an iterative way and the last one further employs the greedy coordinate descent approach. Privacy preserving properties of these three methods are all proved. Accuracy bound or convergence properties of these algorithms are also provided. Numerical calculation shows that the first method has better accuracy than the others when the sample size is small. When the sample size becomes larger, the first method needs more time while the second method needs less time with well-matched accuracy. For the third method, it costs less time in both cases, while it highly depends on step size. | 翻訳日:2022-11-25 09:52:23 公開日:2020-06-04 |
# 非周期性を含まないDAGの学習 Learning DAGs without imposing acyclicity ( http://arxiv.org/abs/2006.03005v1 ) ライセンス: Link先を確認 | Gherardo Varando | (参考訳) 我々は,非循環制約を明示的に課すことなく,データから有向非循環グラフ(dag)を学習できるかどうかを検討する。
特にガウス分布の場合、構造学習はスパース行列分解問題であり、$\ell_1$-penalized 最適化の解法が真のグラフの良好な回復と概DAGグラフの回復をもたらすことを実証的に示す。
さらに、このアプローチは計算効率が高く、古典的構造学習アルゴリズムのように組合せ複雑性の爆発に影響されない。 We explore if it is possible to learn a directed acyclic graph (DAG) from data without imposing explicitly the acyclicity constraint. In particular, for Gaussian distributions, we frame structural learning as a sparse matrix factorization problem and we empirically show that solving an $\ell_1$-penalized optimization yields to good recovery of the true graph and, in general, to almost-DAG graphs. Moreover, this approach is computationally efficient and is not affected by the explosion of combinatorial complexity as in classical structural learning algorithms. | 翻訳日:2022-11-25 09:52:08 公開日:2020-06-04 |
# ディープラーニングにおけるモデル並列性に対する線形代数的アプローチ A Linear Algebraic Approach to Model Parallelism in Deep Learning ( http://arxiv.org/abs/2006.03108v1 ) ライセンス: Link先を確認 | Russell J. Hewett and Thomas J. Grady II | (参考訳) ネットワークのサイズと複雑さが大きくなるにつれて、大規模クラスタコンピューティング環境でのディープニューラルネットワーク(DNN)のトレーニングがますます必要になる。
ローカルメモリと処理の制限は、計算ノードの境界を越えるために堅牢なデータとモデル並列性を必要とする。
深層学習における並列性をモデル化するための線形代数的手法を提案し,DNNにおけるテンソルの並列分布を実現する。
分散メモリ並列化モデルを普遍的にサポートしない自動微分ツールに頼るのではなく,放送,要約,ハロー交換といった並列データ移動操作が線形演算子であることを示し,関連する空間と内部積を定義することにより,DNNの勾配に基づく訓練に必要な随伴演算子を手作業で開発する。
本研究では,これらの並列プリミティブを用いて分散DNN層を構築し,PyTorchおよびMPIベースの分散ディープラーニングツールキットであるDistDLを用いて分散DNNを構築し,訓練することにより,それらのアプリケーションを実演する。 Training deep neural networks (DNNs) in large-cluster computing environments is increasingly necessary, as networks grow in size and complexity. Local memory and processing limitations require robust data and model parallelism for crossing compute node boundaries. We propose a linear-algebraic approach to model parallelism in deep learning, which allows parallel distribution of any tensor in the DNN. Rather than rely on automatic differentiation tools, which do not universally support distributed memory parallelism models, we show that parallel data movement operations, e.g., broadcast, sum-reduce, and halo exchange, are linear operators, and by defining the relevant spaces and inner products, we manually develop the adjoint, or backward, operators required for gradient-based training of DNNs. We build distributed DNN layers using these parallel primitives, composed with sequential layer implementations, and demonstrate their application by building and training a distributed DNN using DistDL, a PyTorch and MPI-based distributed deep learning toolkit. | 翻訳日:2022-11-25 09:51:57 公開日:2020-06-04 |
# 機械学習を用いた血液検査による新型コロナウイルスの診断 COVID-19 diagnosis by routine blood tests using machine learning ( http://arxiv.org/abs/2006.03476v1 ) ライセンス: Link先を確認 | Matja\v{z} Kukar, Gregor Gun\v{c}ar, Toma\v{z} Vovko, Simon Podnar, Peter \v{C}ernel\v{c}, Miran Brvar, Mateja Zalaznik, Mateja Notar, Sa\v{s}o Mo\v{s}kon, Marko Notar | (参考訳) 新型コロナウイルス(covid-19)の患者を診察する医師は、日常的な血液パラメータの異なる変化を報告している。
しかし、これらの変化は新型コロナウイルスの診断を妨げている。
新型コロナウイルスの診断のための機械学習予測モデルを構築した。
このモデルは、さまざまな細菌およびウイルス感染症患者5,333人、および160人のcovid-19陽性患者の定期的な血液検査に基づいて比較評価された。
術中ROC点の感度は81.9%,特異性は97.9%であった。
曲線下 (AUC) は0.97。
XGBoostアルゴリズムの特徴的評価値に基づくCOVID19診断に最も有用な血液パラメータは,MCHC,好酸球数,アルブミン,INR,プロトロンビン活性率であった。
tSNEの可視化により、重症のCOVID-19コースの血液パラメータは、ウイルス感染よりも細菌のパラメータに近いことがわかった。
診断精度は少なくともRT-PCRおよび胸部CT検査と同等である。
発熱, せき, 筋痛, その他の症状のある患者は, 診断ツールによって初期定期的な血液検査を受けることができる。
陽性のCOVID-19予測を持つすべての患者は、診断を確認するために標準RT-PCR研究を行う。
今回の結果は,新型コロナウイルスの診断の改善に大きく貢献すると考えられる。 Physicians taking care of patients with coronavirus disease (COVID-19) have described different changes in routine blood parameters. However, these changes, hinder them from performing COVID-19 diagnosis. We constructed a machine learning predictive model for COVID-19 diagnosis. The model was based and cross-validated on the routine blood tests of 5,333 patients with various bacterial and viral infections, and 160 COVID-19-positive patients. We selected operational ROC point at a sensitivity of 81.9% and specificity of 97.9%. The cross-validated area under the curve (AUC) was 0.97. The five most useful routine blood parameters for COVID19 diagnosis according to the feature importance scoring of the XGBoost algorithm were MCHC, eosinophil count, albumin, INR, and prothrombin activity percentage. tSNE visualization showed that the blood parameters of the patients with severe COVID-19 course are more like the parameters of bacterial than viral infection. The reported diagnostic accuracy is at least comparable and probably complementary to RT-PCR and chest CT studies. Patients with fever, cough, myalgia, and other symptoms can now have initial routine blood tests assessed by our diagnostic tool. All patients with a positive COVID-19 prediction would then undergo standard RT-PCR studies to confirm the diagnosis. We believe that our results present a significant contribution to improvements in COVID-19 diagnosis. | 翻訳日:2022-11-25 09:51:21 公開日:2020-06-04 |
# 姿勢制御非線形モデルシステムのための深層学習と雑音同定 Deep Learning for Posture Control Nonlinear Model System and Noise Identification ( http://arxiv.org/abs/2006.04515v1 ) ライセンス: Link先を確認 | Vittorio Lippi, Thomas Mergner, Christoph Maurer | (参考訳) 本研究では,人間の姿勢制御モデルのための畳み込みニューラルネットワーク(CNN)に基づくシステム識別手法を提案する。
人間の姿勢制御の研究における一般的なアプローチは、制御系のパラメータの同定である。
この文脈では、線形モデルは、必要なパラメータの識別と結果の解析が比較的単純であるため、特に人気がある。
逆に, 非線形モデルは, 被験者の実際の行動を予測するために必要であり, 姿勢制御解析に活用することが望ましい。
cnnの使用は, 実験データの解析に要する時間を減らし, 臨床検査の文脈でその解析を可能とするために, 非線形モデルの同定に対する重い計算要求を克服することを目的としている。
ヒューマノイドロボットの手法の潜在的意義についても考察する。 In this work we present a system identification procedure based on Convolutional Neural Networks (CNN) for human posture control models. A usual approach to the study of human posture control consists in the identification of parameters for a control system. In this context, linear models are particularly popular due to the relative simplicity in identifying the required parameters and to analyze the results. Nonlinear models, conversely, are required to predict the real behavior exhibited by human subjects and hence it is desirable to use them in posture control analysis. The use of CNN aims to overcome the heavy computational requirement for the identification of nonlinear models, in order to make the analysis of experimental data less time consuming and, in perspective, to make such analysis feasible in the context of clinical tests. Some potential implications of the method for humanoid robotics are also discussed. | 翻訳日:2022-11-25 09:51:03 公開日:2020-06-04 |
# 自由境界問題の深層学習とステファン問題 Deep learning of free boundary and Stefan problems ( http://arxiv.org/abs/2006.05311v1 ) ライセンス: Link先を確認 | Sifan Wang, Paris Perdikaris | (参考訳) 自由境界問題は自然に数学、科学、工学の様々な領域に現れる。
これらの問題は、自由境界と複雑な動的インターフェースを正確に近似できる数値的な方法を必要とするため、大きな計算課題となる。
本研究では,物理に変形したニューラルネットワークに基づくマルチネットワークモデルを提案し,ステファン問題と呼ばれる,前方および逆自由境界問題の一般クラスに取り組む。
具体的には、2つのディープニューラルネットワークによって未知の解と移動境界を近似する。
さらに,スパースおよびノイズ測定から直接解と自由境界を再構築することを目的とした,新しい逆ステファン問題を定式化する。
提案手法は,様々な種類のステファン問題にまたがる一連のベンチマークにおいて,本手法の有効性を実証し,提案手法が移動境界と動的インタフェースを用いた偏微分方程式の解を正確に回復できることを示す。
この原稿に付随するコードとデータは、 \url{https://github.com/PredictiveIntelligenceLab/DeepStefan}で公開されている。 Free boundary problems appear naturally in numerous areas of mathematics, science and engineering. These problems present a great computational challenge because they necessitate numerical methods that can yield an accurate approximation of free boundaries and complex dynamic interfaces. In this work, we propose a multi-network model based on physics-informed neural networks to tackle a general class of forward and inverse free boundary problems called Stefan problems. Specifically, we approximate the unknown solution as well as any moving boundaries by two deep neural networks. Besides, we formulate a new type of inverse Stefan problems that aim to reconstruct the solution and free boundaries directly from sparse and noisy measurements. We demonstrate the effectiveness of our approach in a series of benchmarks spanning different types of Stefan problems, and illustrate how the proposed framework can accurately recover solutions of partial differential equations with moving boundaries and dynamic interfaces. All code and data accompanying this manuscript are publicly available at \url{https://github.com/PredictiveIntelligenceLab/DeepStefan}. | 翻訳日:2022-11-25 09:50:36 公開日:2020-06-04 |
# SSAE表現によるローマ陶器の無監督クラスタリング Unsupervised clustering of Roman pottery profiles from their SSAE representation ( http://arxiv.org/abs/2006.03156v1 ) ライセンス: Link先を確認 | Simone Parisotto and Alessandro Launaro and Ninetta Leone and Carola-Bibiane Sch\"onlieb | (参考訳) そこで,本稿では,ローマの11のカタログから抽出された陶磁器形状の,2000以上の黒と白のイメージングプロファイルからなる,ローマ・コモンウェア陶磁器(rocopot)データベースを紹介する。
プロファイルの類似性は、スタックされたスパースオートエンコーダ(SSAE)ネットワークの潜在表現空間で学習された非線形特徴の階層的クラスタリングを通じて探索され、新しいプロファイルマッチが明らかにされる。
結果は、それぞれのコミュニティにおける新しい研究の方向性を解き放つために、数学的および考古学的な観点からコメントされる。 In this paper we introduce the ROman COmmonware POTtery (ROCOPOT) database, which comprises of more than 2000 black and white imaging profiles of pottery shapes extracted from 11 Roman catalogues and related to different excavation sites. The partiality and the handcrafted variance of the shape fragments within this new database make their unsupervised clustering a very challenging problem: profile similarities are thus explored via the hierarchical clustering of non-linear features learned in the latent representation space of a stacked sparse autoencoder (SSAE) network, unveiling new profile matches. Results are commented both from a mathematical and archaeological perspective so as to unlock new research directions in the respective communities. | 翻訳日:2022-11-25 09:50:04 公開日:2020-06-04 |
# 異なるファジィ含意の分析 Analyzing Differentiable Fuzzy Implications ( http://arxiv.org/abs/2006.03472v1 ) ライセンス: Link先を確認 | Emile van Krieken, Erman Acar, Frank van Harmelen | (参考訳) シンボリックアプローチとニューラルアプローチの組み合わせは、aiコミュニティでかなりの注目を集めており、これらのアプローチの強みと弱みは相補的であるとしばしば主張されている。
文学におけるそのような傾向の1つは、ファジィ論理の演算子を用いる弱い教師付き学習技術である。
特に、これらのロジックで記述された事前のバックグラウンド知識を使用して、ラベルのないノイズの多いデータからニューラルネットワークのトレーニングを支援する。
ニューラルネットワークを使って論理記号を解釈することで、この背景知識を正規損失関数に追加することができるため、推論は学習の一部となる。
本稿では,ファジィ論理文学からの影響が微分可能環境でどのように振る舞うかを検討する。
このような設定で、これらのファジィ含意の形式的性質の違いを分析する。
様々なファジィな意味、特に最も有名なものは、異なる学習環境での使用には不適であることが判明した。
さらなる発見は、先行者によって駆動される勾配と含意の結果としての強い不均衡を示す。
さらに,この現象に取り組むために,新たなファジィ・インジェクション(sgmoidal implications)のファミリーを導入する。
最後に,半教師付き学習に微分可能なファジィ論理を用いることが可能であることを実証的に示し,シグモイド的意味論がファジィ的意味論の他の選択肢よりも優れていることを示す。 Combining symbolic and neural approaches has gained considerable attention in the AI community, as it is often argued that the strengths and weaknesses of these approaches are complementary. One such trend in the literature are weakly supervised learning techniques that employ operators from fuzzy logics. In particular, they use prior background knowledge described in such logics to help the training of a neural network from unlabeled and noisy data. By interpreting logical symbols using neural networks (or grounding them), this background knowledge can be added to regular loss functions, hence making reasoning a part of learning. In this paper, we investigate how implications from the fuzzy logic literature behave in a differentiable setting. In such a setting, we analyze the differences between the formal properties of these fuzzy implications. It turns out that various fuzzy implications, including some of the most well-known, are highly unsuitable for use in a differentiable learning setting. A further finding shows a strong imbalance between gradients driven by the antecedent and the consequent of the implication. Furthermore, we introduce a new family of fuzzy implications (called sigmoidal implications) to tackle this phenomenon. Finally, we empirically show that it is possible to use Differentiable Fuzzy Logics for semi-supervised learning, and show that sigmoidal implications outperform other choices of fuzzy implications. | 翻訳日:2022-11-25 09:44:29 公開日:2020-06-04 |
# 音声感情認識における伝達学習のための距離損失を改良したシアムニューラルネット A Siamese Neural Network with Modified Distance Loss For Transfer Learning in Speech Emotion Recognition ( http://arxiv.org/abs/2006.03001v1 ) ライセンス: Link先を確認 | Kexin Feng, Theodora Chaspari | (参考訳) 人間のコンピュータインタラクションのプロセスやモノのインターネット(IOT)技術の設計において,自動感情認識が重要な役割を果たす。
しかし、感情認識システムにおける一般的な問題は、信頼できるラベルの不足にある。
興味のあるサンプル間のペアワイズの違いをモデル化することで、従来のディープラーニング手法よりもサンプルが少ないため、Siameseネットワークはこの課題を軽減するのに役立つ。
本稿では,同一クラスと差分クラス間の関係した距離に基づいてモデルを最適化することにより,シームズネットワークの微調整に適用可能な距離損失を提案する。
本システムでは,対象データに基づいて微調整されたシームズニューラルネットワークの重みを事前学習するために,ソースデータからのサンプルを用いる。
本稿では,最もユビキタスで頻繁に使用される生物行動信号の1つである音声を用いた感情認識タスクを提案する。
ターゲットデータはRAVDESSデータセットから,CREMA-DとeNTERFACE'05はそれぞれソースデータとして使用される。
以上の結果から,提案する距離損失は,シャムネットワークの微調整プロセスに大きなメリットがあることが示唆された。
また, ソースデータの選択は, 凍結層数と比較して, シームズネットワークの性能に影響を及ぼす。
これらのことは、サイムズネットワークを適用し、自動感情認識のための伝達学習の分野における相違をモデル化する大きな可能性を示唆している。 Automatic emotion recognition plays a significant role in the process of human computer interaction and the design of Internet of Things (IOT) technologies. Yet, a common problem in emotion recognition systems lies in the scarcity of reliable labels. By modeling pairwise differences between samples of interest, a Siamese network can help to mitigate this challenge since it requires fewer samples than traditional deep learning methods. In this paper, we propose a distance loss, which can be applied on the Siamese network fine-tuning, by optimizing the model based on the relevant distance between same and difference class pairs. Our system use samples from the source data to pre-train the weights of proposed Siamese neural network, which are fine-tuned based on the target data. We present an emotion recognition task that uses speech, since it is one of the most ubiquitous and frequently used bio-behavioral signals. Our target data comes from the RAVDESS dataset, while the CREMA-D and eNTERFACE'05 are used as source data, respectively. Our results indicate that the proposed distance loss is able to greatly benefit the fine-tuning process of Siamese network. Also, the selection of source data has more effect on the Siamese network performance compared to the number of frozen layers. These suggest the great potential of applying the Siamese network and modelling pairwise differences in the field of transfer learning for automatic emotion recognition. | 翻訳日:2022-11-25 09:44:06 公開日:2020-06-04 |
# 因果摂動を用いたLSHADE-RSPアルゴリズムの改良:iLSHADE-RSP An Improved LSHADE-RSP Algorithm with the Cauchy Perturbation: iLSHADE-RSP ( http://arxiv.org/abs/2006.02591v1 ) ライセンス: Link先を確認 | Tae Jong Choi and Chang Wook Ahn | (参考訳) 本稿では,最先端微分進化(DE)の最適化性能向上のための新しい手法を提案する。
この手法は、コーシー分布の長い尾を持つ性質を採用することにより探索を向上させることができ、アルゴリズムが大きな多様性を持つ試行ベクトルを生成するのに役立つ。
従来の手法と比較して,提案手法はジャンプ率に基づいて,突然変異ベクトルの代わりにターゲットベクトルを摂動する。
提案手法を,CEC 2018コンペで2位にランクインしたLSHADE-RSPに応用した。
改良されたLSHADE-RSPの最適化性能を評価するために、30の異なる難解な最適化問題を用いる。
実験の結果,LSHADE-RSPの改良は,従来のLSHADE-RSPだけでなく,収束速度や解の精度の観点からも有意な性能を示した。 A new method for improving the optimization performance of a state-of-the-art differential evolution (DE) variant is proposed in this paper. The technique can increase the exploration by adopting the long-tailed property of the Cauchy distribution, which helps the algorithm to generate a trial vector with great diversity. Compared to the previous approaches, the proposed approach perturbs a target vector instead of a mutant vector based on a jumping rate. We applied the proposed approach to LSHADE-RSP ranked second place in the CEC 2018 competition on single objective real-valued optimization. A set of 30 different and difficult optimization problems is used to evaluate the optimization performance of the improved LSHADE-RSP. Our experimental results verify that the improved LSHADE-RSP significantly outperformed not only its predecessor LSHADE-RSP but also several cutting-edge DE variants in terms of convergence speed and solution accuracy. | 翻訳日:2022-11-25 09:43:02 公開日:2020-06-04 |
# 不確実性下における動的最適化のための制約付き強化学習 Constrained Reinforcement Learning for Dynamic Optimization under Uncertainty ( http://arxiv.org/abs/2006.02750v1 ) ライセンス: Link先を確認 | Panagiotis Petsagkourakis, Ilya Orson Sandoval, Eric Bradford, Dongda Zhang, Ehecatl Antonio del R\'io Chanona | (参考訳) 動的リアルタイム最適化(DRTO)は、最適動作条件をリアルタイムに計算する必要があるという事実から難しい課題である。
DRTOの産業応用における主要なボトルネックは不確実性の存在である。
多くの確率系は以下の障害を示す。
1) 植物モデルミスマッチ
2)プロセス障害。
3) プロセスの制約に違反するリスク。
これらの課題に対処するため,制約付き強化学習(RL)に基づくアプローチを提案する。
RLは、最適フィードバックポリシーを計算することによって、プロセスの不確実性を自然に処理する。
しかし、状態制約は直感的に導入できない。
この問題に対処するため,確率制約付きRL手法を提案する。
プロセス制約の確率的満足度を保証するために、最適なポリシーとバックオフが同時に計算されるように、バックオフを導入することで達成される。
経験的累積分布関数を用いてバックオフを調整し、共同機会制約の満足度を保証する。
この戦略の利点と性能は、持続可能な高価値バイオ製品を生み出すための確率的動的バイオプロセス最適化問題によって示される。 Dynamic real-time optimization (DRTO) is a challenging task due to the fact that optimal operating conditions must be computed in real time. The main bottleneck in the industrial application of DRTO is the presence of uncertainty. Many stochastic systems present the following obstacles: 1) plant-model mismatch, 2) process disturbances, 3) risks in violation of process constraints. To accommodate these difficulties, we present a constrained reinforcement learning (RL) based approach. RL naturally handles the process uncertainty by computing an optimal feedback policy. However, no state constraints can be introduced intuitively. To address this problem, we present a chance-constrained RL methodology. We use chance constraints to guarantee the probabilistic satisfaction of process constraints, which is accomplished by introducing backoffs, such that the optimal policy and backoffs are computed simultaneously. Backoffs are adjusted using the empirical cumulative distribution function to guarantee the satisfaction of a joint chance constraint. The advantage and performance of this strategy are illustrated through a stochastic dynamic bioprocess optimization problem, to produce sustainable high-value bioproducts. | 翻訳日:2022-11-25 09:42:01 公開日:2020-06-04 |
# 低ラベリング率ラプラシア半教師学習における収束率 Rates of Convergence for Laplacian Semi-Supervised Learning with Low Labeling Rates ( http://arxiv.org/abs/2006.02765v1 ) ライセンス: Link先を確認 | Jeff Calder, Dejan Slep\v{c}ev and Matthew Thorpe | (参考訳) グラフベースラプラシアン半教師付き学習を低ラベルレートで検討した。
ラプラシアン学習はグラフ上の調和拡張を使ってラベルを伝播する。
非常に低いラベルレートでは、ラプラシアン学習は縮退し、各ラベル付きデータポイントのスパイクで解は概ね一定となる。
前回の研究では、ラベル付きデータポイントの数は有限であり、ラベル付きデータポイントの数は無限になりがちである。
この作業では、ラベル付きデータポイントの数をラベル数で無限に増やすことを可能にします。
その結果、長さスケール $\varepsilon>0$ とラベリングレート $\beta>0$ のランダム幾何グラフでは、$\beta \ll\varepsilon^2$ で解が縮退しスパイクが形成され、$\beta\gg \varepsilon^2$ であればラプラシアン学習は連続ラプラス方程式とよく一致することが示された。
さらに、よく仮定された設定では、離散問題と連続PDEの解の差に対して$O(\varepsilon\beta^{-1/2})$の量的誤差推定を対数係数まで証明する。
また、$p$-Laplacian regularization も検討し、$\beta \ll \varepsilon^p$ と同じ縮退結果を示す。
この結果の証明はラプラシアン学習のランダムウォーク解釈とPDE論証を使い、不作為結果の証明は変分法からの$\Gamma$-convergenceツールを使用する。
また, 合成データおよび実データを用いて, 数値的な結果を示す。 We study graph-based Laplacian semi-supervised learning at low labeling rates. Laplacian learning uses harmonic extension on a graph to propagate labels. At very low label rates, Laplacian learning becomes degenerate and the solution is roughly constant with spikes at each labeled data point. Previous work has shown that this degeneracy occurs when the number of labeled data points is finite while the number of unlabeled data points tends to infinity. In this work we allow the number of labeled data points to grow to infinity with the number of labels. Our results show that for a random geometric graph with length scale $\varepsilon>0$ and labeling rate $\beta>0$, if $\beta \ll\varepsilon^2$ then the solution becomes degenerate and spikes form, and if $\beta\gg \varepsilon^2$ then Laplacian learning is well-posed and consistent with a continuum Laplace equation. Furthermore, in the well-posed setting we prove quantitative error estimates of $O(\varepsilon\beta^{-1/2})$ for the difference between the solutions of the discrete problem and continuum PDE, up to logarithmic factors. We also study $p$-Laplacian regularization and show the same degeneracy result when $\beta \ll \varepsilon^p$. The proofs of our well-posedness results use the random walk interpretation of Laplacian learning and PDE arguments, while the proofs of the ill-posedness results use $\Gamma$-convergence tools from the calculus of variations. We also present numerical results on synthetic and real data to illustrate our results. | 翻訳日:2022-11-25 09:41:48 公開日:2020-06-04 |
# モデルベースクラスタリングにおける欠落データ処理 Handling missing data in model-based clustering ( http://arxiv.org/abs/2006.02954v1 ) ライセンス: Link先を確認 | Alessio Serafini, Thomas Brendan Murphy, Luca Scrucca | (参考訳) ガウス混合モデル(GMM)は、クラスタリング構造がデータに埋め込まれているときのクラスタリング、分類、密度推定のための強力なツールである。
欠落した値の存在がGMMの推定プロセスに大きな影響を及ぼす可能性があるため、欠落したデータを扱うことは、クラスタリング、分類、密度推定において重要なポイントであることが判明した。
モデル推定の前に、欠落した値をインプットするためにいくつかの技術が開発されている。
これらのうち、多重計算は、欠落したデータを扱うための単純で有用な一般的なアプローチである。
本稿では,欠損データの存在下でガウス混合体に適合する2つの異なる手法を提案する。
どちらの手法もデータ拡張のためにモンテカルロ予測最大化アルゴリズム(MCEM)の変種を用いる。
このように、Eステップ中に複数の計算を行い、次に所定の固有分解成分共分散行列の標準Mステップを実行する。
提案手法は,クラスタ同定と密度推定の両面で,多重インプテーション手法よりも優れていることを示す。 Gaussian Mixture models (GMMs) are a powerful tool for clustering, classification and density estimation when clustering structures are embedded in the data. The presence of missing values can largely impact the GMMs estimation process, thus handling missing data turns out to be a crucial point in clustering, classification and density estimation. Several techniques have been developed to impute the missing values before model estimation. Among these, multiple imputation is a simple and useful general approach to handle missing data. In this paper we propose two different methods to fit Gaussian mixtures in the presence of missing data. Both methods use a variant of the Monte Carlo Expectation-Maximisation (MCEM) algorithm for data augmentation. Thus, multiple imputations are performed during the E-step, followed by the standard M-step for a given eigen-decomposed component-covariance matrix. We show that the proposed methods outperform the multiple imputation approach, both in terms of clusters identification and density estimation. | 翻訳日:2022-11-25 09:41:14 公開日:2020-06-04 |
# 4次確率ガウス過程 Quadruply Stochastic Gaussian Processes ( http://arxiv.org/abs/2006.03015v1 ) ライセンス: Link先を確認 | Trefor W. Evans and Prasanth B. Nair | (参考訳) 本稿では, 学習点数, n$, およびカーネル近似で使われる数基底関数, $m$ に依存しない, 文単位の複雑性を持つスケーラブルなガウス過程(gp)モデルを学習するための確率的変分推論手法を提案する。
我々の中心的な貢献には、ガウス的可能性の証拠の下限(ELBO)の偏りのない確率推定器や、ラプラスやロジスティックのような他のいくつかの可能性のELBOを下限とする確率推定器が含まれる。
確率最適化更新の複雑さの独立性 $n$ と $m$ は、大規模なgpモデルを用いた巨大なデータセットの推論を可能にする。
GPと関連ベクトルマシンを用いた大規模分類および回帰データセットの精度を,最大で$m = 10^7$の基底関数で示す。 We introduce a stochastic variational inference procedure for training scalable Gaussian process (GP) models whose per-iteration complexity is independent of both the number of training points, $n$, and the number basis functions used in the kernel approximation, $m$. Our central contributions include an unbiased stochastic estimator of the evidence lower bound (ELBO) for a Gaussian likelihood, as well as a stochastic estimator that lower bounds the ELBO for several other likelihoods such as Laplace and logistic. Independence of the stochastic optimization update complexity on $n$ and $m$ enables inference on huge datasets using large capacity GP models. We demonstrate accurate inference on large classification and regression datasets using GPs and relevance vector machines with up to $m = 10^7$ basis functions. | 翻訳日:2022-11-25 09:34:30 公開日:2020-06-04 |
# 高速対人訓練の理解に向けて Towards Understanding Fast Adversarial Training ( http://arxiv.org/abs/2006.03089v1 ) ライセンス: Link先を確認 | Bai Li, Shiqi Wang, Suman Jana, Lawrence Carin | (参考訳) 現在のニューラルネットワークベースの分類器は、逆向きの例に影響を受けやすい。
このような敵対的な例に対して最も実証的に成功したアプローチは、その堅牢性を高めるためにトレーニング中に強い自己攻撃を組み込んだ、敵対的トレーニングである。
しかし、このアプローチは計算に高価であるため、スケールアップは困難である。
最近の研究は高速対人訓練と呼ばれ、大幅な性能を犠牲にすることなく計算時間を著しく短縮できることを示した。
このアプローチには単純な自己攻撃が組み込まれていますが、限られた数のトレーニング期間でしか実行できません。
本稿では,高速対向訓練の行動を理解するための実験を行い,その成功の鍵は,過剰フィッティングから弱い攻撃への回復能力であることを示す。
結果より, 高速対人訓練を改良し, 強い対人訓練に優れた堅牢な精度を示し, 学習時間を大幅に短縮した。 Current neural-network-based classifiers are susceptible to adversarial examples. The most empirically successful approach to defending against such adversarial examples is adversarial training, which incorporates a strong self-attack during training to enhance its robustness. This approach, however, is computationally expensive and hence is hard to scale up. A recent work, called fast adversarial training, has shown that it is possible to markedly reduce computation time without sacrificing significant performance. This approach incorporates simple self-attacks, yet it can only run for a limited number of training epochs, resulting in sub-optimal performance. In this paper, we conduct experiments to understand the behavior of fast adversarial training and show the key to its success is the ability to recover from overfitting to weak attacks. We then extend our findings to improve fast adversarial training, demonstrating superior robust accuracy to strong adversarial training, with much-reduced training time. | 翻訳日:2022-11-25 09:34:17 公開日:2020-06-04 |
# fastmap-dを用いた有向グラフのポテンシャル場への埋め込み Embedding Directed Graphs in Potential Fields Using FastMap-D ( http://arxiv.org/abs/2006.03112v1 ) ライセンス: Link先を確認 | Sriram Gopalakrishnan, Liron Cohen, Sven Koenig, T.K. Satish Kumar | (参考訳) ユークリッド空間に無向グラフを埋め込むことは多くの計算上の利点がある。
fastmapは非向グラフ上の問題に対する幾何学的解釈を容易にする効率的な埋め込みアルゴリズムである。
しかし、ユークリッド距離は本質的に対称であり、したがってユークリッド埋め込みは有向グラフには使用できない。
本稿では,FastMapの有向グラフへの効率的な一般化であるFastMap-Dを提案する。
fastmap-d はポテンシャル場を用いて頂点を埋め込み、有向グラフの対距離間の非対称性を捉える。
FastMap-Dは、機械学習モジュールを使用して潜在的フィールドを定義するポテンシャル関数を学習する。
種々の有向グラフの実験において、他のアプローチに対するFastMap-Dの利点を実証する。 Embedding undirected graphs in a Euclidean space has many computational benefits. FastMap is an efficient embedding algorithm that facilitates a geometric interpretation of problems posed on undirected graphs. However, Euclidean distances are inherently symmetric and, thus, Euclidean embeddings cannot be used for directed graphs. In this paper, we present FastMap-D, an efficient generalization of FastMap to directed graphs. FastMap-D embeds vertices using a potential field to capture the asymmetry between the pairwise distances in directed graphs. FastMap-D learns a potential function to define the potential field using a machine learning module. In experiments on various kinds of directed graphs, we demonstrate the advantage of FastMap-D over other approaches. | 翻訳日:2022-11-25 09:34:01 公開日:2020-06-04 |
# 誤特定線形モデルの重要度テストに機械学習を注入する Inject Machine Learning into Significance Test for Misspecified Linear Models ( http://arxiv.org/abs/2006.03167v1 ) ライセンス: Link先を確認 | Jiaye Teng and Yang Yuan | (参考訳) その強い解釈可能性から、線形回帰は社会科学において広く使われており、その意味度テストは伝統的な統計推論におけるモデルや係数の重要度レベルを提供する。
しかし、線形回帰法は、実際には必ずしも成り立たない基底真理関数の線型仮定に依存している。
その結果、単純な非線形の場合でさえ、線形回帰は正しい重要性レベルを報告できない可能性がある。
本稿では,線形および非線形のシナリオにおける線形近似に対する,単純かつ効果的な仮定フリー手法を提案する。
まず、学習集合に基底真理関数を適合させるために機械学習法を適用し、その線形近似を計算する。
その後、検証セットに基づいて調整を加えることで推定値を得る。
我々は, 推定器の濃度不等式と漸近特性を証明し, 対応する有意性試験に導いた。
実験の結果, 非線形基底真理関数の線形回帰を有意に上回っており, 重要度評価のためのツールとして評価できる可能性が示唆された。 Due to its strong interpretability, linear regression is widely used in social science, from which significance test provides the significance level of models or coefficients in the traditional statistical inference. However, linear regression methods rely on the linear assumptions of the ground truth function, which do not necessarily hold in practice. As a result, even for simple non-linear cases, linear regression may fail to report the correct significance level. In this paper, we present a simple and effective assumption-free method for linear approximation in both linear and non-linear scenarios. First, we apply a machine learning method to fit the ground truth function on the training set and calculate its linear approximation. Afterward, we get the estimator by adding adjustments based on the validation set. We prove the concentration inequalities and asymptotic properties of our estimator, which leads to the corresponding significance test. Experimental results show that our estimator significantly outperforms linear regression for non-linear ground truth functions, indicating that our estimator might be a better tool for the significance test. | 翻訳日:2022-11-25 09:33:00 公開日:2020-06-04 |
# Wasserstein Domain Confusionによる強化学習のための視覚伝達 Visual Transfer for Reinforcement Learning via Wasserstein Domain Confusion ( http://arxiv.org/abs/2006.03465v1 ) ライセンス: Link先を確認 | Josh Roy, George Konidaris | (参考訳) 強化学習における視覚伝達のための新しいアルゴリズムであるwasserstein adversarial proximal policy optimization (wappo)を提案する。
WAPPOは、Wasserstein Confusionの新たな目的を通じて、ソースとターゲットドメインからのフィーチャの分布間のWasserstein-1距離を近似し、最小化する。
WAPPOは、ビジュアルトランスファーにおけるこれまでの最先端を上回り、Visual Cartpoleと16 OpenAI Procgen環境の2つのインスタンス化によるポリシの転送に成功した。 We introduce Wasserstein Adversarial Proximal Policy Optimization (WAPPO), a novel algorithm for visual transfer in Reinforcement Learning that explicitly learns to align the distributions of extracted features between a source and target task. WAPPO approximates and minimizes the Wasserstein-1 distance between the distributions of features from source and target domains via a novel Wasserstein Confusion objective. WAPPO outperforms the prior state-of-the-art in visual transfer and successfully transfers policies across Visual Cartpole and two instantiations of 16 OpenAI Procgen environments. | 翻訳日:2022-11-25 09:32:44 公開日:2020-06-04 |
# 異なる学習モデルのための重み空間の特徴付け Characterizing the Weight Space for Different Learning Models ( http://arxiv.org/abs/2006.02724v1 ) ライセンス: Link先を確認 | Saurav Musunuru, Jay N. Paranjape, Rahul Kumar Dubey and Vijendran G. Venkoparao | (参考訳) ディープラーニングは、インテリジェントマシン開発の主要な研究分野の1つになっている。
AIの一般的なアプリケーション(音声認識、画像処理、NLPなど)のほとんどはディープラーニングによって駆動される。
ディープラーニングアルゴリズムは、ニューラルネットワークを使って人間の脳を模倣し、与えられた問題を解決するために徐々に学習する。
しかし、ディープラーニングシステムには大きな課題がある。
深層学習モデルを生物学的ニューラルネットワークを模倣する試みが数多く行われている。
しかし、多くのディープラーニングモデルは、敵対的な例の存在下では不十分である。
逆さまの例ではパフォーマンスが悪く、敵の攻撃につながり、結果としてほとんどのアプリケーションにおける安全性とセキュリティにつながる。
本稿では, ニューラルネットワークの解空間を, 正確に訓練されたパターンに属する3つのサブセット, 一般化されたパターン集合に属する重み, 敵のパターン集合に属する重みの3つの異なる部分集合で特徴づける試みを行う。
我々は,2つの一見異なる学習パラダイムvizで解空間を特徴付けることを試みる。ディープニューラルネットワークと密結合メモリモデルは,全く異なるメカニズムで学習を達成しようとする。
また、敵攻撃は一般的にディープニューラルネットワークよりも連想記憶モデルに対して成功していないことを示す。 Deep Learning has become one of the primary research areas in developing intelligent machines. Most of the well-known applications (such as Speech Recognition, Image Processing and NLP) of AI are driven by Deep Learning. Deep Learning algorithms mimic human brain using artificial neural networks and progressively learn to accurately solve a given problem. But there are significant challenges in Deep Learning systems. There have been many attempts to make deep learning models imitate the biological neural network. However, many deep learning models have performed poorly in the presence of adversarial examples. Poor performance in adversarial examples leads to adversarial attacks and in turn leads to safety and security in most of the applications. In this paper we make an attempt to characterize the solution space of a deep neural network in terms of three different subsets viz. weights belonging to exact trained patterns, weights belonging to generalized pattern set and weights belonging to adversarial pattern sets. We attempt to characterize the solution space with two seemingly different learning paradigms viz. the Deep Neural Networks and the Dense Associative Memory Model, which try to achieve learning via quite different mechanisms. We also show that adversarial attacks are generally less successful against Associative Memory Models than Deep Neural Networks. | 翻訳日:2022-11-25 09:26:32 公開日:2020-06-04 |
# 適応的スパーシリティ損失による軽量プルーニング Weight Pruning via Adaptive Sparsity Loss ( http://arxiv.org/abs/2006.02768v1 ) ライセンス: Link先を確認 | George Retsinas, Athena Elafrou, Georgios Goumas, Petros Maragos | (参考訳) 近年のプルーニングニューラルネットワークは、最先端のディープニューラルネットワークを圧縮し、リソースに制約のあるデバイスへの展開を可能にする手段として、関心を取り戻している。
本稿では,ネットワークパラメータを最小限の計算オーバーヘッドで効率的に学習する頑健な圧縮学習フレームワークを提案する。
私たちは、個々のレイヤをプルーピングする高速なメカニズムを組み込んで、ユーザ定義の予算制約の下でネットワーク全体をプルーピングするように構築します。
エンドツーエンドネットワークプルーニングアプローチの鍵は、トレーニング中にスパーシティを明示的に制御し、効率的な予算・アウェア最適化を可能にするために使用される、直感的で実装が容易な適応スパーシティ損失(adaptive sparsity loss)を定式化することです。
広範な実験により、alexnet、resnets、wide resnetsなどの異なるアーキテクチャを用いたcifarおよびimagenetデータセット上の画像分類フレームワークの有効性が実証された。 Pruning neural networks has regained interest in recent years as a means to compress state-of-the-art deep neural networks and enable their deployment on resource-constrained devices. In this paper, we propose a robust compressive learning framework that efficiently prunes network parameters during training with minimal computational overhead. We incorporate fast mechanisms to prune individual layers and build upon these to automatically prune the entire network under a user-defined budget constraint. Key to our end-to-end network pruning approach is the formulation of an intuitive and easy-to-implement adaptive sparsity loss that is used to explicitly control sparsity during training, enabling efficient budget-aware optimization. Extensive experiments demonstrate the effectiveness of the proposed framework for image classification on the CIFAR and ImageNet datasets using different architectures, including AlexNet, ResNets and Wide ResNets. | 翻訳日:2022-11-25 09:26:06 公開日:2020-06-04 |
# 自動デコードグラフ Auto-decoding Graphs ( http://arxiv.org/abs/2006.02879v1 ) ライセンス: Link先を確認 | Sohil Atul Shah and Vladlen Koltun | (参考訳) 実験によって特定された分布から新しいグラフ構造を合成する手法を提案する。
生成モデルは、潜在コードからグラフを合成することを学ぶ自動デコーダである。
グラフ合成モデルは、潜在符号上の経験的分布と共同で学習される。
グラフは、おそらく接続パターンを特定するためにトレーニングされた自己注意モジュールを使用して合成される。
グラフベースの正規化フローは、オートデコーダが学習した分布から潜時コードのサンプリングに使用される。
結果として得られたモデルは、精度とスケーラビリティを組み合わせる。
大規模グラフのベンチマークデータセットでは、提示されたモデルは、少なくとも3つの異なるグラフ統計で平均精度と平均ランクで1.5倍の精度でアートの状態を上回り、推論中に2倍のスピードアップを行う。 We present an approach to synthesizing new graph structures from empirically specified distributions. The generative model is an auto-decoder that learns to synthesize graphs from latent codes. The graph synthesis model is learned jointly with an empirical distribution over the latent codes. Graphs are synthesized using self-attention modules that are trained to identify likely connectivity patterns. Graph-based normalizing flows are used to sample latent codes from the distribution learned by the auto-decoder. The resulting model combines accuracy and scalability. On benchmark datasets of large graphs, the presented model outperforms the state of the art by a factor of 1.5 in mean accuracy and average rank across at least three different graph statistics, with a 2x speedup during inference. | 翻訳日:2022-11-25 09:24:25 公開日:2020-06-04 |
# MHVAE:マルチモーダル表現学習のためのヒューマンインスパイアされた深層階層生成モデル MHVAE: a Human-Inspired Deep Hierarchical Generative Model for Multimodal Representation Learning ( http://arxiv.org/abs/2006.02991v1 ) ライセンス: Link先を確認 | Miguel Vasco, Francisco S. Melo, Ana Paiva | (参考訳) 人間は外部の現実を豊かに表現することができる。
それらの内部表現は相互モダリティ推論を可能にし、利用可能な知覚は入力モダリティの欠如に対する知覚経験を誘導することができる。
本稿では,表現学習のための階層的マルチモーダル生成モデルであるMHVAE(Multimodal Hierarchical Variational Auto-Encoder)を提案する。
人間の認知モデルにインスパイアされたmhvaeは、任意の数のモダリティのモダリティ特有の分布と、交叉モダリティ推論に責任を持つジョイントモダリティ分布を学習することができる。
モデルのエビデンスの下限を形式的に導出し,モダリティ特異的表現ドロップアウトに基づく関節モーダリティ後方を近似する新しい手法を提案する。
標準マルチモーダルデータセット上でMHVAEを評価する。
本モデルは,任意の入力モダリティと相互モダリティ推定による共同モダリティ再構成に関する他の最先端生成モデルと同等である。 Humans are able to create rich representations of their external reality. Their internal representations allow for cross-modality inference, where available perceptions can induce the perceptual experience of missing input modalities. In this paper, we contribute the Multimodal Hierarchical Variational Auto-encoder (MHVAE), a hierarchical multimodal generative model for representation learning. Inspired by human cognitive models, the MHVAE is able to learn modality-specific distributions, of an arbitrary number of modalities, and a joint-modality distribution, responsible for cross-modality inference. We formally derive the model's evidence lower bound and propose a novel methodology to approximate the joint-modality posterior based on modality-specific representation dropout. We evaluate the MHVAE on standard multimodal datasets. Our model performs on par with other state-of-the-art generative models regarding joint-modality reconstruction from arbitrary input modalities and cross-modality inference. | 翻訳日:2022-11-25 09:23:33 公開日:2020-06-04 |
# LiveBotへの反応:ビジュアルおよびテキストコンテキストに基づくライブビデオコメントの生成 Response to LiveBot: Generating Live Video Comments Based on Visual and Textual Contexts ( http://arxiv.org/abs/2006.03022v1 ) ライセンス: Link先を確認 | Hao Wu, Gareth J. F. Jones, Francois Pitie | (参考訳) ライブビデオコメントシステムは、オンラインビデオサイトの新たな機能である。
近年,中国のビデオ共有プラットフォームであるBilibiliは,動画再生画面上に動画の字幕をオーバーレイ表示し,リアルタイムで全視聴者に配信する新たなキャプションシステムを開発した。
LiveBotは最近、ALVC(Automatic Live Video Commenting)アプリケーションとして導入された。
これにより、既存のビデオストリームと既存の視聴者コメントの両方からライブビデオコメントを自動的に生成することができる。
元のLivebot論文で報告されたベースライン結果の再現を目指して,プロジェクトコードベースを用いた再現結果と,論文に報告された数値の相違を見出した。
この状況のさらなる検討は、トレーニングとテストセットの重複を含む、プロジェクトコードの多くの小さな問題によって引き起こされる可能性があることを示唆している。
本稿では,これらの相違を詳細に検討し,この分野の他の研究者への参考として,代替ベースライン実装を提案する。 Live video commenting systems are an emerging feature of online video sites. Recently the Chinese video sharing platform Bilibili, has popularised a novel captioning system where user comments are displayed as streams of moving subtitles overlaid on the video playback screen and broadcast to all viewers in real-time. LiveBot was recently introduced as a novel Automatic Live Video Commenting (ALVC) application. This enables the automatic generation of live video comments from both the existing video stream and existing viewers comments. In seeking to reproduce the baseline results reported in the original Livebot paper, we found differences between the reproduced results using the project codebase and the numbers reported in the paper. Further examination of this situation suggests that this may be caused by a number of small issues in the project code, including a non-obvious overlap between the training and test sets. In this paper, we study these discrepancies in detail and propose an alternative baseline implementation as a reference for other researchers in this field. | 翻訳日:2022-11-25 09:17:59 公開日:2020-06-04 |
# 材料科学領域におけるSOFC-Expコーパスと情報抽出へのニューラルアプローチ The SOFC-Exp Corpus and Neural Approaches to Information Extraction in the Materials Science Domain ( http://arxiv.org/abs/2006.03039v1 ) ライセンス: Link先を確認 | Annemarie Friedrich and Heike Adel and Federico Tomazic and Johannes Hingerl and Renou Benteau and Anika Maruscyk and Lukas Lange | (参考訳) 本稿では,材料科学分野における新たな課題情報抽出課題を提案する。
本研究では,固体酸化物燃料電池に関する実験に関する情報を,材料や測定条件などの科学論文にマークするためのアノテーションスキームを開発した。
本稿では,本ガイドラインと,ドメインの専門家が注釈した45のオープンアクセス学術論文からなるSOFC-Expコーパスを公表する。
コーパスとアノテーション間合意研究は、提案されたエンティティ認識とスロット充足タスクの複雑さと高いアノテーション品質を実証する。
我々はまた、新しいデータセットに基づいて対処できる様々なタスクのための強力なニューラルネットワークベースのモデルも提示する。
すべてのタスクにおいて、BERT埋め込みを使用すると、パフォーマンスが大きく向上するが、タスクの複雑さが増すため、上に繰り返しニューラルネットワークを追加することは有益である。
我々のモデルは将来の作業において競争力のあるベースラインとして機能し、そのパフォーマンスの分析はデータのモデリングの難しさを浮き彫りにし、将来有望な研究方向性を示唆する。 This paper presents a new challenging information extraction task in the domain of materials science. We develop an annotation scheme for marking information on experiments related to solid oxide fuel cells in scientific publications, such as involved materials and measurement conditions. With this paper, we publish our annotation guidelines, as well as our SOFC-Exp corpus consisting of 45 open-access scholarly articles annotated by domain experts. A corpus and an inter-annotator agreement study demonstrate the complexity of the suggested named entity recognition and slot filling tasks as well as high annotation quality. We also present strong neural-network based models for a variety of tasks that can be addressed on the basis of our new data set. On all tasks, using BERT embeddings leads to large performance gains, but with increasing task complexity, adding a recurrent neural network on top seems beneficial. Our models will serve as competitive baselines in future work, and analysis of their performance highlights difficult cases when modeling the data and suggests promising research directions. | 翻訳日:2022-11-25 09:17:44 公開日:2020-06-04 |
# カリキュラム駆動深層強化学習によるハードai計画インスタンスの解法 Solving Hard AI Planning Instances Using Curriculum-Driven Deep Reinforcement Learning ( http://arxiv.org/abs/2006.02689v1 ) ライセンス: Link先を確認 | Dieqiao Feng, Carla P. Gomes, and Bart Selman | (参考訳) 一般的なAI計画の大幅な進歩にもかかわらず、一部のドメインは現在のAI計画システムの範囲外である。
SokobanはPSPACE完全計画タスクであり、現在のAIプランナーにとって最も難しいドメインの1つである。
ドメイン固有の特別な検索メソッドでさえ、ハードインスタンスの指数関数的検索の複雑さのために急速に失敗する。
カリキュラム駆動型手法で強化された深層強化学習に基づくアプローチは、訓練の1日以内にハードインスタンスを解く最初の方法であり、他の現代の問題解決者は妥当な時間制限でこれらのインスタンスを解けない。
手作りプルーニング技術を用いた従来の取り組みとは対照的に,本手法はドメイン構造を自動的に解明する。
我々の結果によると、Deep RLは、未解決のAI計画問題を解決するための有望なフレームワークを提供する。 Despite significant progress in general AI planning, certain domains remain out of reach of current AI planning systems. Sokoban is a PSPACE-complete planning task and represents one of the hardest domains for current AI planners. Even domain-specific specialized search methods fail quickly due to the exponential search complexity on hard instances. Our approach based on deep reinforcement learning augmented with a curriculum-driven method is the first one to solve hard instances within one day of training while other modern solvers cannot solve these instances within any reasonable time limit. In contrast to prior efforts, which use carefully handcrafted pruning techniques, our approach automatically uncovers domain structure. Our results reveal that deep RL provides a promising framework for solving previously unsolved AI planning problems, provided a proper training curriculum can be devised. | 翻訳日:2022-11-25 09:17:29 公開日:2020-06-04 |
# パラメトリー活性化によるDDPGアクターの精製連続制御 Refined Continuous Control of DDPG Actors via Parametrised Activation ( http://arxiv.org/abs/2006.02818v1 ) ライセンス: Link先を確認 | Mohammed Hossny, Julie Iskander, Mohammed Attia, Khaled Saleh | (参考訳) 本稿では,各種アクチュエータの動作不一致に対応するための動作を生成する最終アクタ層を環境との相互作用時に異なる負荷条件下でパラメータ化することにより,アクタ-クリティック強化学習エージェントの強化を提案する。
本稿ではアクターのアクション生成層を分岐させてアクティベーション層を制御するチューニングパラメータ(TanhやSigmoidなど)を学習する。
学習したパラメータは、各アクチュエータ用に調整されたアクティベーション関数を作成するために使用される。
我々はOpenAI Gym環境(Pendulum-v0, LunarLanderContinuous-v2, BipedalWalker-v2)で実験を行った。
その結果、LunarLanderContinuous-v2とBipedalWalker-v2の合計エピソード報酬は平均23.15%、33.80%増加した。
Pendulum-v0環境には顕著な改善はなかったが,提案手法は最新技術に比べて安定な動作信号を生成する。
提案手法により,強化学習アクタはアクチュエータの応答関数の不一致に対応するより頑健な動作を生成することができる。
これは、アクチュエータが負荷や環境との相互作用によって異なる応答関数を示す実際のシナリオに特に有用である。
これはまた、アクチュエータが交換されるたびにポリシー全体をトレーニングする代わりに、パラメータ化されたアクティベーション層を微調整することで、転写学習問題を単純化する。
最後に、提案手法は生体力学系の生体アクチュエータ(例えば筋肉)により良い調節を可能にする。 In this paper, we propose enhancing actor-critic reinforcement learning agents by parameterising the final actor layer which produces the actions in order to accommodate the behaviour discrepancy of different actuators, under different load conditions during interaction with the environment. We propose branching the action producing layer in the actor to learn the tuning parameter controlling the activation layer (e.g. Tanh and Sigmoid). The learned parameters are then used to create tailored activation functions for each actuator. We ran experiments on three OpenAI Gym environments, i.e. Pendulum-v0, LunarLanderContinuous-v2 and BipedalWalker-v2. Results have shown an average of 23.15% and 33.80% increase in total episode reward of the LunarLanderContinuous-v2 and BipedalWalker-v2 environments, respectively. There was no significant improvement in Pendulum-v0 environment but the proposed method produces a more stable actuation signal compared to the state-of-the-art method. The proposed method allows the reinforcement learning actor to produce more robust actions that accommodate the discrepancy in the actuators' response functions. This is particularly useful for real life scenarios where actuators exhibit different response functions depending on the load and the interaction with the environment. This also simplifies the transfer learning problem by fine tuning the parameterised activation layers instead of retraining the entire policy every time an actuator is replaced. Finally, the proposed method would allow better accommodation to biological actuators (e.g. muscles) in biomechanical systems. | 翻訳日:2022-11-25 09:17:15 公開日:2020-06-04 |
# 雑音観測によるグラフベース最適化 Sample Efficient Graph-Based Optimization with Noisy Observations ( http://arxiv.org/abs/2006.02672v1 ) ライセンス: Link先を確認 | Tan Nguyen, Ali Shameli, Yasin Abbasi-Yadkori, Anup Rao, Branislav Kveton | (参考訳) 雑音観測の下で, グラフ上に定義された「ヒルクライミングフレンドリー」関数を最適化するサンプル複雑性について検討した。
我々は凸性の概念を定義し、グラフのサイズに依存しない少数のクエリの後にベストアーム識別の変種が最適に近い解を見つけることができることを示す。
局所最小値を持ち凸に近い関数に対しては,ノイズ観測下での古典的擬似アニーリングのサンプル複雑性を示す。
本稿では,再起動を伴うグリーディアルゴリズムの有効性と,グラフベース近傍の分類問題とWebドキュメントの再分類問題に対するシミュレーションアニーリングについて述べる。 We study sample complexity of optimizing "hill-climbing friendly" functions defined on a graph under noisy observations. We define a notion of convexity, and we show that a variant of best-arm identification can find a near-optimal solution after a small number of queries that is independent of the size of the graph. For functions that have local minima and are nearly convex, we show a sample complexity for the classical simulated annealing under noisy observations. We show effectiveness of the greedy algorithm with restarts and the simulated annealing on problems of graph-based nearest neighbor classification as well as a web document re-ranking application. | 翻訳日:2022-11-25 09:14:49 公開日:2020-06-04 |
# 制御可能な精度と可読性トポロジーを持つ多項式ニューラルネットワークII:拡張層に基づく高速化アプローチ A Polynomial Neural network with Controllable Precision and Human-Readable Topology II: Accelerated Approach Based on Expanded Layer ( http://arxiv.org/abs/2006.02901v1 ) ライセンス: Link先を確認 | Gang Liu and Jing Wang | (参考訳) ニューラルネットワークのブラックボックス性を解決するためにTaylorシリーズをネットワークに変換するには?
制御可能で可読な多項式ニューラルネットワーク(Gang transform または CR-PNN)は、ネットワークの形のテイラー展開であり、フォワードプロパゲーションの典型的なBPNNの約10倍の効率である。
さらに、近似精度を制御し、ネットワークの内部構造を説明することができ、予測やシステム同定に使用される。
しかし、ネットワークの深さが大きくなると計算の複雑さが増す。
本稿ではCR-PNNを最適化する拡張順序に基づく高速化手法を提案する。
CR-PNN IIの構造の走行速度はCR-PNN Iの特性を保ちながらCR-PNN Iよりも著しく高い。 How about converting Taylor series to a network to solve the black-box nature of Neural Networks? Controllable and readable polynomial neural network (Gang transform or CR-PNN) is the Taylor expansion in the form of network, which is about ten times more efficient than typical BPNN for forward-propagation. Additionally, we can control the approximation precision and explain the internal structure of the network; thus, it is used for prediction and system identification. However, as the network depth increases, the computational complexity increases. Here, we presented an accelerated method based on an expanded order to optimize CR-PNN. The running speed of the structure of CR-PNN II is significantly higher than CR-PNN I under preserving the properties of CR-PNN I. | 翻訳日:2022-11-25 09:08:25 公開日:2020-06-04 |
# 位置、位置、位置:衛星画像に基づく不動産評価 Location, location, location: Satellite image-based real-estate appraisal ( http://arxiv.org/abs/2006.11406v1 ) ライセンス: Link先を確認 | Jan-Peter Kucklick and Oliver M\"uller | (参考訳) 家を買うことは、人々が人生で行わなければならない最も重要な購買判断の1つだ。
不動産評価に関する最近の研究は、構造化データに加えて画像データもモデリングプロセスに取り入れることに焦点を当てている。
本研究では,畳み込みニューラルネットワークを用いて衛星画像と構造化データの予測性能を測定する。
トレーニングされた結果のCNNモデルは、構造化データに基づいてトレーニングされたニューラルネットワークの高度なベースラインよりも、MAEで7%向上する。
さらに,スライディングウインドウ・ヒートマップは,衛星画像の視覚的解釈可能性を提供し,価格推定に周辺構造が不可欠であることを明らかにする。 Buying a home is one of the most important buying decisions people have to make in their life. The latest research on real-estate appraisal focuses on incorporating image data in addition to structured data into the modeling process. This research measures the prediction performance of satellite images and structured data by using convolutional neural networks. The resulting CNN model trained performs 7% better in MAE than the advanced baseline of a neural network trained on structured data. Moreover, sliding-window heatmap provides visual interpretability of satellite images, revealing that neighborhood structures are essential in the price estimation. | 翻訳日:2022-11-25 09:08:11 公開日:2020-06-04 |
# tabu searchアルゴリズムを用いたterra mysticaテーブルトップゲームにおけるマップ生成 Using Tabu Search Algorithm for Map Generation in the Terra Mystica Tabletop Game ( http://arxiv.org/abs/2006.02716v1 ) ライセンス: Link先を確認 | Alexandr Grichshenko, Luiz Jonata Pires de Araujo, Susanna Gimaeva, Joseph Alexander Brown | (参考訳) Tabu Search (TS)メタヒューリスティックは、アルゴリズムが局所最適点から逃れることによって、単純な局所探索アルゴリズム(例えば、最も急勾配の登山)を改善する。
いくつかの組合せ最適化問題に対処するのに有用であることが示されている。
本稿では,TSの性能について検討し,Tabuリストのサイズと周辺地域のサイズがプロシージャコンテンツ生成に与える影響,特にTerra Mysticaと呼ばれる人気のテーブルトップゲーム用マップの生成について考察する。
その結果,提案手法の有効性が検証され,既存のマップを改良したマップを生成する方法が得られた。 Tabu Search (TS) metaheuristic improves simple local search algorithms (e.g. steepest ascend hill-climbing) by enabling the algorithm to escape local optima points. It has shown to be useful for addressing several combinatorial optimization problems. This paper investigates the performance of TS and considers the effects of the size of the Tabu list and the size of the neighbourhood for a procedural content generation, specifically the generation of maps for a popular tabletop game called Terra Mystica. The results validate the feasibility of the proposed method and how it can be used to generate maps that improve existing maps for the game. | 翻訳日:2022-11-25 09:08:02 公開日:2020-06-04 |
# 開放性の重要性(開放性のために) The Importance of Open-Endedness (for the Sake of Open-Endedness) ( http://arxiv.org/abs/2006.03079v1 ) ライセンス: Link先を確認 | Tim Taylor | (参考訳) 先日のArtificial Life Journal Special Issue on Open-ended Evolution (OEE) に掲載された論文は、OEEのすべての提案された要件を満たす単純な進化型計算システムを提示している(Hintze, 2019)。
このシステムの分析と議論は、複雑さと多様性がオープン・エンディネスの重要な特徴であり、「オープン・エンディネスのためのオープン・エンディネスの探求」に携わるよりも、適切な定義を提供することに集中すべきだという主張をさらに支持するために用いられる(Hintze, 2019, pp. 205)。
私は、OEE研究に関して、複雑さと多様性の正確な定義の追求を熱心に支持していますが、OEEがそれ自体で価値のある研究トピックではないという提案を熱心に拒否します。
同誌の同じ号で、進化系におけるオープン・エンディネスの議論と実施を支援するための高レベルの概念的枠組みを提示した(Taylor, 2019)。
現在の短いコントリビューションでは、フレームワークをhinzteのモデルに適用して、その限界を理解しています。
このような中で,オープン・エンディネス研究の重要性を実演する。 A paper in the recent Artificial Life journal special issue on open-ended evolution (OEE) presents a simple evolving computational system that, it is claimed, satisfies all proposed requirements for OEE (Hintze, 2019). Analysis and discussion of the system are used to support the further claims that complexity and diversity are the crucial features of open-endedness, and that we should concentrate on providing proper definitions for those terms rather than engaging in "the quest for open-endedness for the sake of open-endedness" (Hintze, 2019, p. 205). While I wholeheartedly support the pursuit of precise definitions of complexity and diversity in relation to OEE research, I emphatically reject the suggestion that OEE is not a worthy research topic in its own right. In the same issue of the journal, I presented a "high-level conceptual framework to help orient the discussion and implementation of open-endedness in evolutionary systems" (Taylor, 2019). In the current brief contribution I apply my framework to Hinzte's model to understand its limitations. In so doing, I demonstrate the importance of studying open-endedness for the sake of open-endedness. | 翻訳日:2022-11-25 09:07:51 公開日:2020-06-04 |
# ネットワーク認識適応による深部繰り返しニューラルネットワークの神経進化的伝達学習 Neuroevolutionary Transfer Learning of Deep Recurrent Neural Networks through Network-Aware Adaptation ( http://arxiv.org/abs/2006.02655v1 ) ライセンス: Link先を確認 | AbdElRahman ElSaid, Joshua Karns, Alexander Ororbia II, Daniel Krutz, Zimeng Lyu, Travis Desell | (参考訳) 転送学習では、ソースデータセットでトレーニングされた人工ニューラルネットワーク(ann)を、新たなターゲットデータセットに適応させる。
これは非常に強力であることが示されているが、一般的にはアーキテクチャ上の制約によって制限されている。
以前は、annの内部重みと構造を再利用し、適合させるために、タスク間で転送されるanの基盤となるトポロジーは、新しい出力層がアタッチされている間もほとんど同じでなければならず、古い出力層の重みを破棄する。
本研究は,ネットワーク対応型適応型構造伝達学習(N-ASTL)を導入する。
n-astlは、新しい入力および出力ニューロンが既存の構造にどのように統合されるかを伝えるために、ソースネットワークのトポロジーおよび重み分布に関連する統計情報を利用する。
結果は、これまで不可能だった実世界のデータセットの転送機能や、転送なしでトレーニングされたRNNに対する一般化の改善など、従来の最先端よりも改善されたことを示している。 Transfer learning entails taking an artificial neural network (ANN) that is trained on a source dataset and adapting it to a new target dataset. While this has been shown to be quite powerful, its use has generally been restricted by architectural constraints. Previously, in order to reuse and adapt an ANN's internal weights and structure, the underlying topology of the ANN being transferred across tasks must remain mostly the same while a new output layer is attached, discarding the old output layer's weights. This work introduces network-aware adaptive structure transfer learning (N-ASTL), an advancement over prior efforts to remove this restriction. N-ASTL utilizes statistical information related to the source network's topology and weight distribution in order to inform how new input and output neurons are to be integrated into the existing structure. Results show improvements over prior state-of-the-art, including the ability to transfer in challenging real-world datasets not previously possible and improved generalization over RNNs trained without transfer. | 翻訳日:2022-11-25 09:07:06 公開日:2020-06-04 |
# エクストリーム学習マシンに基づくQ-Networksの新しい更新メカニズム A Novel Update Mechanism for Q-Networks Based On Extreme Learning Machines ( http://arxiv.org/abs/2006.02986v1 ) ライセンス: Link先を確認 | Callum Wilson, Annalisa Riccardi, Edmondo Minisci | (参考訳) 強化学習は、複雑な問題に対する最適な解決策を見つけることができる一般的な機械学習パラダイムである。
多くの場合、これらの手順は、検討中の問題の重み付けを最適化するために勾配に基づく更新を伴うニューラルネットワークを用いた関数近似を伴う。
この一般的なアプローチは一般的にうまく機能するが、強化学習ではほとんど探索されていない他の更新メカニズムがある。
そのようなメカニズムのひとつがExtreme Learning Machinesである。
これらは当初、ニューラルネットワークのトレーニング速度を大幅に改善するために提案され、その後多くの応用が見られた。
ここでは、勾配に基づく更新と同じ方法で強化学習問題に極端な学習機械を適用しようとする。
このアルゴリズムはExtreme Q-Learning Machine (EQLM)と呼ばれる。
その性能をカートポールタスク(ベンチマーク強化学習問題)の典型的なqネットワークと比較し、eqlmがqネットワークと同様の長期学習性能を示す。 Reinforcement learning is a popular machine learning paradigm which can find near optimal solutions to complex problems. Most often, these procedures involve function approximation using neural networks with gradient based updates to optimise weights for the problem being considered. While this common approach generally works well, there are other update mechanisms which are largely unexplored in reinforcement learning. One such mechanism is Extreme Learning Machines. These were initially proposed to drastically improve the training speed of neural networks and have since seen many applications. Here we attempt to apply extreme learning machines to a reinforcement learning problem in the same manner as gradient based updates. This new algorithm is called Extreme Q-Learning Machine (EQLM). We compare its performance to a typical Q-Network on the cart-pole task - a benchmark reinforcement learning problem - and show EQLM has similar long-term learning performance to a Q-Network. | 翻訳日:2022-11-25 09:06:46 公開日:2020-06-04 |
# リニア整流器におけるオーバーフィッティングの克服と大重量更新問題:しきい値付き指数的整流線形単位 Overcoming Overfitting and Large Weight Update Problem in Linear Rectifiers: Thresholded Exponential Rectified Linear Units ( http://arxiv.org/abs/2006.02797v1 ) ライセンス: Link先を確認 | Vijay Pandey | (参考訳) 過去数年間、線形整流単位活性化関数はニューラルネットワークにおいてその重要性を示し、sgmoidアクティベーションの性能を上回っている。
RELU (Nair & Hinton, 2010), ELU (Clevert et al., 2015), PRELU (He et al., 2015), LRELU (Maas et al., 2013), SRELU (Jin et al., 2016), ThresholdedRELU, これらの線形整形活性化関数は、ある点において他の点よりもそれぞれ重要である。
これらのアクティベーション関数はほとんどの場合、ゼロでない出力平均によるバイアスシフト問題や、単位勾配による深層ネットワークの重み付き更新問題に悩まされ、トレーニングが遅くなり、モデル予測のばらつきが高まる。
本稿では,過剰適合の軽減に有効である「三値指数整合線形単位」(TERELU)の活性化関数を提案する。
オーバーフィッティング問題の緩和とともに、この方法は他の線形整流器と比較して十分な非線形性を与える。
我々は,他のアクティベーションと比較して,TERELUアクティベーション法を考慮し,ニューラルネットワークを用いた各種データセットの性能向上を示す。 In past few years, linear rectified unit activation functions have shown its significance in the neural networks, surpassing the performance of sigmoid activations. RELU (Nair & Hinton, 2010), ELU (Clevert et al., 2015), PRELU (He et al., 2015), LRELU (Maas et al., 2013), SRELU (Jin et al., 2016), ThresholdedRELU, all these linear rectified activation functions have its own significance over others in some aspect. Most of the time these activation functions suffer from bias shift problem due to non-zero output mean, and high weight update problem in deep complex networks due to unit gradient, which results in slower training, and high variance in model prediction respectively. In this paper, we propose, "Thresholded exponential rectified linear unit" (TERELU) activation function that works better in alleviating in overfitting: large weight update problem. Along with alleviating overfitting problem, this method also gives good amount of non-linearity as compared to other linear rectifiers. We will show better performance on the various datasets using neural networks, considering TERELU activation method compared to other activations. | 翻訳日:2022-11-25 08:59:28 公開日:2020-06-04 |
# 高精度マルチモーダル予測における事前知識の重要性 The Importance of Prior Knowledge in Precise Multimodal Prediction ( http://arxiv.org/abs/2006.02636v1 ) ライセンス: Link先を確認 | Sergio Casas, Cole Gulino, Simon Suo, Raquel Urtasun | (参考訳) 道路にはよく定義された地形、地形、交通規則がある。
これは、運動計画法において、この法則に従う操作を生み出すために広く利用されてきたが、知覚と運動予測の手法でこれらを活用しようとする努力は少ない。
本稿では,これら構造化前処理を損失関数として取り入れる。
厳しい制約を課すのとは対照的に、このアプローチでは、現実の世界で発生するような非コンプライアンスな操作をモデルが処理できる。
安全な運動計画が最終目標であり、それによってシーンの将来的な発展の確率論的特徴が、最小のコストで計画を選択する鍵となる。
この目標に向けて,確率モデルからのサンプルトラジェクタよりも,非微分可能な優先事項を取り込むために強化を利用するフレームワークを設計し,分布全体を最適化する。
複雑な道路トポロジとマルチエージェントインタラクションを含む実世界の自動運転データセットに対するアプローチの有効性を示す。
私たちの動き予測は、より良い精度と地図理解を示すだけでなく、最も重要なことは自動運転車による安全な動き計画をもたらす。
この評価の重要性にもかかわらず、従来の知覚や動き予測の作業では見過ごされがちである。 Roads have well defined geometries, topologies, and traffic rules. While this has been widely exploited in motion planning methods to produce maneuvers that obey the law, little work has been devoted to utilize these priors in perception and motion forecasting methods. In this paper we propose to incorporate these structured priors as a loss function. In contrast to imposing hard constraints, this approach allows the model to handle non-compliant maneuvers when those happen in the real world. Safe motion planning is the end goal, and thus a probabilistic characterization of the possible future developments of the scene is key to choose the plan with the lowest expected cost. Towards this goal, we design a framework that leverages REINFORCE to incorporate non-differentiable priors over sample trajectories from a probabilistic model, thus optimizing the whole distribution. We demonstrate the effectiveness of our approach on real-world self-driving datasets containing complex road topologies and multi-agent interactions. Our motion forecasts not only exhibit better precision and map understanding, but most importantly result in safer motion plans taken by our self-driving vehicle. We emphasize that despite the importance of this evaluation, it has been often overlooked by previous perception and motion forecasting works. | 翻訳日:2022-11-25 08:59:01 公開日:2020-06-04 |
# 貯水池計算ニューラルネットワークのスパーシティ Sparsity in Reservoir Computing Neural Networks ( http://arxiv.org/abs/2006.02957v1 ) ライセンス: Link先を確認 | Claudio Gallicchio | (参考訳) リザーバコンピューティング(reservation computing、rc)は、リカレントニューラルネットワークを設計するためのよく知られた戦略である。
RCの重要な側面は、システムに動的メモリとして機能する隠されたリカレント層を適切にインスタンス化することです。
この点で、一般的なレシピはランダムで疎結合なリカレントニューロンのプールを作ることである。
rcシステム設計におけるスパーシティの側面は文献で議論されているが、現在では分散行列演算を利用して計算効率を向上させる方法として主に理解されている。
本稿では,発達した時間表現の豊かさの観点から,RCネットワーク設計における空間性の役割を実証的に検討する。
我々は、繰り返し接続における疎度と、入力から貯留層への接続について解析する。
以上の結果から,特にインプット/リサーボ接続における空間性は,過去のインプットの短期記憶と高次元の長期記憶を持つ内部時間表現の発達において重要な役割を担っていることが示唆された。 Reservoir Computing (RC) is a well-known strategy for designing Recurrent Neural Networks featured by striking efficiency of training. The crucial aspect of RC is to properly instantiate the hidden recurrent layer that serves as dynamical memory to the system. In this respect, the common recipe is to create a pool of randomly and sparsely connected recurrent neurons. While the aspect of sparsity in the design of RC systems has been debated in the literature, it is nowadays understood mainly as a way to enhance the efficiency of computation, exploiting sparse matrix operations. In this paper, we empirically investigate the role of sparsity in RC network design under the perspective of the richness of the developed temporal representations. We analyze both sparsity in the recurrent connections, and in the connections from the input to the reservoir. Our results point out that sparsity, in particular in input-reservoir connections, has a major role in developing internal temporal representations that have a longer short-term memory of past inputs and a higher dimension. | 翻訳日:2022-11-25 08:58:42 公開日:2020-06-04 |
# 注意機構を備えたSeq2Seq AIチャットボット Seq2Seq AI Chatbot with Attention Mechanism ( http://arxiv.org/abs/2006.02767v1 ) ライセンス: Link先を確認 | Abonia Sojasingarayar | (参考訳) 人工知能や機械学習技術を用いたインテリジェントな会話エージェントの開発は、自然言語処理の分野で興味深い問題である。
ディープラーニングの台頭に伴い、これらのモデルはすぐにエンドツーエンドのトレーニング可能なニューラルネットワークに置き換えられた。 Intelligent Conversational Agent development using Artificial Intelligence or Machine Learning technique is an interesting problem in the field of Natural Language Processing. With the rise of deep learning, these models were quickly replaced by end to end trainable neural networks. | 翻訳日:2022-11-25 08:58:05 公開日:2020-06-04 |
# 転写臨床面接の抑うつ検出に応用した階層型ネットワークに対する影響条件付け Affective Conditioning on Hierarchical Networks applied to Depression Detection from Transcribed Clinical Interviews ( http://arxiv.org/abs/2006.08336v1 ) ライセンス: Link先を確認 | D. Xezonaki, G. Paraskevopoulos, A. Potamianos, S. Narayanan | (参考訳) 本研究では, 臨床面接からうつ病検出のための機械学習モデルを提案する。
うつ病は、被験者の気分だけでなく、言語の使用にも影響を及ぼす精神障害である。
この目的のために,階層的注意ネットワークを用いて抑うつ者の面接を分類する。
我々は,情緒的レキシカから抽出した言語的特徴の条件付け機構により,モデルの注意層を増強する。
分析の結果,うつ病と診断された人は,非うつ病よりも感情言語を多く用いていることがわかった。
実験の結果, 一般心理療法コーパスとDAIC-WoZ 2017うつ病データセットにおいて, 外部情緒情報により, それぞれ71.6点, 68.6点のF1値が得られた。 In this work we propose a machine learning model for depression detection from transcribed clinical interviews. Depression is a mental disorder that impacts not only the subject's mood but also the use of language. To this end we use a Hierarchical Attention Network to classify interviews of depressed subjects. We augment the attention layer of our model with a conditioning mechanism on linguistic features, extracted from affective lexica. Our analysis shows that individuals diagnosed with depression use affective language to a greater extent than not-depressed. Our experiments show that external affective information improves the performance of the proposed architecture in the General Psychotherapy Corpus and the DAIC-WoZ 2017 depression datasets, achieving state-of-the-art 71.6 and 68.6 F1 scores respectively. | 翻訳日:2022-11-25 08:58:02 公開日:2020-06-04 |
# 微分可能な線形バンディットアルゴリズム Differentiable Linear Bandit Algorithm ( http://arxiv.org/abs/2006.03000v1 ) ライセンス: Link先を確認 | Kaige Yang and Laura Toni | (参考訳) アッパー信頼境界 (UCB) は、線形多腕バンディット問題において最もよく用いられる手法である。
概念的にも計算的にも単純であるが、この手法は信頼境界に強く依存しており、これらの境界が適切に設定されていない場合、最適な探索・探索を行えない。
文献では、信頼境界は典型的には、報酬分布の仮定に基づく濃度不等式(例えば、サブガウシアン性)から導かれる。
しかし、これらの仮定の妥当性は実際には不明である。
本研究では,データ駆動方式の信頼性を学習し,実際の問題構造に適応させることを目的とする。
具体的には、既存のucb型アルゴリズムが信頼度境界に関して微分可能ではないことを指摘し、まず新しい微分可能線形バンディットアルゴリズムを提案する。
次に勾配推定器を導入し、勾配上昇を通じて信頼度を学習できるようにする。
理論的には、提案アルゴリズムが$\tilde{\mathcal{O}}(\hat{\beta}\sqrt{dT})$上界の$T$の後悔を達成し、$d$は腕の特徴の次元であり、$\hat{\beta}$は信頼境界の学習されたサイズであることを示す。
実験の結果、$\hat{\beta}$は理論上界よりもかなり小さく、提案アルゴリズムはシミュレーションと実世界の両方のデータセットでベースラインよりも優れていることがわかった。 Upper Confidence Bound (UCB) is arguably the most commonly used method for linear multi-arm bandit problems. While conceptually and computationally simple, this method highly relies on the confidence bounds, failing to strike the optimal exploration-exploitation if these bounds are not properly set. In the literature, confidence bounds are typically derived from concentration inequalities based on assumptions on the reward distribution, e.g., sub-Gaussianity. The validity of these assumptions however is unknown in practice. In this work, we aim at learning the confidence bound in a data-driven fashion, making it adaptive to the actual problem structure. Specifically, noting that existing UCB-typed algorithms are not differentiable with respect to confidence bound, we first propose a novel differentiable linear bandit algorithm. Then, we introduce a gradient estimator, which allows the confidence bound to be learned via gradient ascent. Theoretically, we show that the proposed algorithm achieves a $\tilde{\mathcal{O}}(\hat{\beta}\sqrt{dT})$ upper bound of $T$-round regret, where $d$ is the dimension of arm features and $\hat{\beta}$ is the learned size of confidence bound. Empirical results show that $\hat{\beta}$ is significantly smaller than its theoretical upper bound and proposed algorithms outperforms baseline ones on both simulated and real-world datasets. | 翻訳日:2022-11-25 08:57:46 公開日:2020-06-04 |
# SIDU: 説明可能なAIの類似性と特異性 SIDU: Similarity Difference and Uniqueness Method for Explainable AI ( http://arxiv.org/abs/2006.03122v1 ) ライセンス: Link先を確認 | Satya M. Muddamsetty, Mohammad N. S. Jahromi, Thomas B. Moeslund | (参考訳) 新しいブランドの技術的人工知能(説明可能なAI)の研究は、ブラックボックスのオープン化と説明可能性の提供に注力している。
本稿では,対象領域全体を効果的にローカライズできるサリエンシーマップという形で,深層学習ネットワークの視覚的な説明手法を提案する。
現在の最先端の手法とは対照的に、提案手法は有望な視覚的な説明を示し、人間の専門家の信頼を高めることができる。
提案手法の有効性を確認するために, 一般および臨床データから定量的, 質的評価を行った。 A new brand of technical artificial intelligence ( Explainable AI ) research has focused on trying to open up the 'black box' and provide some explainability. This paper presents a novel visual explanation method for deep learning networks in the form of a saliency map that can effectively localize entire object regions. In contrast to the current state-of-the art methods, the proposed method shows quite promising visual explanations that can gain greater trust of human expert. Both quantitative and qualitative evaluations are carried out on both general and clinical data sets to confirm the effectiveness of the proposed method. | 翻訳日:2022-11-25 08:57:21 公開日:2020-06-04 |
# GANトレーニングのための画像強化 Image Augmentations for GAN Training ( http://arxiv.org/abs/2006.02595v1 ) ライセンス: Link先を確認 | Zhengli Zhao, Zizhao Zhang, Ting Chen, Sameer Singh, Han Zhang | (参考訳) データ拡張は、分類器の精度と堅牢性を改善するために広く研究されている。
しかし, 画像合成のためのGANモデルの改良における画像増強の可能性は, これまでは十分に研究されていない。
本研究は, GANトレーニングにおける既存の強化手法の有効性を, 様々な環境で体系的に検討する。
我々は,バニラGANとGANの両画像の正規化に関する洞察とガイドラインを提供し,生成した画像の忠実度を大幅に向上させる。
驚いたことに、実際の画像と生成された画像の両方で拡張を使用すると、バニラGANは最近の最先端の結果と同等に生成品質が得られる。
このGANトレーニングと、対照的な損失や一貫性の正則化といった、他の拡張ベースの正則化技術が組み合わさると、増大は生成画像の品質をさらに向上する。
我々は,CIFAR-10上での条件生成について,整合性損失とコントラスト損失の両方を付加正規化として検討した。 Data augmentations have been widely studied to improve the accuracy and robustness of classifiers. However, the potential of image augmentation in improving GAN models for image synthesis has not been thoroughly investigated in previous studies. In this work, we systematically study the effectiveness of various existing augmentation techniques for GAN training in a variety of settings. We provide insights and guidelines on how to augment images for both vanilla GANs and GANs with regularizations, improving the fidelity of the generated images substantially. Surprisingly, we find that vanilla GANs attain generation quality on par with recent state-of-the-art results if we use augmentations on both real and generated images. When this GAN training is combined with other augmentation-based regularization techniques, such as contrastive loss and consistency regularization, the augmentations further improve the quality of generated images. We provide new state-of-the-art results for conditional generation on CIFAR-10 with both consistency loss and contrastive loss as additional regularizations. | 翻訳日:2022-11-25 08:57:12 公開日:2020-06-04 |