このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200514となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 磁気光学トラップにおけるSawtooth Wave Adiabatic Passage Sawtooth Wave Adiabatic Passage in a Magneto-Optical Trap ( http://arxiv.org/abs/2001.07770v2 ) ライセンス: Link先を確認 | John P. Bartolotta and Murray J. Holland | (参考訳) 1次元磁気光学トラップ(MOT)におけるSawtooth Wave Adiabatic Passage(SWAP)の適用について理論的に検討する。
これまで議論されてきた方法とは対照的に, 本手法では, 励起吸収過程と放出過程の繰り返しサイクルを利用してトラップと冷却を両立させ, 光子散乱による悪影響を低減した。
具体的には、同じ狭い線幅遷移を利用した従来のmot法と比較して、自発的に放出される光子が少なく、高い力と少ない時間で粒子を冷やし、遅くし、捕獲する能力を示す。
達成可能な位相空間圧縮を計算し,結果の平衡雲の大きさと温度を特徴付ける。 We investigate theoretically the application of Sawtooth Wave Adiabatic Passage (SWAP) in a 1D magneto-optical trap (MOT). As opposed to related methods that have been previously discussed, our approach utilizes repeated cycles of stimulated absorption and emission processes to achieve both trapping and cooling, thereby reducing the adverse effects that arise from photon scattering. Specifically, we demonstrate this method's ability to cool, slow, and trap particles with fewer spontaneously emitted photons, higher forces and in less time when compared to a traditional MOT scheme that utilizes the same narrow linewidth transition. We calculate the phase space compression that is achievable and characterize the resulting system equilibrium cloud size and temperature. | 翻訳日:2023-06-06 09:01:12 公開日:2020-05-14 |
# 有限サイズ均一イオン鎖の焼成過程における欠陥発生とダイナミクス Defect generation and dynamics during quenching in finite size homogeneous ion chains ( http://arxiv.org/abs/2001.09586v2 ) ライセンス: Link先を確認 | J. Pedregosa-Gutierrez and M. Mukherjee | (参考訳) イオンの等間隔線型鎖は有限サイズの1D系の欠陥形成を研究するためのテストベッドを提供する。
特に、線型構造からジグザグ構造への位相相転移に関連する欠陥形成が注目されている。
半経験的表現は、数値結果に優れた一致を与える。
30イオンの有限サイズの系に対する鎖とジグザグの位相の間の非断熱遷移は、非一様分布のイオン鎖と明確な区別を示す。
したがって、基盤となる均質なkibble-zurekモデルは、現在アクセス可能なイオントラップ実験でテストすることができる。
さらに,相関長測定により集団的欠陥行動が出現することを示す。 An equally spaced linear chain of ions provides a test-bed for studying the defect formation in a finite size 1D system. In particular, defect formation related to topological phase transition from a linear configuration to a zig-zag one is of interest here. A semi-empirical expression provides an excellent agreement to the numerical results. The non-adiabatic transition between the chain and zig-zag topologies for a finite size system of 30 ions shows clear distinction from non-uniformly distributed ion chain. Thus the underlying Homogeneous Kibble-Zurek model can be tested in presently accessible ion trap experiments. Furthermore, our study indicates collective defect behaviour appearing through the correlation length measurements. | 翻訳日:2023-06-05 11:50:40 公開日:2020-05-14 |
# Bose-Hubbardモデルにおける多体局在--モビリティエッジの証拠 Many-body localization in Bose-Hubbard model: evidence for the mobility edge ( http://arxiv.org/abs/2002.00381v2 ) ライセンス: Link先を確認 | Ruixiao Yao and Jakub Zakrzewski | (参考訳) 準一次元光学格子における相互作用ボソンに関する最近の実験 [nature {\bf 573}, 385 (2019)] により、非局在状態と局所状態との交差における系の理論的性質を解析した。
初期状態のような均一波と密度波の時間ダイナミクスの比較は、モビリティエッジの存在の実証を可能にする。
この目的のために、観測可能な新しい平均輸送速度を定義する。
これにより、クロスオーバーの臨界障害を効率的に見積もることができます。
また, システムのエッジ近傍における占有変動の平均速度増加は, 同様の情報を持っていることを示した。
量子クエンチ法を用いて,異なるエネルギーの移動性エッジを探索できることを示す。 Motivated by recent experiments on interacting bosons in quasi-one-dimensional optical lattice [Nature {\bf 573}, 385 (2019)] we analyse theoretically properties of the system in the crossover between delocalized and localized regimes. Comparison of time dynamics for uniform and density wave like initial states enables demonstration of the existence of the mobility edge. To this end we define a new observable, the mean speed of transport at long times. It gives us an efficient estimate of the critical disorder for the crossover. We also show that the mean velocity growth of occupation fluctuations close to the edges of the system carries the similar information. Using the quantum quench procedure we show that it is possible to probe the mobility edge for different energies. | 翻訳日:2023-06-05 00:28:46 公開日:2020-05-14 |
# クリックカウントデータから非古典性を特定するニューラルネットワークアプローチ Neural-network approach for identifying nonclassicality from click-counting data ( http://arxiv.org/abs/2003.01605v2 ) ライセンス: Link先を確認 | Valentin Gebhart, Martin Bohmann | (参考訳) 機械学習とニューラルネットワークのアプローチは、近年量子科学とテクノロジーの文脈で大きな注目を集めている。
量子技術の今後の発展に欠かせない課題の1つは、非古典的資源の検証である。
本稿では,記録された測定統計に基づく光非古典状態の同定のためのニューラルネットワーク手法を提案する。
特に,多重検出器で記録されたクリック統計に基づいて非古典的状態を認識可能なネットワークを実装し,学習する。
ネットワークのトレーニングとテストにはシミュレーションデータを使用し,訓練段階では使用していなかった場合でも,非古典的な状態を識別できることを示した。
特にサンプルサイズが小さい場合には,実験データやオンラインアプリケーションの事前ソートにおける応用可能性を示す,確立された基準よりも非古典性の識別に敏感である。 Machine-learning and neural-network approaches have gained huge attention in the context of quantum science and technology in recent years. One of the most essential tasks for the future development of quantum technologies is the verification of nonclassical resources. Here, we present an artificial neural network approach for the identification of nonclassical states of light based on recorded measurement statistics. In particular, we implement and train a network which is capable of recognizing nonclassical states based on the click statistics recorded with multiplexed detectors. We use simulated data for training and testing the network, and we show that it is capable of identifying some nonclassical states even if they were not used in the training phase. Especially, in the case of small sample sizes, our approach can be more sensitive in identifying nonclassicality than established criteria which suggests possible applications in presorting of experimental data and online applications. | 翻訳日:2023-05-31 07:29:10 公開日:2020-05-14 |
# 外部2レベルエミッタによる共振駆動Jaynes-Cummings発振器のモニタリング:ケースドオープン系アプローチ Monitoring the resonantly driven Jaynes-Cummings oscillator by an external two-level emitter: A cascaded open-systems approach ( http://arxiv.org/abs/2004.03242v2 ) ライセンス: Link先を確認 | Themistoklis K. Mavrogordatos and Jonas Larson | (参考訳) 異なる空間領域で同じ貯水池に接続された2つのカスケード開量子サブシステムの一方向結合におけるバックアクションの結果に対処する。
H. J. Carmichael, Phys. Rev. Lett. 70, 2273 (1993)] の精神では、第2サブシステムは2レベル原子であり、一方第1サブシステムは駆動空洞から摂動QED構成に変換され、最終的には様々な光-物質結合強度によって駆動されたJaynes-Cummings (JC) 発振器へと変換される。
我々の目的のために、我々はまず、観測された出力を含む2つのチャネル(前方散乱と横散乱)に沿って放射される放射の統計的記述における共鳴蛍光の特性に訴える。
外部原子に結合した空洞の最も単純な場合において、2つのチャネルを占有するフィールドの非古典的変動の解析結果を導出し、より関係のある力学を説明するためのガイドとしてJCモデルの悪キャビティ限界への写像を追求する。
最後に, 臨界JC発振器の共振系を外部モニタされた2レベルターゲットに結合した共振系に対して, ターゲットのコヒーレントな原子振動が源の2次散逸量子位相遷移の開始をプローブすることを示す条件付き進化を例示する。 We address the consequences of backaction in the unidirectional coupling of two cascaded open quantum subsystems connected to the same reservoir at different spatial locations. In the spirit of [H. J. Carmichael, Phys. Rev. Lett. 70, 2273 (1993)], the second subsystem is a two-level atom, while the first transforms from a driven empty cavity to a perturbative QED configuration and ultimately to a driven Jaynes-Cummings (JC) oscillator through a varying light-matter coupling strength. For our purpose, we appeal at first to the properties of resonance fluorescence in the statistical description of radiation emitted along two channels -- those of forwards and sideways scattering -- comprising the monitored output. In the simplest case of an empty cavity coupled to an external atom, we derive analytical results for the nonclassical fluctuations in the fields occupying the two channels, pursuing a mapping to the bad-cavity limit of the JC model to serve as a guide for the description of the more involved dynamics. Finally, we exemplify a conditional evolution for the composite system of a critical JC oscillator on resonance coupled to an external monitored two-level target, showing that coherent atomic oscillations of the target probe the onset of a second-order dissipative quantum phase transition in the source. | 翻訳日:2023-05-26 04:19:56 公開日:2020-05-14 |
# キャビティ計測における熱変調ノイズ Thermal intermodulation noise in cavity-based measurements ( http://arxiv.org/abs/2004.05700v3 ) ライセンス: Link先を確認 | Sergey A. Fedorov, Alberto Beccari, Amirali Arabmoheghi, Dalziel J. Wilson, Nils J. Engelsen, Tobias J. Kippenberg | (参考訳) 光キャビティにおける熱周波数変動は、重力波観測から光原子時計まで、精密実験の感度を制限する。
これらのノイズの従来のモデリングは、共振器周波数の変動に対する光学場の線形応答を仮定する。
しかし、基本的にこの反応は非線形である。
本稿では,キャビティ周波数の非線形変換熱揺らぎが,キャビティ線幅よりもゆらぎの大きさがはるかに小さい場合でも,光検出における広帯域ノイズを支配できることを示す。
このノイズを「熱間変調ノイズ」と呼び、共鳴レーザープローブでは強度変動として現れることを示す。
機械ブラウン運動によって周波数ゆらぎが引き起こされる光機械的キャビティにおける熱的相互変調ノイズを報告・特性評価し,開発した理論モデルと良好に一致した。
フォノン結晶$Si_3N_4$膜を低質量軟クランプのメカニカルモードで使用することで、測定量子バックアクションが熱環境に匹敵する多くの力ノイズに寄与する仕組みで操作できることを実証する。
しかし、変調ノイズの存在下では、直接光検出器では測定の量子シグネチャは明らかにされない。
報告されたノイズメカニズムは、オプトメカニカルシステムのために研究されているが、どんな光学キャビティにも存在することができる。 Thermal frequency fluctuations in optical cavities limit the sensitivity of precision experiments ranging from gravitational wave observatories to optical atomic clocks. Conventional modeling of these noises assumes a linear response of the optical field to the fluctuations of cavity frequency. Fundamentally, however, this response is nonlinear. Here we show that nonlinearly transduced thermal fluctuations of cavity frequency can dominate the broadband noise in photodetection, even when the magnitude of fluctuations is much smaller than the cavity linewidth. We term this noise "thermal intermodulation noise" and show that for a resonant laser probe it manifests as intensity fluctuations. We report and characterize thermal intermodulation noise in an optomechanical cavity, where the frequency fluctuations are caused by mechanical Brownian motion, and find excellent agreement with our developed theoretical model. We demonstrate that the effect is particularly relevant to quantum optomechanics: using a phononic crystal $Si_3N_4$ membrane with a low mass, soft-clamped mechanical mode we are able to operate in the regime where measurement quantum backaction contributes as much force noise as the thermal environment does. However, in the presence of intermodulation noise, quantum signatures of measurement are not revealed in direct photodetectors. The reported noise mechanism, while studied for an optomechanical system, can exist in any optical cavity. | 翻訳日:2023-05-25 02:19:00 公開日:2020-05-14 |
# 超伝導量子計算プラットフォームにおける異なるパラメトリック2量子ビットゲートの雑音感度のベンチマーク Benchmarking the noise sensitivity of different parametric two-qubit gates in a single superconducting quantum computing platform ( http://arxiv.org/abs/2005.05696v2 ) ライセンス: Link先を確認 | M. Ganzhorn, G. Salis, D. J. Egger, A. Fuhrer, M. Mergenthaler, C. M\"uller, P. M\"uller, S. Paredes, M. Pechal, M. Werninghaus, S. Filipp | (参考訳) 単一の量子コンピューティングプラットフォーム上で異なるタイプの2量子ゲートを利用できることは、量子アルゴリズムの分解に柔軟性をもたらす。
より大きなハードウェアネイティブゲートセットは、すべてのゲートが高い忠実度で実現されるように、必要なゲートの数を減らすことができる。
ここでは、2つの超伝導量子ビット間の相互作用を媒介するパラメトリック駆動可変結合器を用いて、制御Z(CZ)と交換型(iSWAP)の両ゲートをベンチマークする。
ランダム化ベンチマークプロトコルを用いて、各ゲート当たりの誤差をそれぞれ0.9\pm0.03\%$ と1.3\pm0.4\%$ と推定する。
我々は、ZZ$型結合がiSWAPゲートの主要なエラー源であり、すべてのマイクロ波ドライブの位相安定性が最も重要であると主張している。
量子アルゴリズムを実際のハードウェアにマッピングする場合、異なる2量子ビットゲートの達成可能なフィデリティの違いを考慮する必要がある。 The possibility to utilize different types of two-qubit gates on a single quantum computing platform adds flexibility in the decomposition of quantum algorithms. A larger hardware-native gate set may decrease the number of required gates, provided that all gates are realized with high fidelity. Here, we benchmark both controlled-Z (CZ) and exchange-type (iSWAP) gates using a parametrically driven tunable coupler that mediates the interaction between two superconducting qubits. Using randomized benchmarking protocols we estimate an error per gate of $0.9\pm0.03\%$ and $1.3\pm0.4\%$ fidelity for the CZ and the iSWAP gate, respectively. We argue that spurious $ZZ$-type couplings are the dominant error source for the iSWAP gate, and that phase stability of all microwave drives is of utmost importance. Such differences in the achievable fidelities for different two-qubit gates have to be taken into account when mapping quantum algorithms to real hardware. | 翻訳日:2023-05-20 11:47:58 公開日:2020-05-14 |
# 量子力学はてんかんの制約下における推定法である Quantum mechanics is a calculus for estimation under epistemic restriction ( http://arxiv.org/abs/2005.06745v1 ) ライセンス: Link先を確認 | Agung Budiyono | (参考訳) 古典力学とは異なり、位置の許容分布が基礎となる運動量場によって根本的に制限されるような認識論的制約を持つ統計モデルを考える。
共役位置に関する情報を与えられた運動量場を推定したいエージェント(observer)を仮定する。
量子力学の抽象的数学的規則を導出できる平均二乗誤差を最小化する運動量場の古典的一貫性、弱い偏りのない最適推定について考察する。
その結果、量子波動関数は現実の客観的なエージェント非依存の属性ではなく、認識論的制約下での運動量に対するエージェントの最適推定値であることが示唆された。
運動量場と位置の量子的不確実性と相補性は、運動量場の同時推定における平均二乗誤差と平均位置とのトレードオフから、ガウス波関数は、関連する平均二乗誤差のCram\'er-Rao境界を達成し、同時に効率的に推定する。
次に,実験環境に関する情報を与えられたエージェントが推定値を更新するための規範的ルールとして,ユニタリ時間発展と波動関数の崩壊を論じる。 Consider a statistical model with an epistemic restriction such that, unlike in classical mechanics, the allowed distribution of positions is fundamentally restricted by the form of an underlying momentum field. Assume an agent (observer) who wishes to estimate the momentum field given information on the conjugate positions. We discuss a classically consistent, weakly unbiased, best estimation of the momentum field minimizing the mean squared error, based on which the abstract mathematical rules of quantum mechanics can be derived. The results suggest that quantum wave function is not an objective agent-independent attribute of reality, but represents the agent's best estimation of the momentum, given the positions, under epistemic restriction. Quantum uncertainty and complementarity between momentum and position find their epistemic origin from the trade-off between the mean squared errors of simultaneous estimations of momentum field and mean position, with the Gaussian wave function represents the simultaneous efficient estimations, achieving the Cram\'er-Rao bounds of the associated mean squared errors. We then argue that unitary time evolution and wave function collapse in measurement are normative rules for an agent to update her/his estimation given information on the experimental settings. | 翻訳日:2023-05-20 05:47:21 公開日:2020-05-14 |
# 不規則結合空洞における偏光子ダイマーのダイナミクス The dynamics of a polariton dimer in a disordered coupled array of cavities ( http://arxiv.org/abs/2005.06708v1 ) ライセンス: Link先を確認 | Abuenameh Aiyejina and Roger Andrews | (参考訳) ボース・ハッバード・ハミルトニアンによって記述された4レベル原子のアンサンブルを含む20のキャビティ配列の暗状態偏光子のダイナミクスに及ぼすレーザー強度の異常の影響について検討した。
キャビティの1つに1つまたは2つのポラリトンを持つ状態から始まるキャビティにおけるポラリトン数の進化について検討する。
レーザー強度に障害のない単一偏光子の場合、偏光子の波動関数を計算し、時間とともに初期空洞から分散することを示した。
障害を付加すると、波動関数の分散を最小限に抑えることができる。
ホッピング強度比20のオンサイト反発を持つ2つの分極子の場合、分極子は反発結合状態または二量体を形成する。
乱れなくして、ディマー波動関数は単一のポラリトン波動関数と同様に分散するが、長期間にわたって分散する。
十分に強い障害が加わり、ポラリトン二量体の局在が決定される。
局在長は指数 -1.31 のパワー則によって記述される。
また、障害を切り替えることで、任意の時刻にダイマーをローカライズできることも分かりました。 We investigate the effect of disorder in the laser intensity on the dynamics of dark-state polaritons in an array of 20 cavities, each containing an ensemble of four-level atoms that is described by a Bose-Hubbard Hamiltonian. We examine the evolution of the polariton number in the cavities starting from a state with either one or two polaritons in one of the cavities. For the case of a single polariton without disorder in the laser intensity, we calculate the wavefunction of the polariton and find that it disperses away from the initial cavity with time. The addition of disorder results in minimal suppression of the dispersal of the wavefunction. In the case of two polaritons with an on-site repulsion to hopping strength ratio of 20, we find that the polaritons form a repulsively bound state or dimer. Without disorder the dimer wavefunction disperses similarly to the single polariton wavefunction but over a longer time period. The addition of sufficiently strong disorder results in localization of the polariton dimer. The localization length is found to be described by a power law with exponent -1.31. We also find that we can localise the dimer at any given time by switching on the disorder. | 翻訳日:2023-05-20 05:46:44 公開日:2020-05-14 |
# 需要に対するハイブリッドエンタングル状態とcvエンタングル状態の受領 Receipt of hybrid entangled and CV entangled states on demand ( http://arxiv.org/abs/2005.06849v1 ) ライセンス: Link先を確認 | Sergey A. Podoshvedov and Mikhail S. Podoshvedov | (参考訳) 本稿では, 連続変数 (CV) 状態のみからなるハイブリッド・コンタングル状態の生成に対する新しいアプローチを提案する。
任意のビームスプリッタ(BS)上の非局在化された単光子と、後続の補助モードにおける測定結果の登録とを混合する。
絡み合った状態は、任意の事象が補助モードで測定されるたびに生成される。
負性は絡み合いの尺度として用いられる。
ある初期設定条件の下では、条件付き状態は可能な限り絡み合う。
新しいタイプのCV状態が導入された。
このアプローチは、複雑な量子ネットワークを実装するために拡張することができる。 We propose a new approach to the generation of entangled states, both hybrid and consisting exclusively of continuous variable (CV) states. A single mode squeezed vacuum is mixed with a delocalized single photon on arbitrary beam splitter (BS) with subsequent registration of some measurement outcome in auxiliary mode. The entangled states are generated whenever any event is measured in auxiliary mode. Negativity is used as a measure of entanglement. Under certain initial set conditions, the conditioned state becomes as entangled as possible. New types of CV states are introduced. This approach can be expanded to implement a high complexity quantum network. | 翻訳日:2023-05-20 05:41:18 公開日:2020-05-14 |
# ストリートマーケティング: 近さとコンテキストがクーポンの償還をいかに促すか Street Marketing: How Proximity and Context drive Coupon Redemption ( http://arxiv.org/abs/2005.06839v1 ) ライセンス: Link先を確認 | Sarah Spiekermann, Matthias Rothensee and Michael Klafft | (参考訳) 目的:米国のクーポンは2009年に367億クーポンを発行する新記録を樹立した。
しかし、クーポンの流通が増加している一方で、償還率は1%を下回っている。
本稿では,クーポンキャンペーンの成功を決定するために,近距離,天気,町の一部,経済的インセンティブといった文脈変数の認識がいかに相互作用するかを示す。
設計・方法論・応用
本報告では,レストランチェーン9.880の地下鉄クーポンと連携して実施した実証研究を,異なる実験条件下で配布した。
退行行動はロジスティック回帰の助けを借りて分析された。
結果: 近接性がクーポンの償還を促しているにもかかわらず, 市中心部のキャンペーンは郊外地域よりも距離に敏感であることがわかった。
レストランから流通場所が遠くなるほど、金融インセンティブの量が少なくなればなるほど、再消費のモチベーションが決定される。
実践的な意味。
企業のクーポンキャンペーンを設計する場合、クーポンの流通は、1つの製品カテゴリ内の1つのマーケターにとっても -- あらゆる戦略にとって良い -- に従うべきではない。
代わりに、各クーポン戦略は文脈の影響を慎重に考慮すべきである。
オリジナル/バリュー。
本論文は、クーポンの償却に対する文脈変数の影響を体系的に調査する著者の知識の最初のものである。
電子マーケティングチャネルがパーソナライズされたモバイルマーケティングキャンペーンに簡単に組み込めるようにコンテキスト変数に焦点を当てている。 Purpose: In 2009, US coupons set a new record of 367 billion coupons distributed. Yet, while coupon distribution is on the rise, redemption rates remain below 1 percent. This paper aims to show how recognizing context variables, such as proximity, weather, part of town and financial incentives interplay to determine a coupon campaigns success. Design/methodology/approach. The paper reports an empirical study conducted in co-operation with a restaurant chain 9.880 Subway coupons were distributed under different experimental context conditions. Redemption behavior was analyzed with the help of logistic regressions. Findings: It was found that even though proximity drives coupon redemption, city center campaigns seem to be much more sensitive to distance than suburban areas. The further away the distribution place from the restaurant, the less does the amount of monetary incentive determine the motivation to redeem. Practical implications. When designing a coupon campaign for a company, coupon distribution should not follow a -- one is good for all strategy -- even for one marketer within one product category. Instead each coupon strategy should carefully consider contextual influence. Originality/value. This paper is the first to the authors knowledge that systematically investigates the impact of context variables on coupon redemption. It focuses on context variables that electronic marketing channels will be able to easily incorporate into personalized mobile marketing campaigns. | 翻訳日:2023-05-20 05:41:11 公開日:2020-05-14 |
# 高速核スピン制御のための高帯域マイクロコイル High-bandwidth microcoil for fast nuclear spin control ( http://arxiv.org/abs/2005.06837v1 ) ライセンス: Link先を確認 | K. Herb, J. Zopes, K. S. Cujia, and C. L. Degen | (参考訳) 高周波(rf)コイルによる核スピンのアクティブな操作は、核磁気共鳴(nmr)分光法とスピンベースの量子デバイスの中心にある。
本稿では,広い帯域で強いrfパルスを発生させ,任意の核種に対して高速回転を可能にするマイクロコイル送信システムを提案する。
私たちのデザインは
(i)単位電流あたり4.35mTの広い磁場を生成する平面多層構造
(ii)約20MHzの広帯域の50オーム伝送回路
(iii)ジュール加熱除去のための最適熱管理
ダイヤモンド窒素空洞(NV)中心付近の個々の13C核スピンを試験系として、70kHzを超えるラビの周波数と3.4 us以内の核π/2回転を実証した。
1Hスピンに対する外挿値は、それぞれ240kHzと1 usである。
高速核スピン操作の他に、我々のマイクロコイルシステムは、低 (1 T) 磁場で動作するマイクロおよびナノスケールNMR検出器への高度なパルスシーケンスの取り込みに最適である。 The active manipulation of nuclear spins with radio-frequency (RF) coils is at the heart of nuclear magnetic resonance (NMR) spectroscopy and spin-based quantum devices. Here, we present a microcoil transmitter system designed to generate strong RF pulses over a broad bandwidth, allowing for fast spin rotations on arbitrary nuclear species. Our design incorporates: (i) a planar multilayer geometry that generates a large field of 4.35 mT per unit current, (ii) a 50 Ohm transmission circuit with a broad excitation bandwidth of approximately 20 MHz, and (iii) an optimized thermal management for removal of Joule heating. Using individual 13C nuclear spins in the vicinity of a diamond nitrogen-vacancy (NV) center as a test system, we demonstrate Rabi frequencies exceeding 70 kHz and nuclear pi/2 rotations within 3.4 us. The extrapolated values for 1H spins are about 240 kHz and 1 us, respectively. Beyond enabling fast nuclear spin manipulations, our microcoil system is ideally suited for the incorporation of advanced pulse sequences into micro- and nanoscale NMR detectors operating at low (<1 T) magnetic field. | 翻訳日:2023-05-20 05:40:48 公開日:2020-05-14 |
# 中断は有効か?
割り込み広告が消費者の支払い意欲に及ぼす影響 Do Interruptions Pay Off? Effects of Interruptive Ads on Consumers Willingness to Pay ( http://arxiv.org/abs/2005.06834v1 ) ライセンス: Link先を確認 | Alessandro Acquisti, Sarah Spiekermann | (参考訳) 本研究は,広告主ブランドの商品に対する消費者の支払い意欲に及ぼす割り込み広告の影響を計測する研究結果である。
制御された実験に参加した被験者は、テスト中のコンピュータゲームから注意をそらす広告にさらされた。
広告は、広告ブランドと関係のある善意の支払いを希望する被験者を著しく減らした。
広告の出現に対するある程度のユーザーコントロールを提供することが、広告中断の悪影響を軽減するという決定的な証拠は見つからなかった。
本研究は、広告の経済的影響に関する研究に寄与し、実験的なマーケティング研究において、実際の(自己申告による)支払い意欲を計測する方法を紹介する。 We present the results of a study designed to measure the impact of interruptive advertising on consumers willingness to pay for products bearing the advertiser's brand. Subjects participating in a controlled experiment were exposed to ads that diverted their attention from a computer game they were testing. We found that ads significantly lowered subjects willingness to pay for a good associated with the advertised brand. We did not find conclusive evidence that providing some level of user control over the appearance of ads mitigated the negative impact of ad interruption. Our results contribute to the research on the economic impact of advertising, and introduce a method of measuring actual (as opposed to self-reported) willingness to pay in experimental marketing research. | 翻訳日:2023-05-20 05:40:32 公開日:2020-05-14 |
# 空間型光原子時計を用いた低周波重力波検出における潜在的優位性の定式化 A protocol of potential advantage in the low frequency range to gravitational wave detection with space based optical atomic clocks ( http://arxiv.org/abs/2005.06817v1 ) ライセンス: Link先を確認 | Feifan He and Baocheng Zhang | (参考訳) 最近の提案では、光学格子原子時計[Kolkowitz et. al., Phys. D 94, 124043 (2016)] [1]による空間ベースの重力波(GW)検出について記述している。
それらの設定に基づき,光格子原子時計を用いた低周波重力波検出のための新しい測定法を提案する。
本手法では,n個の連続ドップラー信号を収集し,これらの信号の総和を行い,低周波GW検出の感度を向上させる。
特に、改良はドップラー信号の数によって調整可能であり、2つの原子時計間の長さを増加させるのと同値である。
これにより、加速ノイズが量子投射ノイズによって決定される周波数の反転点以下で予測される改善を達成できない場合でも、同じ感度に到達できるが、より短い距離で到達できる。
我々の成果は、低周波GWに関連する物理・天体物理効果の研究を目的とした宇宙生まれの観測所の開発が進行中である。 A recent proposal describes space based gravitational wave (GW) detection with optical lattice atomic clocks [Kolkowitz et. al., Phys. Rev. D 94, 124043 (2016)] [1]. Based on their setup, we propose a new measurement method for gravitational wave detection in low frequency with optical lattice atomic clocks. In our method, n successive Doppler signals are collected and the summation for all these signals is made to improve the sensitivity of the low-frequency GW detection. In particular, the improvement is adjustable by the number of Doppler signals, which is equivalent to that the length between two atomic clocks is increased. Thus, the same sensitivity can be reached but with shorter distance, even though the acceleration noises lead to failing to achieve the anticipated improvement below the inflection point of frequency which is determined by the quantum projection noise. Our result is timely for the ongoing development of space-born observatories aimed at studying physical and astrophysical effects associated with low-frequency GW. | 翻訳日:2023-05-20 05:40:20 公開日:2020-05-14 |
# 量子超越回路の古典シミュレーション Classical Simulation of Quantum Supremacy Circuits ( http://arxiv.org/abs/2005.06787v1 ) ライセンス: Link先を確認 | Cupjin Huang, Fang Zhang, Michael Newman, Junjie Cai, Xun Gao, Zhengxiong Tian, Junyin Wu, Haihong Xu, Huanjun Yu, Bo Yuan, Mario Szegedy, Yaoyun Shi, Jianxin Chen | (参考訳) ランダム量子回路は古典的シミュレーションが難しいと考えられている。
量子超越性(quantum supremacy) - 古典的なコンピュータでは不可能な量子コンピュータ上での計算タスクの実行。
arute et al.(nature, 574, 505--510 (2019))による量子超越性の主張の根底にあるタスクは、現在の世界最強のスーパーコンピュータであるsummit(英語版)を約1万年必要と推定された。
同じタスクは、わずか200秒でSycamore量子プロセッサ上で実行された。
本稿では,テンソルネットワークに基づく古典的シミュレーションアルゴリズムを提案する。
Summit-comparable cluster を用いて,20日以内でこのタスクを実行できると推定した。
適度なサイズのインスタンスでは、ランタイムを数年から数分に短縮し、Sycamore自体よりも数倍高速に実行します。
これらの推定は並列サブタスクの明示的なシミュレーションに基づいており、隠れたコストの余地は残っていない。
シミュレータの重要な要素は、計算コストを支配するペアワイズテンソル収縮の列である計算の「stem」を同定し最適化することである。
この古典的シミュレーション時間のオーダー・オブ・マグニチュードの削減と、さらなる大幅な改善の提案は、量子超越性を達成するには、明確な最初の実証なしで量子ハードウェア開発を継続する期間が必要であることを示唆している。 It is believed that random quantum circuits are difficult to simulate classically. These have been used to demonstrate quantum supremacy: the execution of a computational task on a quantum computer that is infeasible for any classical computer. The task underlying the assertion of quantum supremacy by Arute et al. (Nature, 574, 505--510 (2019)) was initially estimated to require Summit, the world's most powerful supercomputer today, approximately 10,000 years. The same task was performed on the Sycamore quantum processor in only 200 seconds. In this work, we present a tensor network-based classical simulation algorithm. Using a Summit-comparable cluster, we estimate that our simulator can perform this task in less than 20 days. On moderately-sized instances, we reduce the runtime from years to minutes, running several times faster than Sycamore itself. These estimates are based on explicit simulations of parallel subtasks, and leave no room for hidden costs. The simulator's key ingredient is identifying and optimizing the "stem" of the computation: a sequence of pairwise tensor contractions that dominates the computational cost. This orders-of-magnitude reduction in classical simulation time, together with proposals for further significant improvements, indicates that achieving quantum supremacy may require a period of continuing quantum hardware developments without an unequivocal first demonstration. | 翻訳日:2023-05-20 05:39:41 公開日:2020-05-14 |
# 高次元光空間モードを用いたプログラマブルコヒーレント線形量子演算 Programmable coherent linear quantum operations with high-dimensional optical spatial modes ( http://arxiv.org/abs/2005.06783v1 ) ライセンス: Link先を確認 | Shikang Li, Shan Zhang Xue Feng, Stephen M. Barnett, Wei Zhang, Kaiyu Cui, Fang Liu, and Yidong Huang | (参考訳) 光横型空間モード上の高次元線形量子演算のための単純で柔軟なスキームを実証した。
量子フーリエ変換 (QFT) と量子状態トモグラフィ (QST) は、対称的な情報的完全正の演算子値測定 (SIC POVM) によって15の次元で実装される。
QFTの行列忠実度は0.85であり、SIC POVMの統計的忠実度とQSTの忠実度はそれぞれ0.97と0.853である。
非線形結晶における自然パラメトリックダウン変換による高次元空間エンタングルメントのさらなる探索の可能性があると信じている。 A simple and flexible scheme for high-dimensional linear quantum operations on optical transverse spatial modes is demonstrated. The quantum Fourier transformation (QFT) and quantum state tomography (QST) via symmetric informationally complete positive operator-valued measures (SIC POVMs) are implemented with dimensionality of 15. The matrix fidelity of QFT is 0.85, while the statistical fidelity of SIC POVMs and fidelity of QST are ~0.97 and up to 0.853, respectively. We believe that our device has the potential for further exploration of high-dimensional spatial entanglement provided by spontaneous parametric down conversion in nonlinear crystals. | 翻訳日:2023-05-20 05:39:17 公開日:2020-05-14 |
# ECIR 2020ワークショップ - オンライン化の影響を評価する ECIR 2020 Workshops: Assessing the Impact of Going Online ( http://arxiv.org/abs/2005.06748v1 ) ライセンス: Link先を確認 | S\'ergio Nunes, Suzanne Little, Sumit Bhatia, Ludovico Boratto, Guillaume Cabanac, Ricardo Campos, Francisco M. Couto, Stefano Faralli, Ingo Frommholz, Adam Jatowt, Al\'ipio Jorge, Mirko Marras, Philipp Mayr, Giovanni Stilo | (参考訳) ECIR 2020 https://ecir2020.org/は、COVID-19パンデミックの影響で影響を受ける多くのカンファレンスの1つである。
カンファレンスの議長は、最初の予定日(2020年4月14日から17日)を保持し、完全なオンラインイベントに移行することを決定した。
本稿では,ワークショップ主催者とワークショップ参加者の2つの視点から,ECIR 2020ワークショップをこのシナリオで組織した経験について述べる。
これらのイベントの組織的側面と参加者に対する結果に関するレポートを提供する。
各ワークショップの科学的側面をカバーすることは、この記事の範囲外である。 ECIR 2020 https://ecir2020.org/ was one of the many conferences affected by the COVID-19 pandemic. The Conference Chairs decided to keep the initially planned dates (April 14-17, 2020) and move to a fully online event. In this report, we describe the experience of organizing the ECIR 2020 Workshops in this scenario from two perspectives: the workshop organizers and the workshop participants. We provide a report on the organizational aspect of these events and the consequences for participants. Covering the scientific dimension of each workshop is outside the scope of this article. | 翻訳日:2023-05-20 05:39:07 公開日:2020-05-14 |
# 合成強結合格子における輸送の反断熱制御 Counterdiabatic control of transport in a synthetic tight-binding lattice ( http://arxiv.org/abs/2005.07052v1 ) ライセンス: Link先を確認 | Eric J. Meier, Kinfung Ngan, Dries Sels, and Bryce Gadway | (参考訳) 実験の不完全さにロバストな量子状態変換は、量子情報科学や量子センシングの応用において重要である。
カウンタダイアバティック(cd)アプローチは、下層のハミルトニアンの知識を積極的にダイアバティック効果を補正し、高速かつ安定した状態変換を実現するための強力なツールである。
CD駆動のためのプロトコルは、これまでのところ2~3段階の離散システムとスケーリング対称性を持つバルクシステムに限られている。
ここでは,CD制御のツールを最大9つのサイトからなる離散合成格子系に拡張する。
本システムでは, 熱力学的限界における断熱的サポートが存在しないが, CDアプローチは依然として, 数桁のオーダー・オブ・マグニチュードを与え, 素早い断熱的プロトコルよりも忠実に改善できることを示す。 Quantum state transformations that are robust to experimental imperfections are important for applications in quantum information science and quantum sensing. Counterdiabatic (CD) approaches, which use knowledge of the underlying system Hamiltonian to actively correct for diabatic effects, are powerful tools for achieving simultaneously fast and stable state transformations. Protocols for CD driving have thus far been limited in their experimental implementation to discrete systems with just two or three levels, as well as bulk systems with scaling symmetries. Here, we extend the tool of CD control to a discrete synthetic lattice system composed of as many as nine sites. Although this system has a vanishing gap and thus no adiabatic support in the thermodynamic limit, we show that CD approaches can still give a substantial, several order-of-magnitude, improvement in fidelity over naive, fast adiabatic protocols. | 翻訳日:2023-05-20 05:31:32 公開日:2020-05-14 |
# 六方晶窒化ホウ素シワを用いた単一WSe$_2$量子エミッタの分光および空間分離 Spectral and spatial isolation of single WSe$_2$ quantum emitters using hexagonal boron nitride wrinkles ( http://arxiv.org/abs/2005.07013v1 ) ライセンス: Link先を確認 | Rapha\"el S. Daveau, Tom Vandekerckhove, Arunabh Mukherjee, Zefang Wang, Jie Shan, Kin Fai Mak, A. Nick Vamivakas, Gregory D. Fuchs | (参考訳) Monolayer WSe$_2$は明るい単一光子エミッタをホストする。
コンプライアンスのため、単層 WSe$_2$ は破壊することなくパターン化された基板に適合し、その固有量子エミッタの活性化機構である大きな局所ひずみのポテンシャルを生み出す。
本稿では,wse$_2$単分子層から空間的およびスペクトル的に孤立した量子エミッタを生成する手法について報告する。
ナノ構造基板上に配置したヘキサゴナル窒化ホウ素(hbn)とwse$_2$の二重層を用いて,局所ひずみをwse$_2$に伝達するワニを生成・形成し,基板の特徴から分離した量子エミッタを生成できることを示した。
基板上に直接生成した量子エミッタとシワに沿って形成される量子エミッタを比較し、後者のスペクトルが主に1つのピークと低い背景蛍光から構成されていることを見出した。
また、hBNシワに沿ったエミッタ位置を制御するための可能性についても論じる。 Monolayer WSe$_2$ hosts bright single-photon emitters. Because of its compliance, monolayer WSe$_2$ conforms to patterned substrates without breaking, thus creating the potential for large local strain, which is one activation mechanism of its intrinsic quantum emitters. Here, we report an approach to creating spatially and spectrally isolated quantum emitters from WSe$_2$ monolayers with few or no detrimental sources of emission. We show that a bilayer of hexagonal boron nitride (hBN) and WSe$_2$ placed on a nanostructured substrate can be used to create and shape wrinkles that communicate local strain to the WSe$_2$, thus creating quantum emitters that are isolated from substrate features. We compare quantum emitters created directly on top of substrate features with quantum emitters forming along wrinkles and find that the spectra of the latter consist of mainly a single peak and a low background fluorescence. We also discuss possible approaches to controlling emitter position along hBN wrinkles. | 翻訳日:2023-05-20 05:30:57 公開日:2020-05-14 |
# appcorp: androidのプライバシーポリシー文書構造分析のためのコーパス APPCorp: A Corpus for Android Privacy Policy Document Structure Analysis ( http://arxiv.org/abs/2005.06945v1 ) ライセンス: Link先を確認 | Shuang Liu and Renjie Guo and Baiyang Zhao and Tao Chen and Meishan Zhang | (参考訳) モバイルデバイスの人気が高まり、モバイルアプリが広く普及するにつれ、プライバシー問題に対する懸念が高まっている。
プライバシポリシは、GDPRのような法的用語を示し、サービスプロバイダとユーザ間の法的合意を結び付ける適切な媒体として特定されている。
しかし、プライバシーポリシーは通常、エンドユーザーが読み、理解するために長く曖昧である。
したがって、プライバシーポリシーの文書構造を自動的に分析し、ユーザの理解を支援することが重要である。
この作業では、手作業でラベル付けされたコーパスを作成し、プライバシポリシ(447ドル以上の単語と5,276ドルの注釈付きパラグラフ)を含む。
注釈付きコーパスのアノテーションプロセスと詳細を報告する。
また、データコーパスを4ドルの文書分類モデルでベンチマークし、結果を徹底的に分析し、研究委員会がコーパスを使用するための課題と機会について論じます。
公開アクセスのための分類モデルだけでなく,ラベル付きコーパスもリリースしています。 With the increasing popularity of mobile devices and the wide adoption of mobile Apps, an increasing concern of privacy issues is raised. Privacy policy is identified as a proper medium to indicate the legal terms, such as GDPR, and to bind legal agreement between service providers and users. However, privacy policies are usually long and vague for end users to read and understand. It is thus important to be able to automatically analyze the document structures of privacy policies to assist user understanding. In this work we create a manually labelled corpus containing $167$ privacy policies (of more than $447$K words and $5,276$ annotated paragraphs). We report the annotation process and details of the annotated corpus. We also benchmark our data corpus with $4$ document classification models, thoroughly analyze the results and discuss challenges and opportunities for the research committee to use the corpus. We release our labelled corpus as well as the classification models for public access. | 翻訳日:2023-05-20 05:30:10 公開日:2020-05-14 |
# 3重量子ドット分子における2次元再局在スイッチ Relocalization switch in a triple quantum dot molecule in 2D ( http://arxiv.org/abs/2005.06934v1 ) ライセンス: Link先を確認 | Miloslav Znojil | (参考訳) 多項式ポテンシャルの卓越したミニマ(共役量子ドット)の間のトンネルは、密度$|\psi(x,y, \ldots)|$の急激な量子破滅的再局在を引き起こす。
非数値図形は、非分離性オシレータモデルを用いて、2次元で構築される。 Tunneling between pronounced minima of a polynomial potential (simulating coupled quantum dots) can cause an abrupt quantum-catastrophic relocalization of density $|\psi(x,y, \ldots)|$. Non-numerical illustration is constructed, in 2D, using a non-separable sextic-oscillator model. | 翻訳日:2023-05-20 05:29:53 公開日:2020-05-14 |
# 乱れおよびノイズスピン鎖による多粒子絡みのほぼ完全な伝達 Almost perfect transmission of multipartite entanglement through disordered and noisy spin chains ( http://arxiv.org/abs/2005.06930v1 ) ライセンス: Link先を確認 | Rafael Vieira and Gustavo Rigolin | (参考訳) 任意の大きさのスピン鎖に沿って、M粒子の絡み合った状態を効率的に送信する方法を示す。
具体的には、わずかに修正されたXXモデルにより記述されたスピン-1/2鎖の一方の端(アリス)から他方の端(ボブ)に絡み合ったM-粒子Wサテがほぼ不完全に伝達されることを示す。
外部磁場を使わずにほぼ完全な伝送を実現し, 鎖のスピン間の結合定数を変調し, 良好な伝送効率を達成するために用いた2つの標準的アプローチを導出する。
さらに、提案したプロトコルは、Alice を用いた M-partite W 状態から Bob による M'-partite W 状態への変換(M' と異なる M' )に利用できる。
また,提案プロトコルの各種の障害や騒音に対する応答について検討し,最適順序と無雑音の場合のカップリング定数に関する小さな偏差に対して極めて頑健であることを示す。 We show how to efficiently send an M-partite entangled state along a spin chain of arbitrary size. Specifically, we show how an entangled M-partite W sate can be almost flawlessly transmitted from one end (Alice) to the other end (Bob) of a spin-1/2 chain described by a slightly modified XX model. We achieve an almost perfect transmission without employing external magnetic fields or modulating the coupling constants among the spins of the chain, the two standard approaches used to achieve a good transmission efficiency. Moreover, the protocol here proposed can be used to transform an M-partite W state with Alice into an M'-partite one with Bob (M different from M'). We also investigate the proposed protocol's response to several types of disorder and noise and show that it is quite robust to small deviations about the coupling constants of the optimal ordered and noiseless case. | 翻訳日:2023-05-20 05:29:45 公開日:2020-05-14 |
# 量子パラドックスを理解する鍵としての文脈性 Contextuality as the Key to understand Quantum Paradoxes ( http://arxiv.org/abs/2005.06864v1 ) ライセンス: Link先を確認 | Marian Kupczynski | (参考訳) この短い注記は、2018年にブラジルのjoao pessoaで開かれたadvanced school of quantum foundations and quantum computationで行った講演のスライドを紹介するものだ。
量子基底に関する限られた知識を持つ参加者に宛てたこれらの講演では、局所性、因果性、ランダム性、反事実的定性を定義し、EPR-ボームパラドックスを説明した。
特に,スピン偏光相関実験におけるベル型不等式とその違反の影響について詳細に論じた。
最後に、量子力学の予測完全性が実験データの時系列のより慎重な検証によってどのように検証されるのかを説明した。 This short note is an introduction to the slides from our talks given in 2018 during the Advanced School of Quantum Foundations and Quantum Computation in Joao Pessoa , Brazil. In these talks, addressed to participants with a limited knowledge of quantum foundations, we defined locality, causality, randomness, counterfactual definiteness and we explained EPR-Bohm paradoxes. In particular we discussed in great detail various Bell-type inequalities and the implications of their violation in spin polarisation correlation experiments. Finally we explained why and how the predictive completeness of quantum mechanics may be tested by more careful examination of the time-series of experimental data | 翻訳日:2023-05-20 05:29:07 公開日:2020-05-14 |
# 感度熱プローブとしての単原子熱エンジン Single-atom heat engine as a sensitive thermal probe ( http://arxiv.org/abs/2005.06858v1 ) ライセンス: Link先を確認 | Amikam Levy, Moritz G\"ob, Bo Deng, Kilian Singer, E. Torrontegui, Daqing Wang | (参考訳) 熱浴の感度プローブとして量子熱エンジンを用いることを提案する。
特に,オープン熱力学サイクルで動作する単原子ottoエンジンについて検討した。
その周期的な性質から、エンジンは2つの浴槽の間の小さな温度差をフライホイールのマクロ振動に変換することができる。
本研究では,エンジンの量子力学の解析と数値モデリングを行い,温度差を2ドル以下の値で検出できると推定する。
この感度はイオン運動のスクイーズのような量子資源を利用することでさらに向上することができる。
提案手法は量子状態の初期化を必要とせず、高温でも小さな温度差を検出することができる。 We propose employing a quantum heat engine as a sensitive probe for thermal baths. In particular, we study a single-atom Otto engine operating in an open thermodynamic cycle. Owing to its cyclic nature, the engine is capable of translating small temperature differences between two baths into a macroscopic oscillation in a flywheel. We present analytical and numerical modeling of the quantum dynamics of the engine and estimate it to be capable of detecting temperature differences as small as 2 $\mu$K. This sensitivity can be further improved by utilizing quantum resources such as squeezing of the ion motion. The proposed scheme does not require quantum state initialization and is able to detect small temperature differences even at high base temperatures. | 翻訳日:2023-05-20 05:28:55 公開日:2020-05-14 |
# 熱状態は不可欠:オペレータープッシュによる絡み合ったくさびの再構築 Thermal states are vital: Entanglement Wedge Reconstruction from Operator-Pushing ( http://arxiv.org/abs/2005.07189v1 ) ライセンス: Link先を確認 | Elliott Gesteau and Monica Jinwoo Kang | (参考訳) 演算子処理を伴う無限次元システムに対して、バルク再構成、相対エントロピーの保存、およびバルクと境界の間のモジュラーフローの等式を検証した集合の一般的な構成を与える。
我々の設定では、バルク・ツー・バウンダリ写像は状態非依存の可観測物の$C^*$-代数のレベルで定義される。
すると、境界力学がKMS状態の存在を許すならば、物理的に関連するヒルベルト空間とフォン・ノイマン代数は我々のフレームワークから直接構築できることを示す。
この構造はワームホールの反対側の国家依存的な構築と見なされ、パパドディマス・ラジュの提案のようなブラックホールの再構成の主張の意味を明確にするべきである。
本稿では,HPPY符号に基づくワームホールの構築に本手法を適用し,エンタングメントウェッジ復元のすべての特性を満足する。 We give a general construction of a setup that verifies bulk reconstruction, conservation of relative entropies, and equality of modular flows between the bulk and the boundary, for infinite-dimensional systems with operator-pushing. In our setup, a bulk-to-boundary map is defined at the level of the $C^*$-algebras of state-independent observables. We then show that if the boundary dynamics allow for the existence of a KMS state, physically relevant Hilbert spaces and von Neumann algebras can be constructed directly from our framework. Our construction should be seen as a state-dependent construction of the other side of a wormhole and clarifies the meaning of black hole reconstruction claims such as the Papadodimas-Raju proposal. As an illustration, we apply our result to construct a wormhole based on the HaPPY code, which satisfies all properties of entanglement wedge reconstruction. | 翻訳日:2023-05-20 05:22:36 公開日:2020-05-14 |
# 環境の暗黒状態による実験的量子デコヒーレンス制御 Experimental quantum decoherence control by dark states of the environment ( http://arxiv.org/abs/2005.07169v1 ) ライセンス: Link先を確認 | Robert St\'arek, Michal Mi\v{c}uda, Ivo Straka, Martina Nov\'akov\'a, Miloslav Du\v{s}ek, Miroslav Je\v{z}ek, Jarom\'ir Fiur\'a\v{s}ek, Radim Filip | (参考訳) 量子系の環境とのコヒーレント相互作用は通常、量子デコヒーレンスを引き起こす。
しかし、驚くべきことに、ある構成では、コヒーレントなシステム-環境結合が同時に探索され、デコヒーレンスをなくす環境の特定の暗い状態を設計できる。
本稿では,量子デコヒーレンス自体による量子デコヒーレンス抑制プロトコルの実験的実証について報告する。
このプロトコルは、保護されるべきシステムの前の環境と相互作用する量子プローブの量子測定による環境の間接的な制御に基づいている。
このデコヒーレンスを抑制するために環境との直接操作は不要である。
我々の原理実証実験では、1つのキュービットと別の1つのキュービットを結合した1つのキュービットの保護を実証する。
我々は、線形光学と単一光子で必要となる量子回路を実装し、実験において非常に高い制御と柔軟性を維持することができる。
我々は,プロトコルによって達成された非一貫性の抑制を明確に確認し,他の物理プラットフォームへの応用への道を開く。 Coherent interaction of a quantum system with environment usually induces quantum decoherence. However, remarkably, in certain configurations the coherent system-environment coupling can be simultaneously explored to engineer a specific dark state of the environment that eliminates the decoherence. Here we report on experimental demonstration of such protocol for suppression of quantum decoherence by quantum decoherence itself. The protocol is based on indirect control of the environment via quantum measurements on quantum probes interacting with the environment prior to the system that should be protected. No direct manipulation with the environment is required to suppress the decoherence. In our proof-of-principle experiment, we demonstrate protection of a single qubit coupled to another single qubit. We implement the required quantum circuits with linear optics and single photons, which allows us to maintain very high degree of control and flexibility in the experiment. Our results clearly confirm the decoherence suppression achieved by the protocol and pave the way to its application to other physical platforms. | 翻訳日:2023-05-20 05:22:20 公開日:2020-05-14 |
# 多部共役フォトニック量子の決定論的源の実現 Realizing a Deterministic Source of Multipartite-Entangled Photonic Qubits ( http://arxiv.org/abs/2005.07060v1 ) ライセンス: Link先を確認 | Jean-Claude Besse, Kevin Reuer, Michele C. Collodo, Arne Wulff, Lucien Wernli, Adrian Copetudo, Daniel Malz, Paul Magnard, Abdulkadir Akin, Mihai Gabureac, Graham J. Norris, J. Ignacio Cirac, Andreas Wallraff, Christopher Eichler | (参考訳) 絡み合った電磁放射源は量子情報処理の基礎であり、制御された実験環境での量子多体物理学の研究にユニークな機会を提供する。
様々なプラットフォームでマルチモードの放射線の絡み合い状態が生成されているが、全ての実験は確率的か制限的であり、絡み合った長さの特定の状態を生成する。
ここでは、制御された補助系から導波路にマイクロ波光子を逐次放出することにより、クラスター、GHZ、W状態などの純フォトニック絡み合った状態の完全な決定論的生成を示す。
我々は、最大$N=4$フォトニックモードで量子多体状態全体をトモグラフィ的に再構成し、さらに大きな$N$の量子状態をプロセストモグラフィーから推測する。
局所化エンタングルメントは、約10フォトニックキュービットの距離にわたって持続し、従来の決定論的スキームを上回っていると推定する。 Sources of entangled electromagnetic radiation are a cornerstone in quantum information processing and offer unique opportunities for the study of quantum many-body physics in a controlled experimental setting. While multi-mode entangled states of radiation have been generated in various platforms, all previous experiments are either probabilistic or restricted to generate specific types of states with a moderate entanglement length. Here, we demonstrate the fully deterministic generation of purely photonic entangled states such as the cluster, GHZ, and W state by sequentially emitting microwave photons from a controlled auxiliary system into a waveguide. We tomographically reconstruct the entire quantum many-body state for up to $N=4$ photonic modes and infer the quantum state for even larger $N$ from process tomography. We estimate that localizable entanglement persists over a distance of approximately ten photonic qubits, outperforming any previous deterministic scheme. | 翻訳日:2023-05-20 05:21:07 公開日:2020-05-14 |
# トワイリングチャネルは最小の混合ユニタリランクを持つ Twirling channels have minimal mixed-unitary rank ( http://arxiv.org/abs/2005.07056v1 ) ライセンス: Link先を確認 | Mark Girard and Jeremy Levick | (参考訳) 正の整数 $d$ とユニタリ表現 $\rho:G\rightarrow\mathrm{U}(d)$ のコンパクト群 $G$ に対して、この表現のツイリングチャネルは線型写像 $\Phi: M_d\rightarrow M_d$ として定義される $\Phi(X)=\int_{G}\mathrm{d}\mu(g)\,\rho(g)X\rho(g^{-1})$ である。
このようなチャネルは、固定サイズのユニタリチャネルの集合の凸殻にあるため、混合ユニタリチャネルの例である。
カラト・エオドリーの定理により、これらのチャネルは常にユニタリチャネルの有限線型結合として表現できる。
我々は、チャネルをユニタリチャネルの凸結合として表現するのに必要となる最小の個別ユニタリ共役数である混合ユニタリランク(英語版)(mixed-unitary rank twirling channel)を考慮し、全てのtwirlingチャネルの混合ユニタリランクが常にそのchoiランクに等しいことを示し、どちらも表現によって生成されるフォン・ノイマン代数の次元に等しいことを示す。
さらに、これらの種類のチャネルの最小の混合ユニタリ分解を明示的に構築する方法を示し、いくつかの例を示す。 For a positive integer $d$ and a unitary representation $\rho:G\rightarrow\mathrm{U}(d)$ of a compact group $G$, the twirling channel for this representation is the linear mapping $\Phi: M_d\rightarrow M_d$ defined as $\Phi(X)=\int_{G}\mathrm{d}\mu(g)\,\rho(g)X\rho(g^{-1})$ for every $X\in M_d$, where $\mu$ is the Haar measure on $G$. Such channels are examples of mixed-unitary channels, as they are in the convex hull of the set of unitary channels of a fixed size. By Carath\'eodory's theorem, these channels can always be expressed as a finite linear combination of unitary channels. We consider the mixed-unitary rank twirling channels---which is the minimum number of distinct unitary conjugations required to express the channel as a convex combination of unitary channels---and show that the mixed-unitary rank of every twirling channel is always equal to its Choi rank, both of which are equal to the dimension of the von Neumann algebra generated by the representation. Moreover, we show how to explicitly construct minimal mixed-unitary decompositions for these types of channels and provide some examples. | 翻訳日:2023-05-20 05:20:41 公開日:2020-05-14 |
# 対人リスクアセスメントツールのリスクアセスメント : タッスル,緩和戦略,本質的限界 A Risk Assessment of a Pretrial Risk Assessment Tool: Tussles, Mitigation Strategies, and Inherent Limits ( http://arxiv.org/abs/2005.07299v1 ) ライセンス: Link先を確認 | Marc Faddoul, Henriette Ruhrmann and Joyce Lee | (参考訳) 我々は、サンフランシスコやその他の司法管轄区域で使用されるソフトウェアである公衆安全評価(PSA)のリスク評価を行い、裁判の前に被告を拘留する必要があるかどうかを判断する裁判官を支援する。
利害関係者へのインタビューや理論的枠組みの使用を含む混合手法のアプローチにより, 裁判前司法が自動化される中での価値観を明確化する。
意思決定を技術に委譲する価値の意義を特定した後、psaソリューションの利点と限界を明確化し、緩和戦略を提案する。
次に, リスクアセスメントツールに固有の設計上の制約を満たした, 新たな前審正義のためのアルゴリズム的アプローチである handoff tree を考案した。
モデルは全ての予測と関連するエラー率を照合し、不確実性が高すぎる場合は判断を裁判官に渡す。
エラー率を明確に述べることで、ハンドオフツリーは人種と性別間の予測的格差の影響を制限し、しばしば伴う偽陽性の比率が高いことを考えると、裁判官が保持勧告に対してより批判的であるように促すことを目的としている。 We perform a risk assessment of the Public Safety Assessment (PSA), a software used in San Francisco and other jurisdictions to assist judges in deciding whether defendants need to be detained before their trial. With a mixed-methods approach including stakeholder interviews and the use of theoretical frameworks, we lay out the values at play as pretrial justice is automated. After identifying value implications of delegating decision making to technology, we articulate benefits and limitations of the PSA solution, as well as suggest mitigation strategies. We then draft the Handoff Tree, a novel algorithmic approach to pretrial justice that accommodates some of the inherent limitations of risk assessment tools by design. The model pairs every prediction with an associated error rate, and hands off the decision to the judge if the uncertainty is too high. By explicitly stating error rate, the Handoff Tree aims both to limit the impact of predictive disparity between race and gender, and to prompt judges to be more critical of retention recommendations, given the high rate of false positives they often entail. | 翻訳日:2023-05-20 05:12:12 公開日:2020-05-14 |
# ユーザの信頼とモビリティを活用したeヘルスセンシティブなデータ普及 E-Health Sensitive Data Dissemination Exploiting Trust and Mobility of Users ( http://arxiv.org/abs/2005.07296v1 ) ライセンス: Link先を確認 | Agnaldo Batista, Michele Nogueira and Aldri Santos | (参考訳) E-Healthサービスは大量の機密データを処理し、信頼性とプライバシーを必要とする。
新しい技術の出現は、電子医療サービスを従来の医療機関以外の継続的な供給へと導く。
これにより、不確実で信頼性の低い状態が生成され、センシティブなユーザデータの拡散を制御することが課題となる。
そして、迅速な応答(例えば、心停止)を必要とする状況下では、敏感なデータ拡散のギャップがある。
これによってネットワークは、ユーザモビリティ、動的ネットワークトポロジ、デバイス間の時折のインタラクションの下で、信頼性の高いデータ拡散を提供する必要がある。
本稿では,これらの課題に対処するために,社会的信頼と関心のコミュニティを活用するシステムであるSTEALTHを提案する。
STEALTHはクラスタリングと分散という2つのステップに従っている。
最初のステルスグループデバイスは、ユーザの関心に基づいて、関心のあるコミュニティを形成します。
医療の緊急性は、ユーザーの機密データを特定のコミュニティに属するデバイスにひそかに拡散し、デバイス間の信頼のレベルに置かれる。
シミュレーションの結果、STEALTHは効率的なサービスに貢献できる人々へのデータ拡散を保証する。
STEALTHは170ミリ秒のレイテンシを持つ機密データにアクセスする際の信頼性の97.14%、緊急時の可用性の最大100%を達成している。 E-health services handle a massive amount of sensitive data, requiring reliability and privacy. The advent of new technologies drives e-health services into their continuous provision outside traditional care institutions. This creates uncertain and unreliable conditions, resulting in the challenge of controlling sensitive user data dissemination. Then, there is a gap in sensitive data dissemination under situations requiring fast response (e.g., cardiac arrest). This obligates networks to provide reliable sensitive data dissemination under user mobility, dynamic network topology, and occasional interactions between the devices. In this article, we propose STEALTH, a system that employs social trust and communities of interest to address these challenges. STEALTH follows two steps: clustering and dissemination. In the first, STEALTH groups devices based on the interests of their users, forming communities of interest. A healthcare urgency launches the second, in which STEALTH disseminates user sensitive data to devices belonging to specific communities, subjected to the level of trust between devices. Simulation results demonstrate that STEALTH ensures data dissemination to people who can contribute toward an efficient service. STEALTH has achieved up to 97.14% of reliability in accessing sensitive data with a maximum latency of 170 ms, and up to 100% of availability during emergencies. | 翻訳日:2023-05-20 05:11:50 公開日:2020-05-14 |
# 量子多体系のリアルタイムダイナミクスに対する典型性の選択応用 Selected applications of typicality to real-time dynamics of quantum many-body systems ( http://arxiv.org/abs/2001.05289v2 ) ライセンス: Link先を確認 | Tjark Heitmann, Jonas Richter, Dennis Schubert, Robin Steinigeweg | (参考訳) 量子典型性の概念は、単一の純粋状態が完全な統計的アンサンブルを模倣できるという事実を指す。
この事実は、DQT(Dynamical Quantum typicality)と呼ばれる、量子多体系の力学をシミュレートする非常に単純な数値的なアプローチを生み出した。
本稿では,dqtの応用を概観する。そこでは,鎖や回転やフェルミオンのラダーといった低次元格子系における輸送と熱化に関する問題に特に注目する。
これらのシステムに対して、DQTは相対的に大きなヒルベルト空間次元と長い時間スケールの時間依存平衡相関関数を得るための効率的な手段を提供し、例えば線形応答理論の枠組みの中で輸送係数の定量的抽出を可能にする。
さらに, dqtは, 初期状態がプレ・クエンチ・ハミルトニアンの熱ギブス状態である急速クエンチシナリオによって生じる平衡から遠方への動力学の研究にも利用できると考察した。
最終的に、DQTと数値連結クラスタ展開やプロジェクション演算子といった他の手法の組み合わせを要約する。
このようにして、DQTの汎用性を示す。 Loosely speaking, the concept of quantum typicality refers to the fact that a single pure state can imitate the full statistical ensemble. This fact has given rise to a rather simple but remarkably useful numerical approach to simulate the dynamics of quantum many-body systems, called dynamical quantum typicality (DQT). In this paper, we give a brief overview of selected applications of DQT, where particular emphasis is given to questions on transport and thermalization in low-dimensional lattice systems like chains or ladders of interacting spins or fermions. For these systems, we discuss that DQT provides an efficient means to obtain time-dependent equilibrium correlation functions for comparatively large Hilbert-space dimensions and long time scales, allowing the quantitative extraction of transport coefficients within the framework of, e.g., linear response theory. Furthermore, it is discussed that DQT can also be used to study the far-from-equilibrium dynamics resulting from sudden quench scenarios, where the initial state is a thermal Gibbs state of the pre-quench Hamiltonian. Eventually, we summarize a few combinations of DQT with other approaches such as numerical linked cluster expansions or projection operator techniques. In this way, we demonstrate the versatility of DQT. | 翻訳日:2023-01-11 07:25:11 公開日:2020-05-14 |
# エッジからのジェネレータ:顔画像の再構成 Generator From Edges: Reconstruction of Facial Images ( http://arxiv.org/abs/2002.06682v3 ) ライセンス: Link先を確認 | Nao Takano and Gita Alaghband | (参考訳) 教師付きトレーニングを含むアプリケーションは、ペアイメージを必要とする。
単一画像超解像(SISR)の研究者は、対応する基底真理からぼやけた入力画像を人工的に生成することで、そのような画像を作成する。
同様に、canny edgeでペアイメージを作成できる。
エッジからのジェネレータ(GFE) [図2]を提案する。
我々の目標は、知覚的損失[1, 2]のレビューとともに、GFEの最高のアーキテクチャを決定することです。
そこで我々は3つの実験を行った。
まず, SISRでよく使用される対向損失の影響について検討した。
特に、知覚的損失を形成するのに不可欠な要素ではないことが判明した。
敵の損失を排除することは、ハードウェアリソースの観点からより効果的なアーキテクチャをもたらす。
また、モード崩壊などの生成的逆ネットワーク(gan)[3]に関する問題に対する考慮は不要である。
第2に,VGG損失を再検討し,中間層が最もよい結果を得た。
VGG損失の全電位を抽出することにより、知覚的損失の全体的な性能が著しく向上する。
第3に、最初の2つの実験の結果に基づいて、GFEを構築するために高密度ネットワークを再評価した。
GFEを中間処理として用いることで、筆跡からの顔画像の再構成が容易になる。 Applications that involve supervised training require paired images. Researchers of single image super-resolution (SISR) create such images by artificially generating blurry input images from the corresponding ground truth. Similarly we can create paired images with the canny edge. We propose Generator From Edges (GFE) [Figure 2]. Our aim is to determine the best architecture for GFE, along with reviews of perceptual loss [1, 2]. To this end, we conducted three experiments. First, we explored the effects of the adversarial loss often used in SISR. In particular, we uncovered that it is not an essential component to form a perceptual loss. Eliminating adversarial loss will lead to a more effective architecture from the perspective of hardware resource. It also means that considerations for the problems pertaining to generative adversarial network (GAN) [3], such as mode collapse, are not necessary. Second, we reexamined VGG loss and found that the mid-layers yield the best results. By extracting the full potential of VGG loss, the overall performance of perceptual loss improves significantly. Third, based on the findings of the first two experiments, we reevaluated the dense network to construct GFE. Using GFE as an intermediate process, reconstructing a facial image from a pencil sketch can become an easy task. | 翻訳日:2022-12-31 18:26:29 公開日:2020-05-14 |
# Citation Recommendation:アプローチとデータセット Citation Recommendation: Approaches and Datasets ( http://arxiv.org/abs/2002.06961v2 ) ライセンス: Link先を確認 | Michael F\"arber, Adam Jatowt | (参考訳) 引用推奨は、あるテキストに対する引用を推奨するタスクを記述する。
近年の科学論文の過剰化や、科学論文を書く際に最も適切な出版物を引用する必要性から、引用推薦が重要な研究トピックとして浮上している。
近年,いくつかのアプローチと評価データセットが提案されている。
しかし,我々の知る限りでは,引用推薦に関する文献調査は行われていない。
本稿では,自動引用レコメンデーション研究について概説する。
次に,引用推薦のためのアプローチとデータセットの概要を説明し,様々な次元を用いた相違点と共通点を同定する。
最後に,評価方法に光を当てて,評価における一般的な課題と,それに対応する方法について概説した。
本論文は,本分野において最も多く研究されているため,学術論文の引用推薦に限定する。
しかし,本調査に含まれる観察や議論の多くは,ニュース記事や百科事典記事など他の種類のテキストにも適用可能である。 Citation recommendation describes the task of recommending citations for a given text. Due to the overload of published scientific works in recent years on the one hand, and the need to cite the most appropriate publications when writing scientific texts on the other hand, citation recommendation has emerged as an important research topic. In recent years, several approaches and evaluation data sets have been presented. However, to the best of our knowledge, no literature survey has been conducted explicitly on citation recommendation. In this article, we give a thorough introduction into automatic citation recommendation research. We then present an overview of the approaches and data sets for citation recommendation and identify differences and commonalities using various dimensions. Last but not least, we shed light on the evaluation methods, and outline general challenges in the evaluation and how to meet them. We restrict ourselves to citation recommendation for scientific publications, as this document type has been studied the most in this area. However, many of the observations and discussions included in this survey are also applicable to other types of text, such as news articles and encyclopedic articles. | 翻訳日:2022-12-31 13:15:26 公開日:2020-05-14 |
# 文字境界入力に対する確率的有限オートマトンに対するカットポイント分離の決定可能性 Decidability of cutpoint isolation for probabilistic finite automata on letter-bounded inputs ( http://arxiv.org/abs/2002.07660v2 ) ライセンス: Link先を確認 | Paul C. Bell and Pavel Semukhin | (参考訳) 文字境界のない文脈自由言語から入力語を取り出す確率的有限オートマタ(PFA)に対して,カットポイント分離問題が決定可能であるという驚くべき結果を示す。
文脈自由言語 $\mathcal{L}$ は、ある有限$\ell > 0$ に対して $\mathcal{L} \subseteq a_1^*a_2^* \cdots a_\ell^*$ のとき、文字境界となる。
カットポイントは、任意に接近できないときに分離される。
この問題の決定性は、多項式あいまいさ、可換行列および文字有界言語への入力によるPFAのより厳しい制限の下では決定不可能なPFAの(限定的な)空白問題や、文字有界言語上のPFAでは決定不可能なインジェクティビティ問題と対照的である。
PFAが指数的不明瞭である場合でも、切断点分離問題を解決するための構成的非決定論的アルゴリズムを提供する。
また、この問題は少なくともNPハードであり、決定手順を用いていくつかの問題を解くことも示している。 We show the surprising result that the cutpoint isolation problem is decidable for Probabilistic Finite Automata (PFA) where input words are taken from a letter-bounded context-free language. A context-free language $\mathcal{L}$ is letter-bounded when $\mathcal{L} \subseteq a_1^*a_2^* \cdots a_\ell^*$ for some finite $\ell > 0$ where each letter is distinct. A cutpoint is isolated when it cannot be approached arbitrarily closely. The decidability of this problem is in marked contrast to the situation for the (strict) emptiness problem for PFA which is undecidable under the even more severe restrictions of PFA with polynomial ambiguity, commutative matrices and input over a letter-bounded language as well as to the injectivity problem which is undecidable for PFA over letter-bounded languages. We provide a constructive nondeterministic algorithm to solve the cutpoint isolation problem, which holds even when the PFA is exponentially ambiguous. We also show that the problem is at least NP-hard and use our decision procedure to solve several related problems. | 翻訳日:2022-12-30 20:28:45 公開日:2020-05-14 |
# bert圧縮: 重みの刈り取りが転校学習に及ぼす影響の研究 Compressing BERT: Studying the Effects of Weight Pruning on Transfer Learning ( http://arxiv.org/abs/2002.08307v2 ) ライセンス: Link先を確認 | Mitchell A. Gordon, Kevin Duh, Nicholas Andrews | (参考訳) 自然言語処理のためのBERTやコンピュータビジョンのためのVGGのような訓練済みのユニバーサル特徴抽出器は、ラベル付きデータを必要とすることなくディープラーニングモデルを改善する効果的な方法となっている。
有効ではあるが、BERTのような機能抽出器は、一部のデプロイメントシナリオでは違法に大きいかもしれない。
BERTのウェイトプルーニングについて検討し、プレトレーニング中の圧縮がトランスファーラーニングにどのように影響するかを尋ねる。
プルーニングは3つの幅広い体制におけるトランスファーラーニングに影響を及ぼす。
低レベルの刈り取り(30~40%)は、トレーニング前の損失やダウンストリームタスクへの転送にまったく影響しない。
プラニングの中間レベルは事前訓練の損失を増加させ、有用な事前訓練情報が下流タスクに転送されるのを防ぐ。
高いレベルのプルーニングにより、モデルが下流のデータセットに適合することを防ぎ、さらなる劣化につながる。
最後に、特定のタスクの微調整bertは、そのprunabilityを改善しないことを観察した。
BERTは、各タスクごとに個別にではなく、事前学習中に一度刈り取ることができ、性能に影響を与えない。 Pre-trained universal feature extractors, such as BERT for natural language processing and VGG for computer vision, have become effective methods for improving deep learning models without requiring more labeled data. While effective, feature extractors like BERT may be prohibitively large for some deployment scenarios. We explore weight pruning for BERT and ask: how does compression during pre-training affect transfer learning? We find that pruning affects transfer learning in three broad regimes. Low levels of pruning (30-40%) do not affect pre-training loss or transfer to downstream tasks at all. Medium levels of pruning increase the pre-training loss and prevent useful pre-training information from being transferred to downstream tasks. High levels of pruning additionally prevent models from fitting downstream datasets, leading to further degradation. Finally, we observe that fine-tuning BERT on a specific task does not improve its prunability. We conclude that BERT can be pruned once during pre-training rather than separately for each task without affecting performance. | 翻訳日:2022-12-30 14:04:27 公開日:2020-05-14 |
# 知識に基づく$n$-aryタプルのマッチング Knowledge-Based Matching of $n$-ary Tuples ( http://arxiv.org/abs/2002.08103v2 ) ライセンス: Link先を確認 | Pierre Monnin, Miguel Couceiro, Amedeo Napoli, Adrien Coulet | (参考訳) 拡大するセマンティックwebにおいて、人間とソフトウェアエージェントによってアクセス可能なデータと知識ソースの数が増える。
情報源は粒度や完全性が異なる場合があり、相補的である。
そのため、結合した知識の完全な可能性を解き明かすために和解すべきである。
特に、単位はソース内およびソース間で一致し、それらの関連性のレベルは、等価、より特異的、または類似に分類されるべきである。
この課題は、知識単位がソース(例えば語彙)で不均一に表現できるため、困難である。
本稿では、知識ベースにおけるn-ary tupleとルールベースの方法論とのマッチングに焦点を当てる。
異質性の問題を緩和するため、私たちはオントロジーによって表現されるドメイン知識に依存しています。
4つの異なる実世界源から50,435個のn-リータプルのアライメントを探索し,薬理ゲノミクスの生体医学領域で実験を行った。
結果は、ソース内およびソース間の注目すべき合意と特異性を強調します。 An increasing number of data and knowledge sources are accessible by human and software agents in the expanding Semantic Web. Sources may differ in granularity or completeness, and thus be complementary. Consequently, they should be reconciled in order to unlock the full potential of their conjoint knowledge. In particular, units should be matched within and across sources, and their level of relatedness should be classified into equivalent, more specific, or similar. This task is challenging since knowledge units can be heterogeneously represented in sources (e.g., in terms of vocabularies). In this paper, we focus on matching n-ary tuples in a knowledge base with a rule-based methodology. To alleviate heterogeneity issues, we rely on domain knowledge expressed by ontologies. We tested our method on the biomedical domain of pharmacogenomics by searching alignments among 50,435 n-ary tuples from four different real-world sources. Results highlight noteworthy agreements and particularities within and across sources. | 翻訳日:2022-12-30 14:03:51 公開日:2020-05-14 |
# 支配的移動指標のための割当問題定式化 An Assignment Problem Formulation for Dominance Move Indicator ( http://arxiv.org/abs/2002.10842v2 ) ライセンス: Link先を確認 | Claudio Lucio do Val Lopes, Fl\'avio Vin\'icius Cruzeiro Martins, Elizabeth F. Wanner | (参考訳) 支配移動 (dom) は多目的最適化において解集合を比較するためのバイナリ品質指標である。
この指標は、解集合の比較においてより自然で直感的な関係を可能にする。
Paretoに準拠しており、パラメータや参照セットを一切要求しない。
その利点にもかかわらず、組合せ計算の性質は限界である。
元の定式化は、バイオオブジェクトの場合のみに効率的な計算方法を示す。
本研究は、3つ以上の目的を持つ問題におけるDoMを計算するための代入式を示す。
双目的空間におけるいくつかの実験は、モデルの正確性を示すために行われた。
次に、3次元を用いた他の実験は、逆世代距離(IGD)や超体積(HV)といった他の指標とDoMがどのように比較できるかを示すために行われた。
その結果、DoMの割り当て定式化は3つ以上の目的に対して有効であることが示された。
しかし、いくつかの強みと弱みが議論され、詳細に述べられている。
いくつかのノート、考察、将来の研究経路がこの研究を結論付けている。 Dominance move (DoM) is a binary quality indicator to compare solution sets in multiobjective optimization. The indicator allows a more natural and intuitive relation when comparing solution sets. It is Pareto compliant and does not demand any parameters or reference sets. In spite of its advantages, the combinatorial calculation nature is a limitation. The original formulation presents an efficient method to calculate it in a biobjective case only. This work presents an assignment formulation to calculate DoM in problems with three objectives or more. Some initial experiments, in the biobjective space, were done to present the model correctness. Next, other experiments, using three dimensions, were also done to show how DoM could be compared with other indicators: inverted generational distance (IGD) and hypervolume (HV). Results show the assignment formulation for DoM is valid for more than three objectives. However, there are some strengths and weaknesses, which are discussed and detailed. Some notes, considerations, and future research paths conclude this work. | 翻訳日:2022-12-28 21:01:22 公開日:2020-05-14 |
# カーネルk-meansのほぼ最適クラスタリングリスク境界 Nearly Optimal Clustering Risk Bounds for Kernel K-Means ( http://arxiv.org/abs/2003.03888v2 ) ライセンス: Link先を確認 | Yong Liu and Lizhong Ding and Weiping Wang | (参考訳) 本稿では,カーネル$k$-meansの統計特性について検討し,既存のクラスタリングリスク解析における技術的限界を大幅に改善し,ほぼ最適なクラスタリングリスク境界を求める。
さらに、Nystr\"{o}m カーネル $k$-means の計算近似の統計的効果を解析し、Nystr\"{o}m ランドマークポイントに対して$\Omega(\sqrt{nk})$ Nystr\"{o}m のみを考慮した正確なカーネル $k$-means と同じ統計的精度を達成することを証明した。
我々の知る限りでは、カーネル(または近似カーネル)の急激な過剰なクラスタリングリスク境界である$k$-meansは、これまで提案されたことがない。 In this paper, we study the statistical properties of kernel $k$-means and obtain a nearly optimal excess clustering risk bound, substantially improving the state-of-art bounds in the existing clustering risk analyses. We further analyze the statistical effect of computational approximations of the Nystr\"{o}m kernel $k$-means, and prove that it achieves the same statistical accuracy as the exact kernel $k$-means considering only $\Omega(\sqrt{nk})$ Nystr\"{o}m landmark points. To the best of our knowledge, such sharp excess clustering risk bounds for kernel (or approximate kernel) $k$-means have never been proposed before. | 翻訳日:2022-12-25 07:58:22 公開日:2020-05-14 |
# 水平高周波信号に基づく高性能オブジェクトの提案 A High-Performance Object Proposals based on Horizontal High Frequency Signal ( http://arxiv.org/abs/2003.06124v2 ) ライセンス: Link先を確認 | Jiang Chao, Liang Huawei, Wang Zhiling | (参考訳) 近年,対象検出のための前処理ステップとしてのオブジェクト提案の利用により,計算効率が向上している。
良質なオブジェクト提案手法は、高いオブジェクト検出リコールレートと低い計算コスト、そして良好なローカライズ品質と再現性を持つべきである。
しかし、現在の高度なアルゴリズムが上記の性能で十分なバランスをとることは困難である。
本研究では,クラスに依存しないオブジェクト提案アルゴリズム bihl を提案する。
ウィンドウスコアとスーパーピクセルマージの利点を組み合わせることで、ローカライズ品質が向上するだけでなく、計算効率も向上する。
VOC2007 データセットにおける実験結果から,IOU が 0.5 と 10,000 の予算提案である場合,本手法は 79.5% の最大検出リコールと平均最高オーバーラップを達成でき,計算効率は現在の最速手法の約3倍高速であることがわかった。
また,本手法は,様々な障害に対して高い再現性を達成する手法の中で,最も高い平均反復性を有する手法である。 In recent years, the use of object proposal as a preprocessing step for target detection to improve computational efficiency has become an effective method. Good object proposal methods should have high object detection recall rate and low computational cost, as well as good localization quality and repeatability. However, it is difficult for current advanced algorithms to achieve a good balance in the above performance. For this problem, we propose a class-independent object proposal algorithm BIHL. It combines the advantages of window scoring and superpixel merging, which not only improves the localization quality but also speeds up the computational efficiency. The experimental results on the VOC2007 data set show that when the IOU is 0.5 and 10,000 budget proposals, our method can achieve the highest detection recall and an mean average best overlap of 79.5%, and the computational efficiency is nearly three times faster than the current fastest method. Moreover, our method is the method with the highest average repeatability among the methods that achieve good repeatability to various disturbances. | 翻訳日:2022-12-24 01:41:56 公開日:2020-05-14 |
# CoCoPIE:モバイルAIをPIEとして甘くする -- 圧縮コンパイルの共同設計は長い道のり CoCoPIE: Making Mobile AI Sweet As PIE --Compression-Compilation Co-Design Goes a Long Way ( http://arxiv.org/abs/2003.06700v3 ) ライセンス: Link先を確認 | Shaoshan Liu, Bin Ren, Xipeng Shen, Yanzhi Wang | (参考訳) ハードウェアがリアルタイムのモバイルインテリジェンスを実現するための大きな制約であると仮定すると、業界は主に機械学習と推論のためのハードウェアアクセラレータの開発に力を注いでいる。
この記事ではその仮定に挑戦する。
最近のリアルタイムai最適化フレームワークcocopieを参考にすることで、効果的な圧縮コンパイラーの共同設計により、特別なハードウェアを使わずにメインストリームのエンドデバイスでリアルタイム人工知能を有効にすることができる。
CoCoPIE is a software framework that holds numerous records on mobile AI: the first framework that supports all main kinds of DNNs, from CNNs to RNNs, transformer, language models, and so on; the fastest DNN pruning and acceleration framework, up to 180X faster compared with current DNN pruning on other frameworks such as TensorFlow-Lite; making many representative AI applications able to run in real-time on off-the-shelf mobile devices that have been previously regarded possible only with special hardware support; making off-the-shelf mobile devices outperform a number of representative ASIC and FPGA solutions in terms of energy efficiency and/or performance. Assuming hardware is the major constraint for enabling real-time mobile intelligence, the industry has mainly dedicated their efforts to developing specialized hardware accelerators for machine learning and inference. This article challenges the assumption. By drawing on a recent real-time AI optimization framework CoCoPIE, it maintains that with effective compression-compiler co-design, it is possible to enable real-time artificial intelligence on mainstream end devices without special hardware. CoCoPIE is a software framework that holds numerous records on mobile AI: the first framework that supports all main kinds of DNNs, from CNNs to RNNs, transformer, language models, and so on; the fastest DNN pruning and acceleration framework, up to 180X faster compared with current DNN pruning on other frameworks such as TensorFlow-Lite; making many representative AI applications able to run in real-time on off-the-shelf mobile devices that have been previously regarded possible only with special hardware support; making off-the-shelf mobile devices outperform a number of representative ASIC and FPGA solutions in terms of energy efficiency and/or performance. | 翻訳日:2022-12-23 20:01:45 公開日:2020-05-14 |
# RSVQA:リモートセンシングデータに対する視覚的質問応答 RSVQA: Visual Question Answering for Remote Sensing Data ( http://arxiv.org/abs/2003.07333v2 ) ライセンス: Link先を確認 | Sylvain Lobry, Diego Marcos, Jesse Murray, Devis Tuia | (参考訳) 本稿では,リモートセンシングデータ(RSVQA)に対する視覚的質問応答の課題を紹介する。
リモートセンシング画像には豊富な情報が含まれており、土地被覆分類、オブジェクトのカウント、検出など幅広いタスクに有用である。
しかしながら、利用可能な方法論のほとんどはタスク固有であり、リモートセンシングデータに含まれる情報への汎用的かつ容易なアクセスを阻害する。
その結果、正確なリモートセンシング製品生成には専門家の知識が必要である。
RSVQAでは,すべてのユーザがアクセス可能なリモートセンシングデータから情報を抽出するシステムを提案する。
このシステムでは,画像の内容や画像内のオブジェクト間の関係性に特有の高レベルな情報を得るために,画像のクエリを行うことができる。
本稿では,2つのデータセット(低解像度データと高解像度データ)を自動生成する手法を提案する。
質問と回答を構築するために必要な情報は、OpenStreetMap (OSM)から問い合わせる。
データセットは(教師付きメソッドを使用して)トレーニングや、RSVQAタスクを解決するためのモデル評価に使用することができる。
本稿では,視覚的部分に対する畳み込みニューラルネットワーク(CNN)に基づくモデルと,そのタスクに対する自然言語部分に対するリカレントニューラルネットワーク(RNN)を用いた結果について報告する。
モデルは2つのデータセットでトレーニングされ、両方のケースで有望な結果が得られる。 This paper introduces the task of visual question answering for remote sensing data (RSVQA). Remote sensing images contain a wealth of information which can be useful for a wide range of tasks including land cover classification, object counting or detection. However, most of the available methodologies are task-specific, thus inhibiting generic and easy access to the information contained in remote sensing data. As a consequence, accurate remote sensing product generation still requires expert knowledge. With RSVQA, we propose a system to extract information from remote sensing data that is accessible to every user: we use questions formulated in natural language and use them to interact with the images. With the system, images can be queried to obtain high level information specific to the image content or relational dependencies between objects visible in the images. Using an automatic method introduced in this article, we built two datasets (using low and high resolution data) of image/question/answer triplets. The information required to build the questions and answers is queried from OpenStreetMap (OSM). The datasets can be used to train (when using supervised methods) and evaluate models to solve the RSVQA task. We report the results obtained by applying a model based on Convolutional Neural Networks (CNNs) for the visual part and on a Recurrent Neural Network (RNN) for the natural language part to this task. The model is trained on the two datasets, yielding promising results in both cases. | 翻訳日:2022-12-23 03:42:24 公開日:2020-05-14 |
# 非次元星の同定 Non-dimensional Star-Identification ( http://arxiv.org/abs/2003.13736v2 ) ライセンス: Link先を確認 | Carl Leake, David Arnas and Daniele Mortari | (参考訳) 本研究では、焦点長と光軸オフセット値の精度が低い場合に、広い視野の星追跡装置で観測される恒星を確実に識別する新しい「非次元」星識別アルゴリズムを提案する。
このアルゴリズムは、焦点距離および/または光学軸オフセットがそれらの公称操作範囲から逸脱した場合に不正確に星を識別する、名目的失われた空間アルゴリズムを補うのに特に適している。
これらの偏差は例えば、打上げ振動や軌道の熱変化によって引き起こされる。
アルゴリズムの性能は、精度、速度、ロバスト性の観点から、ピラミッドアルゴリズムと比較される。
これらの比較は、これらの方法論の組み合わせがもたらす明らかな利点を浮き彫りにする。 This study introduces a new "Non-Dimensional" star identification algorithm to reliably identify the stars observed by a wide field-of-view star tracker when the focal length and optical axis offset values are known with poor accuracy. This algorithm is particularly suited to complement nominal lost-in-space algorithms, which may identify stars incorrectly when the focal length and/or optical axis offset deviate from their nominal operational ranges. These deviations may be caused, for example, by launch vibrations or thermal variations in orbit. The algorithm performance is compared in terms of accuracy, speed, and robustness to the Pyramid algorithm. These comparisons highlight the clear advantages that a combined approach of these methodologies provides. | 翻訳日:2022-12-18 08:41:48 公開日:2020-05-14 |
# 統計的クエリと統計的アルゴリズム:基礎と応用 Statistical Queries and Statistical Algorithms: Foundations and Applications ( http://arxiv.org/abs/2004.00557v2 ) ライセンス: Link先を確認 | Lev Reyzin | (参考訳) 統計クエリの基礎とそれらの他の分野への多くの応用について調査を行う。
モデルを紹介し,主定義を与え,基本理論の統計的問合せと学習可能性の様々な概念との関係について検討する。
また、最適化、進化可能性、微分プライバシーなど、他の分野への統計クエリの応用について、詳細な概要を示す。 We give a survey of the foundations of statistical queries and their many applications to other areas. We introduce the model, give the main definitions, and we explore the fundamental theory statistical queries and how how it connects to various notions of learnability. We also give a detailed summary of some of the applications of statistical queries to other areas, including to optimization, to evolvability, and to differential privacy. | 翻訳日:2022-12-17 18:28:27 公開日:2020-05-14 |
# 効率的なストレージのためのソーシャルメディア画像のオンデバイスフィルタリング On-device Filtering of Social Media Images for Efficient Storage ( http://arxiv.org/abs/2004.02489v2 ) ライセンス: Link先を確認 | Dhruval Jain, DP Mohanty, Sanjeev Roy, Naresh Purre, Sukumar Moharana | (参考訳) 現在、ミームや季節の挨拶などの人工的な画像がソーシャルメディアプラットフォームに溢れている。
最終的にはスマートフォンの内部記憶を多く占めるようになり、ユーザーは何百もの画像を閲覧してこれらの合成画像を削除するのが面倒になる。
そこで本研究では,これら合成画像を分類し,ユーザが一度に削除できるようにすることで,ソーシャルメディア画像のオンデバイスフィルタリングを行うための畳み込みニューラルネットワーク(cnns)に基づく新しい手法を提案する。
カスタムモデルは、スマートフォン上で低い推論時間を達成するために、深く分離可能な畳み込み層を使用する。
我々は,カメラで撮影された画像のほとんどの側面をカバーするため,各種カメラ画像データセット上でのモデルを広範囲に評価した。
様々な種類の合成ソーシャルメディア画像もテストされている。
提案手法は,30Kインスタンスを含む合成画像データセットにおいて,Places-365データセットで98.25%,95.81%の精度を実現する。 Artificially crafted images such as memes, seasonal greetings, etc are flooding the social media platforms today. These eventually start occupying a lot of internal memory of smartphones and it gets cumbersome for the user to go through hundreds of images and delete these synthetic images. To address this, we propose a novel method based on Convolutional Neural Networks (CNNs) for the on-device filtering of social media images by classifying these synthetic images and allowing the user to delete them in one go. The custom model uses depthwise separable convolution layers to achieve low inference time on smartphones. We have done an extensive evaluation of our model on various camera image datasets to cover most aspects of images captured by a camera. Various sorts of synthetic social media images have also been tested. The proposed solution achieves an accuracy of 98.25% on the Places-365 dataset and 95.81% on the Synthetic image dataset that we have prepared containing 30K instances. | 翻訳日:2022-12-16 06:18:26 公開日:2020-05-14 |
# エンド・ツー・エンド自動音声認識におけるホモホンに基づくラベル平滑化 Homophone-based Label Smoothing in End-to-End Automatic Speech Recognition ( http://arxiv.org/abs/2004.03437v2 ) ライセンス: Link先を確認 | Yi Zheng, Xianjie Yang, Xuyong Dang | (参考訳) 本稿では,人間レベルでの言語知識を利用した新しいラベル平滑化手法であるhomophoneを提案し,自動音声認識 (asr) について述べる。
前者と比較して,提案手法はより複雑な方法でホモフォンの発音知識を利用する。
音響モデルと言語モデルを共同で学習するエンドツーエンドのASRモデルと文字単位をモデル化することが本手法に必要な条件である。
ハイブリッドctcシーケンシャル・ツー・シーケンスモデルを用いた実験により、新しい手法は文字誤り率 (cer) を絶対0.4%削減できることを示した。 A new label smoothing method that makes use of prior knowledge of a language at human level, homophone, is proposed in this paper for automatic speech recognition (ASR). Compared with its forerunners, the proposed method uses pronunciation knowledge of homophones in a more complex way. End-to-end ASR models that learn acoustic model and language model jointly and modelling units of characters are necessary conditions for this method. Experiments with hybrid CTC sequence-to-sequence model show that the new method can reduce character error rate (CER) by 0.4% absolutely. | 翻訳日:2022-12-16 00:44:38 公開日:2020-05-14 |
# 画像に基づく3次元物体検出のためのエンドツーエンド擬似LiDAR End-to-End Pseudo-LiDAR for Image-Based 3D Object Detection ( http://arxiv.org/abs/2004.03080v2 ) ライセンス: Link先を確認 | Rui Qian, Divyansh Garg, Yan Wang, Yurong You, Serge Belongie, Bharath Hariharan, Mark Campbell, Kilian Q. Weinberger, Wei-Lun Chao | (参考訳) 安全な自動運転には、信頼性と正確な3Dオブジェクト検出が不可欠である。
LiDARセンサーは環境の正確な3Dポイントクラウド推定を提供することができるが、多くの設定では非常に高価である。
近年,擬似LiDAR(PL)の導入により,LiDARセンサを用いた手法と安価なステレオカメラを用いた手法との精度差が大幅に減少している。
PLは最先端のディープニューラルネットワークを使って3D深度推定と2D深度マップ出力を3Dポイントクラウド入力に変換する3Dオブジェクト検出を組み合わせている。
しかし、今のところこれらの2つのネットワークは個別に訓練する必要がある。
本稿では,PLパイプライン全体をエンドツーエンドにトレーニング可能な,差別化可能なRepresentation (CoR)モジュールに基づく新しいフレームワークを提案する。
結果として得られたフレームワークは、どちらのタスクでも最先端のネットワークと互換性があり、pointrcnnと組み合わせることで、すべてのベンチマークで一貫してplを超えるパフォーマンスが向上する。
私たちのコードはhttps://github.com/mileyan/pseudo-LiDAR_e2eで公開されます。 Reliable and accurate 3D object detection is a necessity for safe autonomous driving. Although LiDAR sensors can provide accurate 3D point cloud estimates of the environment, they are also prohibitively expensive for many settings. Recently, the introduction of pseudo-LiDAR (PL) has led to a drastic reduction in the accuracy gap between methods based on LiDAR sensors and those based on cheap stereo cameras. PL combines state-of-the-art deep neural networks for 3D depth estimation with those for 3D object detection by converting 2D depth map outputs to 3D point cloud inputs. However, so far these two networks have to be trained separately. In this paper, we introduce a new framework based on differentiable Change of Representation (CoR) modules that allow the entire PL pipeline to be trained end-to-end. The resulting framework is compatible with most state-of-the-art networks for both tasks and in combination with PointRCNN improves over PL consistently across all benchmarks -- yielding the highest entry on the KITTI image-based 3D object detection leaderboard at the time of submission. Our code will be made available at https://github.com/mileyan/pseudo-LiDAR_e2e. | 翻訳日:2022-12-16 00:44:27 公開日:2020-05-14 |
# 新型コロナのリアル・ワールド・ワーリー・データセットで感情を測る Measuring Emotions in the COVID-19 Real World Worry Dataset ( http://arxiv.org/abs/2004.04225v2 ) ライセンス: Link先を確認 | Bennett Kleinberg, Isabelle van der Vegt, Maximilian Mozes | (参考訳) 新型コロナウイルスのパンデミックは世界中の社会や経済に劇的な影響を与えている。
ロックダウンやソーシャルディスタンシングのさまざまな対策が整うことで、感情的な反応を大規模に理解することが重要になる。
本稿では、COVID-19に対する感情反応に関する基礎的真実データセットを提示する。
参加者に感情を示し、テキストで表現するように頼みました。
その結果、Real World Worry Dataset of 5,000 texts (2,500 short + 2,500 long texts)となった。
分析の結果,感情反応は言語指標と相関したことが示唆された。
トピックモデリングにより、英国の人々は家族や経済状況について心配していることが明らかとなった。
ツイートサイズのテキストは連帯の呼びかけとして機能し、長いテキストは心配や懸念に光を当てた。
予測モデル手法を用いて,テキストから参加者の感情反応を実際の値の14%以内で推定することができた。
データセットの使用を推奨し、自動メソッドを使用して感情的な反応を学び、緊急の問題を心配する方法について改善する。 The COVID-19 pandemic is having a dramatic impact on societies and economies around the world. With various measures of lockdowns and social distancing in place, it becomes important to understand emotional responses on a large scale. In this paper, we present the first ground truth dataset of emotional responses to COVID-19. We asked participants to indicate their emotions and express these in text. This resulted in the Real World Worry Dataset of 5,000 texts (2,500 short + 2,500 long texts). Our analyses suggest that emotional responses correlated with linguistic measures. Topic modeling further revealed that people in the UK worry about their family and the economic situation. Tweet-sized texts functioned as a call for solidarity, while longer texts shed light on worries and concerns. Using predictive modeling approaches, we were able to approximate the emotional responses of participants from text within 14% of their actual value. We encourage others to use the dataset and improve how we can use automated methods to learn about emotional responses and worries about an urgent problem. | 翻訳日:2022-12-15 09:31:46 公開日:2020-05-14 |
# ImageStarsを用いた深部畳み込みニューラルネットワークの検証 Verification of Deep Convolutional Neural Networks Using ImageStars ( http://arxiv.org/abs/2004.05511v2 ) ライセンス: Link先を確認 | Hoang-Dung Tran, Stanley Bak, Weiming Xiang and Taylor T.Johnson | (参考訳) 畳み込みニューラルネットワーク(cnn)は、顔認識、画像分類、人間のポーズ推定、セマンティックセグメンテーションなど、多くの現実のアプリケーションで最先端の技術を再定義した。
彼らの成功にもかかわらず、CNNは敵の攻撃に弱いため、入力のわずかな変更は、十分に訓練されたネットワークでも出力の急激な変更につながる可能性がある。
セットベースの分析手法は、境界付き敵攻撃が存在しないことを検出または証明し、ニューラルネットワークトレーニング手法の有効性を評価するのに使用できる。
残念ながら、既存の検証アプローチでは、解析可能なネットワークのサイズに関してスケーラビリティが制限されている。
本稿では,VGG16 や VGG19 などの実世界の CNN を,ImageNet 上で高い精度で処理する,集合ベースのフレームワークについて述べる。
提案手法は,CNNの高精度かつ過剰な近似解析を可能にするImageStarと呼ばれる新しい集合表現に基づいている。
ImageStarsは、具体的な画像の操作と線形プログラミング(LP)を組み合わせることで、効率的なセットベース解析を行う。
提案手法はNNVと呼ばれるツールで実装されており,DeepFool攻撃などの敵攻撃から得られた少数の入力状態に対して,VGGネットワークの堅牢性を検証することができる。
実験の結果,我々のアプローチは,deepz や deeppoly で用いられる polytope 法のような既存の zonotope 法よりも保守的で高速であることが判明した。 Convolutional Neural Networks (CNN) have redefined the state-of-the-art in many real-world applications, such as facial recognition, image classification, human pose estimation, and semantic segmentation. Despite their success, CNNs are vulnerable to adversarial attacks, where slight changes to their inputs may lead to sharp changes in their output in even well-trained networks. Set-based analysis methods can detect or prove the absence of bounded adversarial attacks, which can then be used to evaluate the effectiveness of neural network training methodology. Unfortunately, existing verification approaches have limited scalability in terms of the size of networks that can be analyzed. In this paper, we describe a set-based framework that successfully deals with real-world CNNs, such as VGG16 and VGG19, that have high accuracy on ImageNet. Our approach is based on a new set representation called the ImageStar, which enables efficient exact and over-approximative analysis of CNNs. ImageStars perform efficient set-based analysis by combining operations on concrete images with linear programming (LP). Our approach is implemented in a tool called NNV, and can verify the robustness of VGG networks with respect to a small set of input states, derived from adversarial attacks, such as the DeepFool attack. The experimental results show that our approach is less conservative and faster than existing zonotope methods, such as those used in DeepZ, and the polytope method used in DeepPoly. | 翻訳日:2022-12-14 05:03:11 公開日:2020-05-14 |
# GLUECoS : コードスイッチングNLPの評価ベンチマーク GLUECoS : An Evaluation Benchmark for Code-Switched NLP ( http://arxiv.org/abs/2004.12376v2 ) ライセンス: Link先を確認 | Simran Khanuja, Sandipan Dandapat, Anirudh Srinivasan, Sunayana Sitaram, Monojit Choudhury | (参考訳) コードスイッチは、同じ会話や発話で複数の言語を使用することである。
近年,複数の単言語コーパスで訓練された多言語文脈埋め込みモデルは,多言語・多言語タスクにおいて有望な結果を示した。
我々は,英語・ヒンディー語・英語・スペイン語のNLPタスクにまたがるコードスイッチ言語評価ベンチマークGLUECoSを提案する。
具体的には、テキストからの言語識別、POSタグ付け、名前付きエンティティ認識、感性分析、質問回答、そしてコードスイッチングのための新しいタスクである自然言語推論を含む。
言語間単語埋め込みモデルと多言語モデルを用いて,これらすべてのタスクについて結果を示す。
さらに,人工的に生成したコード切替データの多言語モデルを微調整する。
言語間モデルよりも多言語モデルの方が優れているが,本研究の結果は両言語ペアにおいて,コード切替データに微調整された多言語モデルが最も優れており,多言語モデルはさらにコード切替タスクに最適化可能であることを示している。 Code-switching is the use of more than one language in the same conversation or utterance. Recently, multilingual contextual embedding models, trained on multiple monolingual corpora, have shown promising results on cross-lingual and multilingual tasks. We present an evaluation benchmark, GLUECoS, for code-switched languages, that spans several NLP tasks in English-Hindi and English-Spanish. Specifically, our evaluation benchmark includes Language Identification from text, POS tagging, Named Entity Recognition, Sentiment Analysis, Question Answering and a new task for code-switching, Natural Language Inference. We present results on all these tasks using cross-lingual word embedding models and multilingual models. In addition, we fine-tune multilingual models on artificially generated code-switched data. Although multilingual models perform significantly better than cross-lingual models, our results show that in most tasks, across both language pairs, multilingual models fine-tuned on code-switched data perform best, showing that multilingual models can be further optimized for code-switching tasks. | 翻訳日:2022-12-09 13:27:59 公開日:2020-05-14 |
# 音声の重症度, 睡眠品質, 疲労, 不安の知能的分析に関する研究 An Early Study on Intelligent Analysis of Speech under COVID-19: Severity, Sleep Quality, Fatigue, and Anxiety ( http://arxiv.org/abs/2005.00096v2 ) ライセンス: Link先を確認 | Jing Han, Kun Qian, Meishu Song, Zijiang Yang, Zhao Ren, Shuo Liu, Juan Liu, Huaiyuan Zheng, Wei Ji, Tomoya Koike, Xiao Li, Zixing Zhang, Yoshiharu Yamamoto, Bj\"orn W. Schuller | (参考訳) 新型コロナウイルス(covid-19)の流行は、世界保健機関(who)が2020年3月に世界的なパンデミックとして発表した。
この文脈において、先進的な人工知能技術は、この世界的な健康危機の影響を抑えるために、対決に反応し、減少する。
本研究は、新型コロナウイルス患者に対するインテリジェント音声分析の潜在的なユースケースの開発に焦点をあてる。
特に,これらの患者の音声記録の分析により,重度,睡眠品質,疲労,不安などの4つの側面から,患者の健康状態を自動的に分類する音声のみに基づくモデルを構築した。
この目的のために、2つの確立された音響特徴セットとサポートベクターマシンを利用する。
以上の結果から, 入院日数に由来する重症度を, 平均 .69 % の精度で推定できた。
この研究は、新型コロナウイルスを自動的に検出する非常に高速で低コストで便利な方法を促進することを願っている。 The COVID-19 outbreak was announced as a global pandemic by the World Health Organisation in March 2020 and has affected a growing number of people in the past few weeks. In this context, advanced artificial intelligence techniques are brought to the fore in responding to fight against and reduce the impact of this global health crisis. In this study, we focus on developing some potential use-cases of intelligent speech analysis for COVID-19 diagnosed patients. In particular, by analysing speech recordings from these patients, we construct audio-only-based models to automatically categorise the health state of patients from four aspects, including the severity of illness, sleep quality, fatigue, and anxiety. For this purpose, two established acoustic feature sets and support vector machines are utilised. Our experiments show that an average accuracy of .69 obtained estimating the severity of illness, which is derived from the number of days in hospitalisation. We hope that this study can foster an extremely fast, low-cost, and convenient way to automatically detect the COVID-19 disease. | 翻訳日:2022-12-08 05:27:03 公開日:2020-05-14 |
# ESPRIT:物理推論課題へのソリューションの説明 ESPRIT: Explaining Solutions to Physical Reasoning Tasks ( http://arxiv.org/abs/2005.00730v2 ) ライセンス: Link先を確認 | Nazneen Fatema Rajani, Rui Zhang, Yi Chern Tan, Stephan Zheng, Jeremy Weiss, Aadit Vyas, Abhijit Gupta, Caiming XIong, Richard Socher, Dragomir Radev | (参考訳) ニューラルネットワークには定性的物理を推論する能力がなく、訓練中に見つからないシナリオやタスクに一般化できない。
本研究では,物理事象の解釈可能な記述を生成する自然言語の定性物理に関する常識推論フレームワークESPRITを提案する。
まず、環境における重要な物理イベントを識別し、次にデータからテキストへのアプローチを用いて、それらのイベントの自然言語記述を生成する2段階のアプローチを用いる。
本フレームワークは, エージェントや人間が解釈可能な記述を用いて容易に解を推論できるように, 物理的シミュレーションがどのように因果的に進化するかを説明することを学習する。
人間の評価は、ESPRITが重要な微細な細部を生み出し、人間のアノテーションよりも物理的な概念を多くカバーしていることを示している。
データセット、コード、ドキュメントはhttps://github.com/salesforce/espritで入手できる。 Neural networks lack the ability to reason about qualitative physics and so cannot generalize to scenarios and tasks unseen during training. We propose ESPRIT, a framework for commonsense reasoning about qualitative physics in natural language that generates interpretable descriptions of physical events. We use a two-step approach of first identifying the pivotal physical events in an environment and then generating natural language descriptions of those events using a data-to-text approach. Our framework learns to generate explanations of how the physical simulation will causally evolve so that an agent or a human can easily reason about a solution using those interpretable descriptions. Human evaluations indicate that ESPRIT produces crucial fine-grained details and has high coverage of physical concepts compared to even human annotations. Dataset, code and documentation are available at https://github.com/salesforce/esprit. | 翻訳日:2022-12-07 11:49:33 公開日:2020-05-14 |
# ディープニューラルネットワークを用いた単眼rgb画像からの指先位置推定のためのアンカーベース手法 Anchors Based Method for Fingertips Position Estimation from a Monocular RGB Image using Deep Neural Network ( http://arxiv.org/abs/2005.01351v2 ) ライセンス: Link先を確認 | Purnendu Mishra and Kishor Sarawadekar | (参考訳) 仮想、拡張現実、混合現実では、仮想世界と現実世界の違いを減らすために、手振りの使用がますます人気になっている。
指先の正確な位置は、シームレスな体験に欠かせない。
研究の多くは,指先位置推定のための深度情報の利用に基づいている。
しかし、指先検出にRGB画像を使用する作業のほとんどは、1本の指に限られている。
一つのRGB画像から複数の指先を検出することは、様々な要因により非常に困難である。
本稿では,指先の位置を推定するディープニューラルネットワーク(DNN)に基づく手法を提案する。
我々は、この方法論をアンカーベースのFingertips Position Estimation (ABFPE)と命名し、2段階のプロセスとした。
最寄りのアンカーポイントから指先の位置の差を計算することにより、レグレッションを用いて指先位置を推定する。
提案フレームワークは,手の検出結果に限られた依存度で最善を尽くす。
SCUT-Ego-Gestureデータセットの実験では、ビデオフレーム上の2.3552ピクセルの指先検出誤差を640 \times 480$と約92.98\%の解像度で達成した。 In Virtual, augmented, and mixed reality, the use of hand gestures is increasingly becoming popular to reduce the difference between the virtual and real world. The precise location of the fingertip is essential/crucial for a seamless experience. Much of the research work is based on using depth information for the estimation of the fingertips position. However, most of the work using RGB images for fingertips detection is limited to a single finger. The detection of multiple fingertips from a single RGB image is very challenging due to various factors. In this paper, we propose a deep neural network (DNN) based methodology to estimate the fingertips position. We christened this methodology as an Anchor based Fingertips Position Estimation (ABFPE), and it is a two-step process. The fingertips location is estimated using regression by computing the difference in the location of a fingertip from the nearest anchor point. The proposed framework performs the best with limited dependence on hand detection results. In our experiments on the SCUT-Ego-Gesture dataset, we achieved the fingertips detection error of 2.3552 pixels on a video frame with a resolution of $640 \times 480$ and about $92.98\%$ of test images have average pixel errors of five pixels. | 翻訳日:2022-12-07 01:42:08 公開日:2020-05-14 |
# ナチュラ経済計画のオープンループ Open Loop In Natura Economic Planning ( http://arxiv.org/abs/2005.01539v2 ) ライセンス: Link先を確認 | Spyridon Samothrakis | (参考訳) 社会的な余剰物(すなわち製品とサービス)を割り当てる最適な方法の議論は、何らかの形で事実上永久に拡大しており、1991年のソ連崩壊後、市場は唯一の合法的な組織形態となった。
marx, leontief, kantorovich, beer, cockshottの伝統の中で,総需要や部門ではなく,単位レベル(工場や市民など)で運用することを目的とした自動化計画システムを提案する。
現状の市場状況に対する現実的で望ましい代替手段であり、我々のソリューションを現在の社会構造に位置づける理由を説明します。
実験の結果、50Kの工業製品と5Kの最終商品をコモディティハードウェアで計画するのは簡単であることがわかった。 The debate between the optimal way of allocating societal surplus (i.e. products and services) has been raging, in one form or another, practically forever; following the collapse of the Soviet Union in 1991, the market became the only legitimate form of organisation -- there was no other alternative. Working within the tradition of Marx, Leontief, Kantorovich, Beer and Cockshott, we propose what we deem an automated planning system that aims to operate on unit level (e.g., factories and citizens), rather than on aggregate demand and sectors. We explain why it is both a viable and desirable alternative to current market conditions and position our solution within current societal structures. Our experiments show that it would be trivial to plan for up to 50K industrial goods and 5K final goods in commodity hardware. | 翻訳日:2022-12-07 01:22:56 公開日:2020-05-14 |
# artemis: 単一の文書要約を示すための新しいアノテーション方法論 Artemis: A Novel Annotation Methodology for Indicative Single Document Summarization ( http://arxiv.org/abs/2005.02146v2 ) ライセンス: Link先を確認 | Rahul Jha, Keping Bi, Yang Li, Mahdi Pakdaman, Asli Celikyilmaz, Ivan Zhiboedov, Kieran McDonald | (参考訳) artemis (annotation methodology for rich, tractable, extractive, multi-domain, indicative summarization) は、複数のドメインからの文書の表現的要約を生成する、新しい階層的アノテーションプロセスである。
現在の要約評価データセットは単一ドメインであり、ニュースや科学記事など、自然に発生する要約を簡単に発見できるいくつかのドメインに焦点を当てている。
これらは、複数のドメインの文書を扱う必要のある文書管理や情報検索システムで使用される要約モデルの訓練や評価には不十分である。
相対的実用性やピラミッドのような他のアノテーション手法と比較して、アルテミスは、判事が文章の1つに重要な判断を下す際に文書中のすべての文を見る必要がなく、同様にリッチな文の重要アノテーションを提供するため、より魅力的である。
アノテーションプロセスについて詳述し、他の類似の評価システムと比較する。
また、532の注釈付き文書のサンプルセットに対して解析および実験結果を示す。 We describe Artemis (Annotation methodology for Rich, Tractable, Extractive, Multi-domain, Indicative Summarization), a novel hierarchical annotation process that produces indicative summaries for documents from multiple domains. Current summarization evaluation datasets are single-domain and focused on a few domains for which naturally occurring summaries can be easily found, such as news and scientific articles. These are not sufficient for training and evaluation of summarization models for use in document management and information retrieval systems, which need to deal with documents from multiple domains. Compared to other annotation methods such as Relative Utility and Pyramid, Artemis is more tractable because judges don't need to look at all the sentences in a document when making an importance judgment for one of the sentences, while providing similarly rich sentence importance annotations. We describe the annotation process in detail and compare it with other similar evaluation systems. We also present analysis and experimental results over a sample set of 532 annotated documents. | 翻訳日:2022-12-06 13:58:16 公開日:2020-05-14 |
# 一般化加法モデルを用いた解釈可能な学習モデル Interpretable Learning-to-Rank with Generalized Additive Models ( http://arxiv.org/abs/2005.02553v2 ) ライセンス: Link先を確認 | Honglei Zhuang, Xuanhui Wang, Michael Bendersky, Alexander Grushetsky, Yonghui Wu, Petr Mitrichev, Ethan Sterling, Nathan Bell, Walker Ravina, Hai Qian | (参考訳) 学習からランクへのモデルの解釈性は重要な研究分野であるが、比較的控えめな研究領域である。
解釈可能なランキングモデルに関する最近の進歩は、既存のブラックボックスランキングモデルに対するポストホックな説明の生成に重点を置いているが、透明で自己説明可能な構造を持つ内在的に解釈可能なランキングモデルを構築する別の選択肢は、まだ探究されていない。
完全な理解可能なランキングモデルの開発は、ポストホックな方法が十分に正確な説明を提供しないいくつかのシナリオ(例えば、法律や政策上の制約)において必要である。
本稿では,一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を定めている。
一般化加法モデル(GAM)は本質的に解釈可能な機械学習モデルであり、回帰および分類タスクについて広く研究されている。
項目レベルとリストレベルの両方の特徴を扱えるランキングモデルにGAMを拡張する方法について検討し、ランキングモデルの新しい定式化を提案する。
ランキングガンをインスタンス化するために、従来のスプラインや回帰木の代わりにニューラルネットワークを使用します。
また, ニューラルネットワークによるGAMを, 精度損失が少なく, より効率的に評価できる, 単純かつコンパクトな線形関数の集合に抽出できることも示している。
3つのデータセットについて実験を行い,提案するニューラルランキングガンマは,類似の解釈性を維持しつつ,従来のガンマベースラインよりも有意に優れた性能が得られることを示した。 Interpretability of learning-to-rank models is a crucial yet relatively under-examined research area. Recent progress on interpretable ranking models largely focuses on generating post-hoc explanations for existing black-box ranking models, whereas the alternative option of building an intrinsically interpretable ranking model with transparent and self-explainable structure remains unexplored. Developing fully-understandable ranking models is necessary in some scenarios (e.g., due to legal or policy constraints) where post-hoc methods cannot provide sufficiently accurate explanations. In this paper, we lay the groundwork for intrinsically interpretable learning-to-rank by introducing generalized additive models (GAMs) into ranking tasks. Generalized additive models (GAMs) are intrinsically interpretable machine learning models and have been extensively studied on regression and classification tasks. We study how to extend GAMs into ranking models which can handle both item-level and list-level features and propose a novel formulation of ranking GAMs. To instantiate ranking GAMs, we employ neural networks instead of traditional splines or regression trees. We also show that our neural ranking GAMs can be distilled into a set of simple and compact piece-wise linear functions that are much more efficient to evaluate with little accuracy loss. We conduct experiments on three data sets and show that our proposed neural ranking GAMs can achieve significantly better performance than other traditional GAM baselines while maintaining similar interpretability. | 翻訳日:2022-12-06 05:14:58 公開日:2020-05-14 |
# クライアントの振る舞いを知る: 金融取引のクラスタ分析 Know Your Clients' behaviours: a cluster analysis of financial transactions ( http://arxiv.org/abs/2005.03625v2 ) ライセンス: Link先を確認 | John R.J. Thompson, Longlong Feng, R. Mark Reesor, Chuck Grace | (参考訳) カナダでは、金融アドバイザーとディーラーは、投資ディーラーと相互ファンドディーラーを直接規制する地方証券委員会と自己規制機関によって要求され、投資家口座の年齢やリスク寛容といったノウ・ユア・クライアント(KYC)情報を収集・維持する。
この情報により、投資家はアドバイザーの指導のもと、投資目標に有益であると推定される投資について決定を下す。
うち独自のデータセットは、金融投資ディーラーが提供し、顧客23,000名に5万以上のアカウントがある。
同様に振舞う投資家のグループを見つけるために、変形した行動金融の傾向、頻度、投資家の振る舞いを定量化するエンジニアリング機能のための金融モデル、機械学習クラスタリングアルゴリズムを使用します。
収集したKYC情報はクライアントの振る舞いを説明できないが、取引や取引の頻度やボリュームは最も有益な情報である。
ここで示した結果は、金融規制当局やアドバイザーがより高度な指標を使って投資家の行動を理解し予測することを奨励するものだと考えています。 In Canada, financial advisors and dealers are required by provincial securities commissions and self-regulatory organizations--charged with direct regulation over investment dealers and mutual fund dealers--to respectively collect and maintain Know Your Client (KYC) information, such as their age or risk tolerance, for investor accounts. With this information, investors, under their advisor's guidance, make decisions on their investments which are presumed to be beneficial to their investment goals. Our unique dataset is provided by a financial investment dealer with over 50,000 accounts for over 23,000 clients. We use a modified behavioural finance recency, frequency, monetary model for engineering features that quantify investor behaviours, and machine learning clustering algorithms to find groups of investors that behave similarly. We show that the KYC information collected does not explain client behaviours, whereas trade and transaction frequency and volume are most informative. We believe the results shown herein encourage financial regulators and advisors to use more advanced metrics to better understand and predict investor behaviours. | 翻訳日:2022-12-05 23:59:14 公開日:2020-05-14 |
# Evidence Inference 2.0: より多くのデータ、より良いモデル Evidence Inference 2.0: More Data, Better Models ( http://arxiv.org/abs/2005.04177v2 ) ライセンス: Link先を確認 | Jay DeYoung, Eric Lehman, Ben Nye, Iain J. Marshall, Byron C. Wallace | (参考訳) 病気や病態をどのように効果的に扱うか。
理想的には、そのような質問に答えるために臨床試験から得られた証拠のデータベースを参考にすることができる。
残念なことに、そのようなデータベースは存在しない。臨床試験の結果は、主に長い自然言語記事を通じて散布される。
これらの記事はすべて、医療従事者にとって違法に時間がかかり、代わりに、手作業による医療文献の体系的なレビューに頼っている。
NLPはこのプロセスをスピードアップし、最終的に公表された証拠の即時調査を促進する可能性がある。
Evidence Inferenceデータセットは、この目的に向けた研究を促進するために最近リリースされた。
本課題は、特定の記事(臨床試験を記述している)から、所定の結果に関する2つの治療の比較パフォーマンスを推測し、支持する証拠を特定することを含む。
例えば, 本報告では5年生存率の手術よりも化学療法が有効であったか。
本稿では,エビデンス推論データセットを25\%拡張し,より強固なベースラインモデルを提供し,それらのエラーを体系的に検査し,データセットの品質を調査するための追加アノテーションを収集する。
また、高速なモデルプロトタイピングのためのタスクの抽象的なバージョン(フルテキストとは対照的に)もリリースします。
新しいベースラインと評価のための更新されたコーパス、ドキュメント、コードは、http://evidence-inference.ebm-nlp.com/で入手できる。 How do we most effectively treat a disease or condition? Ideally, we could consult a database of evidence gleaned from clinical trials to answer such questions. Unfortunately, no such database exists; clinical trial results are instead disseminated primarily via lengthy natural language articles. Perusing all such articles would be prohibitively time-consuming for healthcare practitioners; they instead tend to depend on manually compiled systematic reviews of medical literature to inform care. NLP may speed this process up, and eventually facilitate immediate consult of published evidence. The Evidence Inference dataset was recently released to facilitate research toward this end. This task entails inferring the comparative performance of two treatments, with respect to a given outcome, from a particular article (describing a clinical trial) and identifying supporting evidence. For instance: Does this article report that chemotherapy performed better than surgery for five-year survival rates of operable cancers? In this paper, we collect additional annotations to expand the Evidence Inference dataset by 25\%, provide stronger baseline models, systematically inspect the errors that these make, and probe dataset quality. We also release an abstract only (as opposed to full-texts) version of the task for rapid model prototyping. The updated corpus, documentation, and code for new baselines and evaluations are available at http://evidence-inference.ebm-nlp.com/. | 翻訳日:2022-12-05 12:32:57 公開日:2020-05-14 |
# 待ち行列の最小化のための学習アルゴリズム Learning Algorithms for Minimizing Queue Length Regret ( http://arxiv.org/abs/2005.05206v2 ) ライセンス: Link先を確認 | Thomas Stahlbuhk, Brooke Shrader and Eytan Modiano | (参考訳) 我々は,単一送信/受信器ペアと通信可能なn$チャネルからなるシステムについて検討する。
パケットはランダムに送信機のキューに到着し、受信機に送信されるのを待つ。
送信機は、1つのチャネル上のフレーム送信を試みることができ、キューに1つあれば各フレームにパケットが含まれる。
各チャネルに対して、試みられた送信は未知の確率で成功する。
送信機の目標は、$t$のタイムスロット上のキュー内のパケット数を最小化する最善のチャネルを迅速に特定することである。
システム性能を分析するために,学習方針の全キュー長と,そのレートを知っているコントローラ,すなわち優先順位との期待値の違いである待ち行列長の後悔を導入する。
伝達ポリシーを設計する1つのアプローチは、密接に関連する確率的多腕バンディット問題を解決する文学のアルゴリズムを適用することである。
これらのポリシーは、時間とともにフレーム転送の成功回数を最大化することに焦点を当てる。
しかし、これらのメソッドは、$\Omega(\log{T})$ queue length regretを持つことを示す。
一方で, 最適な$o(1)$ キュー長の後悔を得られるような, キュー長ベースのポリシー群が存在することを示す。
シミュレーションでうまく機能することを示すヒューリスティックな手法を考案するために理論解析を用いる。 We consider a system consisting of a single transmitter/receiver pair and $N$ channels over which they may communicate. Packets randomly arrive to the transmitter's queue and wait to be successfully sent to the receiver. The transmitter may attempt a frame transmission on one channel at a time, where each frame includes a packet if one is in the queue. For each channel, an attempted transmission is successful with an unknown probability. The transmitter's objective is to quickly identify the best channel to minimize the number of packets in the queue over $T$ time slots. To analyze system performance, we introduce queue length regret, which is the expected difference between the total queue length of a learning policy and a controller that knows the rates, a priori. One approach to designing a transmission policy would be to apply algorithms from the literature that solve the closely-related stochastic multi-armed bandit problem. These policies would focus on maximizing the number of successful frame transmissions over time. However, we show that these methods have $\Omega(\log{T})$ queue length regret. On the other hand, we show that there exists a set of queue-length based policies that can obtain order optimal $O(1)$ queue length regret. We use our theoretical analysis to devise heuristic methods that are shown to perform well in simulation. | 翻訳日:2022-12-04 20:10:57 公開日:2020-05-14 |
# ポース提案批判:リジェクションエラー学習によるロバストなポースリファインメント Pose Proposal Critic: Robust Pose Refinement by Learning Reprojection Errors ( http://arxiv.org/abs/2005.06262v2 ) ライセンス: Link先を確認 | Lucas Brynte and Fredrik Kahl | (参考訳) 近年,単一のrgb画像からの剛体姿勢推定の課題がかなりの進歩を遂げているが,部分閉塞に対する頑健性の実現は依然として課題となっている。
レンダリングによるポースリファインメントは、特にデータが不足している場合に、改善された結果を達成するために有望であることを示している。
本稿では,ポーズの精密化に着目し,部分的咬合の場合の最先端を押し進め方を示す。
提案手法は,cnnを訓練し,観測画像とレンダリング画像間の再投影誤差を推定する簡易学習タスクに活用する。
我々は、純粋な合成データと、合成データと実データとの混合を訓練して実験する。
現在の最先端の結果はoctorion linemodベンチマークの3つの指標のうち2つで上回っており、最終測定値のオンパリットを実行している。 In recent years, considerable progress has been made for the task of rigid object pose estimation from a single RGB-image, but achieving robustness to partial occlusions remains a challenging problem. Pose refinement via rendering has shown promise in order to achieve improved results, in particular, when data is scarce. In this paper we focus our attention on pose refinement, and show how to push the state-of-the-art further in the case of partial occlusions. The proposed pose refinement method leverages on a simplified learning task, where a CNN is trained to estimate the reprojection error between an observed and a rendered image. We experiment by training on purely synthetic data as well as a mixture of synthetic and real data. Current state-of-the-art results are outperformed for two out of three metrics on the Occlusion LINEMOD benchmark, while performing on-par for the final metric. | 翻訳日:2022-12-03 13:16:11 公開日:2020-05-14 |
# マルチモーダル組込み融合型レコメンダ Multi-modal Embedding Fusion-based Recommender ( http://arxiv.org/abs/2005.06331v2 ) ライセンス: Link先を確認 | Anna Wroblewska (1 and 2), Jacek Dabrowski (1), Michal Pastuszak (1), Andrzej Michalowski (1), Michal Daniluk (1), Barbara Rychalska (1 and 2), Mikolaj Wieczorek (1), Sylwia Sysko-Romanczuk (2) ((1) Synerise, (2) Warsaw University of Technology) | (参考訳) 近年,オンラインインタラクションシステムにおける主要なユースケースとして,eコマースプラットフォームに重点を置くレコメンデーションシステムが世界的に普及している。
機械学習ベースのレコメンデーションプラットフォームを開発したので、ほとんどのアイテムやアクションドメインに簡単に適用できます。
既存のレコメンデーションシステムとは対照的に、当社のプラットフォームは、複数のメタデータをネイティブに持つ複数のタイプのインタラクションデータをサポートしている。
これは様々なデータ表現のマルチモーダル融合によって達成される。
私たちはプラットフォームを、食べ物や飲み物、靴、ファッションアイテム、通信事業者など、さまざまな種類のeコマースストアに展開しました。
ここでは,システムとその柔軟性と性能について述べる。
オープンデータセットのベンチマーク結果も示しています。 Recommendation systems have lately been popularized globally, with primary use cases in online interaction systems, with significant focus on e-commerce platforms. We have developed a machine learning-based recommendation platform, which can be easily applied to almost any items and/or actions domain. Contrary to existing recommendation systems, our platform supports multiple types of interaction data with multiple modalities of metadata natively. This is achieved through multi-modal fusion of various data representations. We deployed the platform into multiple e-commerce stores of different kinds, e.g. food and beverages, shoes, fashion items, telecom operators. Here, we present our system, its flexibility and performance. We also show benchmark results on open datasets, that significantly outperform state-of-the-art prior work. | 翻訳日:2022-12-03 13:00:01 公開日:2020-05-14 |
# 新しいCNet型進化レベル修復装置とスーパーマリオブラザーへの応用 A Novel CNet-assisted Evolutionary Level Repairer and Its Applications to Super Mario Bros ( http://arxiv.org/abs/2005.06148v2 ) ライセンス: Link先を確認 | Tianye Shu, Ziqi Wang, Jialin Liu, Xin Yao | (参考訳) ゲームレベルの設計に潜在変数進化を適用することは、人間の専門知識がほとんど必要とされないため、ますます人気が高まっている。
しかし、不規則なパターンを持つ欠陥レベルは、レベル設計の制約に違反するため発生する可能性がある。
欠陥レベルを修復する従来の方法として、特定のルールベースの修正プログラムがある。
しかし、これらの制約のプログラミングは時々複雑であり、単純ではない。
制約を学習できる自律レベル修復機が必要である。
本稿では, 周辺タイルの確率分布を実レベルで学習し, 未知のタイルを新たに生成する手法であるCNetを提案する。
そして、CNetと新しいヒューリスティック関数の助けを借りて構築される新しい検索空間を備えた最適な代替スキームを探索する進化的補修器を設計する。
提案手法は,スーパーマリオブラザーズのGAN生成および人工破壊レベルの修復に有効であることが実証された。
cnetが支援する進化的修復器は、そのレベルをオブジェクトやタイルのマトリックスで表現できる他のゲームにも容易に適用できます。 Applying latent variable evolution to game level design has become more and more popular as little human expert knowledge is required. However, defective levels with illegal patterns may be generated due to the violation of constraints for level design. A traditional way of repairing the defective levels is programming specific rule-based repairers to patch the flaw. However, programming these constraints is sometimes complex and not straightforward. An autonomous level repairer which is capable of learning the constraints is needed. In this paper, we propose a novel approach, CNet, to learn the probability distribution of tiles giving its surrounding tiles on a set of real levels, and then detect the illegal tiles in generated new levels. Then, an evolutionary repairer is designed to search for optimal replacement schemes equipped with a novel search space being constructed with the help of CNet and a novel heuristic function. The proposed approaches are proved to be effective in our case study of repairing GAN-generated and artificially destroyed levels of Super Mario Bros. game. Our CNet-assisted evolutionary repairer can also be easily applied to other games of which the levels can be represented by a matrix of objects or tiles. | 翻訳日:2022-12-03 10:07:04 公開日:2020-05-14 |
# 画像特徴量とそのマッチングのための情報・相互情報比 The Information & Mutual Information Ratio for Counting Image Features and Their Matches ( http://arxiv.org/abs/2005.06739v1 ) ライセンス: Link先を確認 | Ali Khajegili Mirabadi and Stefano Rini | (参考訳) 特徴抽出と記述は、画像再構成、ステッチ、登録、認識など多くのタスクの出発点となるため、コンピュータビジョンの重要なトピックである。
本稿では,情報比(IR)と相互情報比(MIR)の2つの新しい特徴について述べる。
IRは1つの画像の特徴であり、MIRは2つ以上の画像に共通する特徴を記述し、IRとMIRを導入し、これらの特徴を情報理論的文脈において、同じ強度の画素上に含まれる情報に対する強度レベルの自己情報の割合として動機付ける。
特に、IRとMIRと画像エントロピー、相互情報、古典情報測度との関係について論じる。
最後に、これらの機能の有効性は、INRIA Copydaysデータセット上の機能抽出と、Oxfords Affine Covariant Regions上の機能マッチングによってテストされる。
これらの数値評価は、実用的なコンピュータビジョンタスクにおけるIRとMIRの関係を検証している Feature extraction and description is an important topic of computer vision, as it is the starting point of a number of tasks such as image reconstruction, stitching, registration, and recognition among many others. In this paper, two new image features are proposed: the Information Ratio (IR) and the Mutual Information Ratio (MIR). The IR is a feature of a single image, while the MIR describes features common across two or more images.We begin by introducing the IR and the MIR and motivate these features in an information theoretical context as the ratio of the self-information of an intensity level over the information contained over the pixels of the same intensity. Notably, the relationship of the IR and MIR with the image entropy and mutual information, classic information measures, are discussed. Finally, the effectiveness of these features is tested through feature extraction over INRIA Copydays datasets and feature matching over the Oxfords Affine Covariant Regions. These numerical evaluations validate the relevance of the IR and MIR in practical computer vision tasks | 翻訳日:2022-12-03 05:39:48 公開日:2020-05-14 |
# FaceFilter:静止画像を用いた音声と視覚の分離 FaceFilter: Audio-visual speech separation using still images ( http://arxiv.org/abs/2005.07074v1 ) ライセンス: Link先を確認 | Soo-Whan Chung, Soyeon Choe, Joon Son Chung, Hong-Goo Kang | (参考訳) 本研究の目的は,音声と視覚の音声分離ネットワークを用いて,話者の発話を2つの話者の混合音から分離することである。
ビデオクリップの唇の動きや事前登録された話者情報を補助的条件特徴として用いた従来の作品とは異なり、対象話者の単一顔画像を使用する。
この課題では、聴覚と視覚の同一性表現を潜在空間で共有するクロスモーダルバイオメトリックタスクにおける顔の出現から条件特徴を得る。
顔画像から身元を学習すると、ネットワークは一致した話者を分離し、混合音声から音声を抽出する。
音声分離タスクにおいて頻繁に発生するチャネル出力のスワップによる置換問題を解消する。
提案手法は,多くのプラットフォームでユーザプロフィール画像が容易に利用できるため,ビデオ音声の分離よりもはるかに実用的である。
また、話者認識分離法と異なり、これまで登録されたことのない未知の話者との分離に適用できる。
実世界の挑戦事例について,定性的かつ定量的な結果を示す。 The objective of this paper is to separate a target speaker's speech from a mixture of two speakers using a deep audio-visual speech separation network. Unlike previous works that used lip movement on video clips or pre-enrolled speaker information as an auxiliary conditional feature, we use a single face image of the target speaker. In this task, the conditional feature is obtained from facial appearance in cross-modal biometric task, where audio and visual identity representations are shared in latent space. Learnt identities from facial images enforce the network to isolate matched speakers and extract the voices from mixed speech. It solves the permutation problem caused by swapped channel outputs, frequently occurred in speech separation tasks. The proposed method is far more practical than video-based speech separation since user profile images are readily available on many platforms. Also, unlike speaker-aware separation methods, it is applicable on separation with unseen speakers who have never been enrolled before. We show strong qualitative and quantitative results on challenging real-world examples. | 翻訳日:2022-12-03 05:39:29 公開日:2020-05-14 |
# 分散学習におけるストラグラー緩和のための通信効率の高い勾配符号化 Communication-Efficient Gradient Coding for Straggler Mitigation in Distributed Learning ( http://arxiv.org/abs/2005.07184v1 ) ライセンス: Link先を確認 | Swanand Kadhe, O. Ozan Koyluoglu, and Kannan Ramchandran | (参考訳) サーバがワーカーマシンにまたがって勾配計算を分散する勾配ベースのメソッドの分散実装では、"ストラグラー"と呼ばれる遅い実行マシンによる遅延と通信オーバーヘッドという2つの制限を克服する必要がある。
ye と abbe [icml 2018] は先日,ワーカ当たりの計算負荷,ワーカ当たりの通信オーバーヘッド,ストラグラー耐性といった基本的なトレードオフを特徴付ける,コーディング理論のパラダイムを提案した。
しかし、それらの符号化方式は高いデコード複雑さと低い数値安定性に苦しむ。
本稿では,これらの欠点を克服する通信効率のよい勾配符号化フレームワークを開発する。
提案するフレームワークでは,任意の線形コードを用いてエンコーディングとデコード関数を設計できる。
このフレームワークで特定のコードを使用する場合、そのブロック長が計算負荷を決定し、次元が通信オーバーヘッドを決定し、最小距離がストラグラー耐性を決定する。
コードの選択の柔軟性により、より小さな復号複雑さと高い数値安定性のために、ストラグラーしきい値と通信オーバーヘッドを優雅にトレードオフできる。
さらに, ランダムガウス行列が生成する最大距離分離性(mds)符号を用いることで, トレードオフに対して最適である勾配符号が得られること, また, 提案手法と比較して数値安定性の保証が強くなることを示す。
最後に,提案フレームワークをAmazon EC2上で評価し,従来の勾配符号化方式と比較して平均イテレーション時間を16%短縮することを示した。 Distributed implementations of gradient-based methods, wherein a server distributes gradient computations across worker machines, need to overcome two limitations: delays caused by slow running machines called 'stragglers', and communication overheads. Recently, Ye and Abbe [ICML 2018] proposed a coding-theoretic paradigm to characterize a fundamental trade-off between computation load per worker, communication overhead per worker, and straggler tolerance. However, their proposed coding schemes suffer from heavy decoding complexity and poor numerical stability. In this paper, we develop a communication-efficient gradient coding framework to overcome these drawbacks. Our proposed framework enables using any linear code to design the encoding and decoding functions. When a particular code is used in this framework, its block-length determines the computation load, dimension determines the communication overhead, and minimum distance determines the straggler tolerance. The flexibility of choosing a code allows us to gracefully trade-off the straggler threshold and communication overhead for smaller decoding complexity and higher numerical stability. Further, we show that using a maximum distance separable (MDS) code generated by a random Gaussian matrix in our framework yields a gradient code that is optimal with respect to the trade-off and, in addition, satisfies stronger guarantees on numerical stability as compared to the previously proposed schemes. Finally, we evaluate our proposed framework on Amazon EC2 and demonstrate that it reduces the average iteration time by 16% as compared to prior gradient coding schemes. | 翻訳日:2022-12-03 05:38:18 公開日:2020-05-14 |
# 単一カメラを用いた非協調空間相対航法におけるロバストオンマニフォールド最適化 Robust On-Manifold Optimization for Uncooperative Space Relative Navigation with a Single Camera ( http://arxiv.org/abs/2005.07110v1 ) ライセンス: Link先を確認 | Duarte Rondao, Nabil Aouf, Mark A. Richardson, Vincent Dubanchet | (参考訳) 光カメラは、従来の飛行ハードウェアや高価なレーザーベースのシステムと比較して、魅力的なサイズ、電力、コスト特性のため、宇宙での相対航法に適したセンサーとして人気を集めている。
しかし、カメラは独自の深度情報を推測することができず、補体センサーや第2のカメラを導入することでしばしば解決される。
本稿では, チェイサー宇宙船に対する対象物体の6次元姿勢を単眼的構成のみを用いて推定する, 革新的なモデルベースアプローチを提案する。
対象の観測面は分類問題として取り組まれ、ガウス混合モデルを用いて3次元形状をオフラインで学習する。
局所的な特徴対応に基づいて2つの異なるロバストな損失関数を最小化する。
結果の擬似測定は処理され、拡張されたカルマンフィルタで融合される。
最適化フレームワーク全体が$SE\text{(3)}$ manifold上で直接動作するように設計されており、グローバルな姿勢状態表現からプロセスと測定モデルを分離する。
複雑な宇宙船が観測するランデブー軌道の現実的な合成および実験室データセット上で検証される。
本手法は,全転動よりも高い精度で相対姿勢の推定を実現することを実証した。 Optical cameras are gaining popularity as the suitable sensor for relative navigation in space due to their attractive sizing, power and cost properties when compared to conventional flight hardware or costly laser-based systems. However, a camera cannot infer depth information on its own, which is often solved by introducing complementary sensors or a second camera. In this paper, an innovative model-based approach is instead demonstrated to estimate the six-dimensional pose of a target object relative to the chaser spacecraft using solely a monocular setup. The observed facet of the target is tackled as a classification problem, where the three-dimensional shape is learned offline using Gaussian mixture modeling. The estimate is refined by minimizing two different robust loss functions based on local feature correspondences. The resulting pseudo-measurements are then processed and fused with an extended Kalman filter. The entire optimization framework is designed to operate directly on the $SE\text{(3)}$ manifold, uncoupling the process and measurement models from the global attitude state representation. It is validated on realistic synthetic and laboratory datasets of a rendezvous trajectory with the complex spacecraft Envisat. It is demonstrated how it achieves an estimate of the relative pose with high accuracy over its full tumbling motion. | 翻訳日:2022-12-03 05:34:37 公開日:2020-05-14 |
# 添加物製造における熱補償のための材料歪みの定量化のための人工知能・統計解 An Artificial-intelligence/Statistics Solution to Quantify Material Distortion for Thermal Compensation in Additive Manufacturing ( http://arxiv.org/abs/2005.09084v1 ) ライセンス: Link先を確認 | Chao Wang, Shaofan Li, Danielle Zeng, and Xinhai Zhu | (参考訳) 本稿では,空間的構成における走査された材料データと初期設計構成や材料構成の形状に基づいて,永続的(非ゼロ歪)連続体/材料変形を定量化するための確率論的統計解あるいは人工知能(AI)手法を提案する。
この問題の課題は,3次元プリント製品の空間的構成と形状の走査材料データのみを把握しているのに対して,特定走査材料ポイントでは,その対応する材料座標を初期または設計時の参照構造で把握していないので,実際の物理的変形過程に関する詳細な情報が分かっていない。
物理に基づくモデリングとは違って,不完全な変形データや実際の物理的変形過程の欠如を解消する,データ駆動型人工知能手法が開発されている。
提案手法は,AIを用いた材料変形検出アルゴリズムである。
本手法は, 最先端3Dプリンティング技術の中心となる添加物製造における3Dプリンティング製品の熱補償構成の発見と設計において, 実用的および重要な応用を有する。
本稿では, 複雑な3dプリント構造部品の永久的な熱変形形状を精度良く見つけることができ, 温度変化に敏感な3dプリント構造部品の温度変動の影響を最小限に抑えるために, 熱補償設計構成を同定できることを実証する。 In this paper, we introduce a probabilistic statistics solution or artificial intelligence (AI) approach to identify and quantify permanent (non-zero strain) continuum/material deformation only based on the scanned material data in the spatial configuration and the shape of the initial design configuration or the material configuration. The challenge of this problem is that we only know the scanned material data in the spatial configuration and the shape of the design configuration of three-dimensional (3D) printed products, whereas for a specific scanned material point we do not know its corresponding material coordinates in the initial or designed referential configuration, provided that we do not know the detailed information on actual physical deformation process. Different from physics-based modeling, the method developed here is a data-driven artificial intelligence method, which solves the problem with incomplete deformation data or with missing information of actual physical deformation process. We coined the method is an AI-based material deformation finding algorithm. This method has practical significance and important applications in finding and designing thermal compensation configuration of a 3D printed product in additive manufacturing, which is at the heart of the cutting edge 3D printing technology. In this paper, we demonstrate that the proposed AI continuum/material deformation finding approach can accurately find permanent thermal deformation configuration for a complex 3D printed structure component, and hence to identify the thermal compensation design configuration in order to minimizing the impact of temperature fluctuations on 3D printed structure components that are sensitive to changes of temperature. | 翻訳日:2022-12-03 05:32:56 公開日:2020-05-14 |
# 大規模家庭エネルギー管理のための集合行動エントロピーを用いた連続マルチエージェント制御 Continuous Multiagent Control using Collective Behavior Entropy for Large-Scale Home Energy Management ( http://arxiv.org/abs/2005.10000v1 ) ライセンス: Link先を確認 | Jianwen Sun, Yan Zheng, Jianye Hao, Zhaopeng Meng, Yang Liu | (参考訳) スマートグリッドシステムにおける電気自動車、分散型エネルギー発電、貯蔵設備の普及に伴い、省エネとピーク負荷削減のために効率的な需要側管理(DSM)が不可欠である。
従来のDSMは、1世帯のエネルギー活動の最適化に重点を置いており、大規模な家庭エネルギー管理の問題にスケールアップできない。
マルチエージェント深層強化学習 (MA-DRL) は, エネルギーコストとピーク負荷削減のバランスを保ちながら, 現代の家庭がエネルギー消費を減らすために連携し, スケーラビリティの問題を解く潜在的方法を示す。
しかし、そのような環境を非定常性で解決することは困難であり、既存のMA-DRLアプローチは期待されるグループ行動に対して効果的なインセンティブを与えることができない。
本稿では,大規模マイクログリッド上での微粒化制御を実現するために,連続的な動作空間を持つ集合MA-DRLアルゴリズムを提案する。
マイクログリッド環境の非定常性を緩和するために,マーケットの集合的挙動を測定する新しい予測モデルを提案する。
さらに,スマートグリッドにおける全世帯の集団行動によって生じるピーク負荷を低減するために,集団行動エントロピーを導入する。
実証実験の結果,本手法は電力コスト削減と日次ピーク負荷最適化に関する最先端手法よりも優れていた。 With the increasing popularity of electric vehicles, distributed energy generation and storage facilities in smart grid systems, an efficient Demand-Side Management (DSM) is urgent for energy savings and peak loads reduction. Traditional DSM works focusing on optimizing the energy activities for a single household can not scale up to large-scale home energy management problems. Multi-agent Deep Reinforcement Learning (MA-DRL) shows a potential way to solve the problem of scalability, where modern homes interact together to reduce energy consumers consumption while striking a balance between energy cost and peak loads reduction. However, it is difficult to solve such an environment with the non-stationarity, and existing MA-DRL approaches cannot effectively give incentives for expected group behavior. In this paper, we propose a collective MA-DRL algorithm with continuous action space to provide fine-grained control on a large scale microgrid. To mitigate the non-stationarity of the microgrid environment, a novel predictive model is proposed to measure the collective market behavior. Besides, a collective behavior entropy is introduced to reduce the high peak loads incurred by the collective behaviors of all householders in the smart grid. Empirical results show that our approach significantly outperforms the state-of-the-art methods regarding power cost reduction and daily peak loads optimization. | 翻訳日:2022-12-03 05:32:25 公開日:2020-05-14 |
# eコマースシステムにおけるカテゴリー予測のための深い階層分類 Deep Hierarchical Classification for Category Prediction in E-commerce System ( http://arxiv.org/abs/2005.06692v1 ) ライセンス: Link先を確認 | Dehong Gao, Wenjing Yang, Huiling Zhou, Yi Wei, Yi Hu and Hao Wang | (参考訳) eコマースシステムでは、カテゴリ予測は与えられたテキストのカテゴリを自動的に予測する。
クラス間の関係がない従来の分類とは異なり、カテゴリは通常階層木として構成されるため、カテゴリ予測は標準的な階層的分類問題と見なされる。
本稿では階層的カテゴリー予測について述べる。
本稿では,ニューラルネットワークにマルチスケール階層情報を組み込んだDeep Hierarchical Classificationフレームワークを提案し,カテゴリ木に応じた表現共有戦略を提案する。
また、階層的予測損失を罰する新たな複合損失関数も定義する。
提案手法は既存の手法よりも精度が高いことを示す。 In e-commerce system, category prediction is to automatically predict categories of given texts. Different from traditional classification where there are no relations between classes, category prediction is reckoned as a standard hierarchical classification problem since categories are usually organized as a hierarchical tree. In this paper, we address hierarchical category prediction. We propose a Deep Hierarchical Classification framework, which incorporates the multi-scale hierarchical information in neural networks and introduces a representation sharing strategy according to the category tree. We also define a novel combined loss function to punish hierarchical prediction losses. The evaluation shows that the proposed approach outperforms existing approaches in accuracy. | 翻訳日:2022-12-03 05:32:04 公開日:2020-05-14 |
# ベイズ正規化流を用いた再イオン化履歴の制約 Constraining the Reionization History using Bayesian Normalizing Flows ( http://arxiv.org/abs/2005.07694v1 ) ライセンス: Link先を確認 | H\'ector J. Hort\'ua, Luigi Malago, Riccardo Volpi | (参考訳) 次世代の21cm調査は、宇宙構造形成の初期段階に新しい窓を開き、再イオン化(eor)の時期に関する新たな洞察を提供する。
しかし、21cm信号の非ガウス的な性質と、これらの調査から得られた膨大な量のデータには、宇宙のイオン化史を制約するために必要な情報を効率的に抽出する高度な技術が必要である。
本稿では,4つの天体物理および宇宙論的パラメータの後方分布を予測するためにベイズニューラルネットワーク(BNN)を用いた。
提案手法は,最先端予測性能の他に,パラメータの不確かさの正確な推定や相関の推測を行う。
さらに,BNNと組み合わせた正規化フロー(NF)の利点を実証し,より複雑な出力分布をモデル化し,パラメータ条件密度分布におけるキー情報を非ガウス性として捉えた。
最後に,訓練後の流れを正規化し,信頼性の高い予測を行う新しいキャリブレーション手法を提案し,計算コストと予測性能の両面で,この手法の利点を実証する。 The next generation 21 cm surveys open a new window onto the early stages of cosmic structure formation and provide new insights about the Epoch of Reionization (EoR). However, the non-Gaussian nature of the 21 cm signal along with the huge amount of data generated from these surveys will require more advanced techniques capable to efficiently extract the necessary information to constrain the Reionization History of the Universe. In this paper we present the use of Bayesian Neural Networks (BNNs) to predict the posterior distribution for four astrophysical and cosmological parameters. Besides achieving state-of-the-art prediction performances, the proposed methods provide accurate estimation of parameters uncertainties and infer correlations among them. Additionally, we demonstrate the advantages of Normalizing Flows (NF) combined with BNNs, being able to model more complex output distributions and thus capture key information as non-Gaussianities in the parameter conditional density distribution for astrophysical and cosmological dataset. Finally, we propose novel calibration methods employing Normalizing Flows after training, to produce reliable predictions, and we demonstrate the advantages of this approach both in terms of computational cost and prediction performances. | 翻訳日:2022-12-03 05:31:56 公開日:2020-05-14 |
# FastText を利用したVenue Recommendation Utilizing FastText for Venue Recommendation ( http://arxiv.org/abs/2005.12982v1 ) ライセンス: Link先を確認 | Makbule Gulcin Ozsoy | (参考訳) ベニューレコメンデーションシステムは、過去のユーザのインタラクション(チェックイン)をモデル化し、会場を推薦する。
従来のレコメンデーションシステムは協調フィルタリング、コンテンツベースのフィルタリング、マトリックス因子化を用いる。
近年,ベクトル空間埋め込みやディープラーニングアルゴリズムも推奨されている。
本研究では,チェックインの逐次性機能と最近のベクトル空間埋め込み,すなわちFastTextを利用して,トップk会場を推薦する手法を提案する。
提案手法はチェックインのグループを形成し,会場のベクトル空間表現を学習し,学習した埋め込みを利用して会場推薦を行う。
Foursquareチェックインデータセットを用いて提案手法の性能を測定し,提案手法が最先端手法よりも優れていることを示す。 Venue recommendation systems model the past interactions (i.e., check-ins) of the users and recommend venues. Traditional recommendation systems employ collaborative filtering, content-based filtering or matrix factorization. Recently, vector space embedding and deep learning algorithms are also used for recommendation. In this work, I propose a method for recommending top-k venues by utilizing the sequentiality feature of check-ins and a recent vector space embedding method, namely the FastText. Our proposed method; forms groups of check-ins, learns the vector space representations of the venues and utilizes the learned embeddings to make venue recommendations. I measure the performance of the proposed method using a Foursquare check-in dataset.The results show that the proposed method performs better than the state-of-the-art methods. | 翻訳日:2022-12-03 05:31:35 公開日:2020-05-14 |
# deepfaceflow: 密集した3d顔の動き推定 DeepFaceFlow: In-the-wild Dense 3D Facial Motion Estimation ( http://arxiv.org/abs/2005.07298v1 ) ライセンス: Link先を確認 | Mohammad Rami Koujan, Anastasios Roussos, Stefanos Zafeiriou | (参考訳) rgb画像の単眼内対のみからの高密度な3dモーションキャプチャは、表情認識から顔再現まで、多くの応用において非常に難しい問題である。
本研究では,1対の単眼画像間における3次元非剛性顔流の高密度推定のためのロバストで高速,高精度なフレームワークであるdeepfaceflowを提案する。
DeepFaceFlowフレームワークは、Occlusion-awareと3Dベースの損失関数の助けを借りて、2つの非常に大規模な顔ビデオデータセットをトレーニングし、テストしました。
提案手法の異なる側面を探索する総合的な実験を行い,最先端の流れと3次元再構成手法に対する性能向上を実証した。
さらに,本手法をフルヘッドの最先端顔映像合成法に組み込んで,顔のダイナミックスを表現・キャプチャし,高リアルな顔映像合成を実現する手法の能力を実証した。
登録された画像のペアが与えられたら、60fps近くで3dフローマップを生成します。 Dense 3D facial motion capture from only monocular in-the-wild pairs of RGB images is a highly challenging problem with numerous applications, ranging from facial expression recognition to facial reenactment. In this work, we propose DeepFaceFlow, a robust, fast, and highly-accurate framework for the dense estimation of 3D non-rigid facial flow between pairs of monocular images. Our DeepFaceFlow framework was trained and tested on two very large-scale facial video datasets, one of them of our own collection and annotation, with the aid of occlusion-aware and 3D-based loss function. We conduct comprehensive experiments probing different aspects of our approach and demonstrating its improved performance against state-of-the-art flow and 3D reconstruction methods. Furthermore, we incorporate our framework in a full-head state-of-the-art facial video synthesis method and demonstrate the ability of our method in better representing and capturing the facial dynamics, resulting in a highly-realistic facial video synthesis. Given registered pairs of images, our framework generates 3D flow maps at ~60 fps. | 翻訳日:2022-12-03 05:25:25 公開日:2020-05-14 |
# 収束を保証する非凸テンソルリングランク最小化によるテンソル完備化 Tensor completion via nonconvex tensor ring rank minimization with guaranteed convergence ( http://arxiv.org/abs/2005.09674v1 ) ライセンス: Link先を確認 | Meng Ding, Ting-Zhu Huang, Xi-Le Zhao, Tian-Hui Ma | (参考訳) 近年の研究では、テンソル環(TR)のランクは、高次テンソル内の固有構造を捉える能力により、テンソル完備化において高い効果を示している。
最近提案されたTRランク最小化法は、TR展開行列の核ノルムの重み付け和をペナリゼーションすることで凸緩和に基づいている。
しかし、この方法は各特異値を等しく扱い、それらの物理的意味を無視する。
本稿では, TRランクを高精度に近似し, 解の低ランク化を促進するために, TRランクの非凸な緩和としてlogdet-based関数を用いることを提案する。
提案する非凸モデルを効率的に解くために,乗算アルゴリズムの交互方向法を考案し,いくつかの軽度仮定の下で定常点に収束することを理論的に証明した。
カラー画像,マルチスペクトル画像,カラービデオに対する広範囲な実験により,提案手法が,視覚的および定量的比較において,最先端の競合他社を上回っていることが示された。
キーワード:非凸最適化、テンソルリングランク、対数関数、テンソル完備化、乗算器の交互方向法。 In recent studies, the tensor ring (TR) rank has shown high effectiveness in tensor completion due to its ability of capturing the intrinsic structure within high-order tensors. A recently proposed TR rank minimization method is based on the convex relaxation by penalizing the weighted sum of nuclear norm of TR unfolding matrices. However, this method treats each singular value equally and neglects their physical meanings, which usually leads to suboptimal solutions in practice. In this paper, we propose to use the logdet-based function as a nonconvex smooth relaxation of the TR rank for tensor completion, which can more accurately approximate the TR rank and better promote the low-rankness of the solution. To solve the proposed nonconvex model efficiently, we develop an alternating direction method of multipliers algorithm and theoretically prove that, under some mild assumptions, our algorithm converges to a stationary point. Extensive experiments on color images, multispectral images, and color videos demonstrate that the proposed method outperforms several state-of-the-art competitors in both visual and quantitative comparison. Key words: nonconvex optimization, tensor ring rank, logdet function, tensor completion, alternating direction method of multipliers. | 翻訳日:2022-12-03 05:25:07 公開日:2020-05-14 |
# ZeroShotCeres: 半構造化Webページからのゼロショット関係抽出 ZeroShotCeres: Zero-Shot Relation Extraction from Semi-Structured Webpages ( http://arxiv.org/abs/2005.07105v1 ) ライセンス: Link先を確認 | Colin Lockard, Prashant Shiralkar, Xin Luna Dong, Hannaneh Hajishirzi | (参考訳) 半構造化ウェブページのような多くの文書では、テキストセマンティクスはレイアウト、フォントサイズ、色などの視覚的要素を用いて伝達される追加情報で拡張される。
以前の半構造化webサイトからの情報抽出作業では、手動でラベル付けされたり、遠方の教師付きデータを使って、所定のテンプレート特有の抽出モデルを学ぶ必要があった。
そこで本研究では,Webページから既往のテンプレートで「ゼロショット」なドメイン関係を抽出する手法を提案する。
我々のモデルは、グラフニューラルネットワークに基づくアプローチを用いて、Webページ上のテキストフィールドとそれらの関係をリッチに表現し、新しいテンプレートへの一般化を可能にする。
実験によれば、このアプローチは、新しい主題の垂直方向におけるゼロショット抽出のベースラインよりも31%のf1ゲインを提供する。 In many documents, such as semi-structured webpages, textual semantics are augmented with additional information conveyed using visual elements including layout, font size, and color. Prior work on information extraction from semi-structured websites has required learning an extraction model specific to a given template via either manually labeled or distantly supervised data from that template. In this work, we propose a solution for "zero-shot" open-domain relation extraction from webpages with a previously unseen template, including from websites with little overlap with existing sources of knowledge for distant supervision and websites in entirely new subject verticals. Our model uses a graph neural network-based approach to build a rich representation of text fields on a webpage and the relationships between them, enabling generalization to new templates. Experiments show this approach provides a 31% F1 gain over a baseline for zero-shot extraction in a new subject vertical. | 翻訳日:2022-12-03 05:24:44 公開日:2020-05-14 |
# 旅行泥棒問題に対するsurrogateの最適化支援 Surrogate Assisted Optimisation for Travelling Thief Problems ( http://arxiv.org/abs/2005.06695v1 ) ライセンス: Link先を確認 | Majid Namazi, Conrad Sanderson, M.A. Hakim Newton, Abdul Sattar | (参考訳) トラベリング泥棒問題 (TTP) は、トラベリングセールスマン問題 (TSP) とクナップサック問題 (KP) の2つの独立したNPハードコンポーネントを含む多成分最適化問題である。
最近の最先端TTP解法は、根底にあるTSPとKPの解を反復的かつインターリーブ的に修正している。
TSP解(巡回巡回)は典型的には決定論的に変化するが、KP解の変更は通常ランダムな探索を伴い、事実上TTP解空間の準蛇行的な探索をもたらす。
台地に達すると、新しい初期TSPツアーを用いて、TPソリューション空間の反復探索を再開する。
本稿では,適切なTTPソリューションをもたらす初期TSPツアーの特徴を学習するアダプティブサロゲートモデル(Support Vector Regressionのカスタマイズ形式に基づく)により,検索をより効率的にすることを提案する。
このモデルは、プロムしない初期のTSPツアーをフィルタリングするために使用され、結果として優れたTTPソリューションを見つけるのに要する時間を削減する。
幅広いベンチマークTTPインスタンスの実験から、提案手法は、最も優れたTTPソリューションのごく一部を省略するコストで、かなりの数の初期ツアーをフィルタリングすることを示している。 The travelling thief problem (TTP) is a multi-component optimisation problem involving two interdependent NP-hard components: the travelling salesman problem (TSP) and the knapsack problem (KP). Recent state-of-the-art TTP solvers modify the underlying TSP and KP solutions in an iterative and interleaved fashion. The TSP solution (cyclic tour) is typically changed in a deterministic way, while changes to the KP solution typically involve a random search, effectively resulting in a quasi-meandering exploration of the TTP solution space. Once a plateau is reached, the iterative search of the TTP solution space is restarted by using a new initial TSP tour. We propose to make the search more efficient through an adaptive surrogate model (based on a customised form of Support Vector Regression) that learns the characteristics of initial TSP tours that lead to good TTP solutions. The model is used to filter out non-promising initial TSP tours, in effect reducing the amount of time spent to find a good TTP solution. Experiments on a broad range of benchmark TTP instances indicate that the proposed approach filters out a considerable number of non-promising initial tours, at the cost of omitting only a small number of the best TTP solutions. | 翻訳日:2022-12-03 05:24:31 公開日:2020-05-14 |
# 抽象f系について
虚偽述語を含むパラドックスのグラフ理論モデルとその議論フレームワークへの応用 On abstract F-systems. A graph-theoretic model for paradoxes involving a falsity predicate and its application to argumentation frameworks ( http://arxiv.org/abs/2005.07050v1 ) ライセンス: Link先を確認 | Gustavo A. Bodanza | (参考訳) f-systems は、他の文の虚偽を述語する文をモデル化できるダイアグラフである。
LiarやYabloのようなパラドックスは、そのツールを使ってグラフ理論パターンを見つけることができる。
本稿では,表現された文が表現される言語の特徴をすべて抽象化するF-systemsモデルを提案する。
前提となるのは文の存在であり、二項関係は「...の虚偽性」である。
非参照文の存在も考慮されている。
共に真と評価できる全ての文の集合をモデル化するために、コングロマリットの概念を導入し、その存在はパラドックスが存在しないことを保証します。
コングロマリットはまた、参照矛盾、すなわちモデル内の他の文との相互作用によって古典的評価の下でのみ偽になってしまう文を特徴付けることができる。
接地性を特徴づけるクリプケスタイルの不動点を提示し、完備な不動点(各文が真か偽かのどちらかと見なされる)と一貫性(無文が真か偽かのどちらかであることを意味する)をコングロマリットと対応させる。
さらに、議論フレームワークはFシステムの特別なケースである。
本稿では,局所コングロマリットと許容される議論集合の関係を示し,議論論における概念の有用性について論じる。 F-systems are digraphs that enable to model sentences that predicate the falsity of other sentences. Paradoxes like the Liar and Yablo's can be analyzed with that tool to find graph-theoretic patterns. In this paper we present the F-systems model abstracting from all the features of the language in which the represented sentences are expressed. All that is assumed is the existence of sentences and the binary relation '... affirms the falsity of ...' among them. The possible existence of non-referential sentences is also considered. To model the sets of all the sentences that can jointly be valued as true we introduce the notion of conglomerate, the existence of which guarantees the absence of paradox. Conglomerates also enable to characterize referential contradictions, i.e. sentences that can only be false under a classical valuation due to the interactions with other sentences in the model. A Kripke's style fixed point characterization of groundedness is offered and fixed points which are complete (meaning that every sentence is deemed either true or false) and consistent (meaning that no sentence is deemed true and false) are put in correspondence with conglomerates. Furthermore, argumentation frameworks are special cases of F-systems. We show the relation between local conglomerates and admissible sets of arguments and argue about the usefulness of the concept for argumentation theory. | 翻訳日:2022-12-03 05:24:07 公開日:2020-05-14 |
# 情報セットモンテカルロ木探索による複雑な隠れロールゲームにおける競合 Competing in a Complex Hidden Role Game with Information Set Monte Carlo Tree Search ( http://arxiv.org/abs/2005.07156v1 ) ライセンス: Link先を確認 | Jack Reinhardt | (参考訳) インテリジェントなゲームプレイエージェントの進歩は、goのような完璧な情報ゲームやポーカーのような不完全な情報ゲームの成功につながった。
Information Set Monte Carlo Tree Search (ISMCTS) のアルゴリズムは、不完全な情報ゲームにおいてモンテカルロ法を用いて以前のアルゴリズムより優れている。
本稿では,従来の隠れた役割機構とカードデッキのランダム性を組み合わせた,人気のソーシャル推論ボードゲームであるシークレット・ヒトラーに対して,シングルオブザーバ情報セットモンテカルロ木探索(so-ismcts)を適用する。
この組み合わせは、隠れた役割とカードデッキの仕組みのみよりも複雑な情報モデルをもたらす。
10108のシミュレーションゲームでは、SO-ISMCTSはより単純なルールベースのエージェントとして機能し、複雑な情報集合領域におけるISMCTSアルゴリズムの可能性を示す。 Advances in intelligent game playing agents have led to successes in perfect information games like Go and imperfect information games like Poker. The Information Set Monte Carlo Tree Search (ISMCTS) family of algorithms outperforms previous algorithms using Monte Carlo methods in imperfect information games. In this paper, Single Observer Information Set Monte Carlo Tree Search (SO-ISMCTS) is applied to Secret Hitler, a popular social deduction board game that combines traditional hidden role mechanics with the randomness of a card deck. This combination leads to a more complex information model than the hidden role and card deck mechanics alone. It is shown in 10108 simulated games that SO-ISMCTS plays as well as simpler rule based agents, and demonstrates the potential of ISMCTS algorithms in complicated information set domains. | 翻訳日:2022-12-03 05:23:44 公開日:2020-05-14 |
# コンテクストベース画像アウトパインティングのための拡張残差ネットワーク Enhanced Residual Networks for Context-based Image Outpainting ( http://arxiv.org/abs/2005.06723v1 ) ライセンス: Link先を確認 | Przemek Gardias, Eric Arthur, Huaming Sun | (参考訳) 人間は画像の境界を超えるものを予測するのに優れていますが、深いモデルは保持された情報を通してコンテキストや外挿を理解するのに苦労しています。
このタスクは画像の露光と呼ばれ、画像の境界の現実的な拡張を生成する。
現在のモデルは生成広告ネットワークを使用して、ローカライズされた画像特徴の一貫性が欠如し、フェイクに見える結果を生成する。
この問題を改善するための2つの手法として,局所的および大域的な判別器の使用と,ネットワークの符号化部に残差ブロックを追加することを提案する。
我々のモデルとベースラインのL1損失、平均二乗誤差(MSE)損失、定性的差の比較により、我々のモデルは対象の境界を自然に拡張し、現在の手法と比較してより一貫した画像を生成することができるが、より低い忠実度画像を生成する。 Although humans perform well at predicting what exists beyond the boundaries of an image, deep models struggle to understand context and extrapolation through retained information. This task is known as image outpainting and involves generating realistic expansions of an image's boundaries. Current models use generative adversarial networks to generate results which lack localized image feature consistency and appear fake. We propose two methods to improve this issue: the use of a local and global discriminator, and the addition of residual blocks within the encoding section of the network. Comparisons of our model and the baseline's L1 loss, mean squared error (MSE) loss, and qualitative differences reveal our model is able to naturally extend object boundaries and produce more internally consistent images compared to current methods but produces lower fidelity images. | 翻訳日:2022-12-03 05:23:14 公開日:2020-05-14 |
# 並列クロンネットワークを用いた低次元CT画像デノーミング Low-Dose CT Image Denoising Using Parallel-Clone Networks ( http://arxiv.org/abs/2005.06724v1 ) ライセンス: Link先を確認 | Siqi Li and Guobao Wang | (参考訳) 低線量CT(LDCT)において、ディープニューラルネットワークは画像のノイズ化を改善する大きな可能性を秘めている。
ネットワーク容量を増やす一般的な方法は、レイヤーの追加や、モジュール化されたクローンモデルをシーケンスで繰り返すことである。
このようなシーケンシャルなアーキテクチャでは、ノイズの多い入力画像とエンド出力画像はトレーニングモデルで一度しか使われないが、全体的な学習性能は制限される。
本稿では,モジュール化されたネットワークモデルを利用し,並列入力,並列出力損失,クローンクローン特徴伝達の利点を生かした並列クローンニューラルネットワーク手法を提案する。
提案モデルでは,従来のモデルと同じような,あるいは少ない数の未知のネットワーク重みを保ちながら,学習プロセスを著しく加速することができる。
この手法は,Mayo LDCTデータセットを用いて評価し,既存のディープラーニングモデルと比較した。
その結果, 並列入力, 並列出力損失, クローン間特徴伝達を用いることで, 深層学習の高速化に寄与し, 画像品質の向上につながることがわかった。
並列クローンネットワークはLDCT画像の復調に有望であることが実証されている。 Deep neural networks have a great potential to improve image denoising in low-dose computed tomography (LDCT). Popular ways to increase the network capacity include adding more layers or repeating a modularized clone model in a sequence. In such sequential architectures, the noisy input image and end output image are commonly used only once in the training model, which however limits the overall learning performance. In this paper, we propose a parallel-clone neural network method that utilizes a modularized network model and exploits the benefit of parallel input, parallel-output loss, and clone-toclone feature transfer. The proposed model keeps a similar or less number of unknown network weights as compared to conventional models but can accelerate the learning process significantly. The method was evaluated using the Mayo LDCT dataset and compared with existing deep learning models. The results show that the use of parallel input, parallel-output loss, and clone-to-clone feature transfer all can contribute to an accelerated convergence of deep learning and lead to improved image quality in testing. The parallel-clone network has been demonstrated promising for LDCT image denoising. | 翻訳日:2022-12-03 05:22:59 公開日:2020-05-14 |
# ドメイン条件適応ネットワーク Domain Conditioned Adaptation Network ( http://arxiv.org/abs/2005.06717v1 ) ライセンス: Link先を確認 | Shuang Li, Chi Harold Liu, Qiuxia Lin, Binhui Xie, Zhengming Ding, Gao Huang, Jian Tang | (参考訳) ドメイン不変性を求めることによって、深層ドメイン適応(DA)を育むための研究努力が続けられている。
既存のディープDAモデルのほとんどは、ソースとターゲットのための完全に共有された畳み込みアーキテクチャを統合しながら、ドメイン間でタスク固有のレイヤの機能表現の整合性のみに焦点を当てています。
しかし、そのような強い共有畳み込み層は、ソースとターゲットのデータ分布が大きく異なる場合、ドメイン固有の特徴学習に有害である可能性がある。
本稿では,従来のDA手法による共有共振器の仮定を緩和し,ドメイン条件付きチャネルアテンション機構を用いた独自の畳み込みチャネルのエキサイティングを目的としたドメイン条件適応ネットワーク(DCAN)を提案する。
その結果、批判的な低レベルなドメイン依存の知識を適切に探究することができる。
私たちが知る限りでは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求するのはこれが初めてです。
さらに,2つのドメインにまたがる高レベルな特徴分布を効果的に整列させるため,タスク固有のレイヤの後にドメイン条件付き特徴補正ブロックを配置する。
3つのクロスドメインベンチマークに関する大規模な実験は、提案手法が既存の手法、特に非常に厳しいクロスドメイン学習タスクよりも優れていることを示している。 Tremendous research efforts have been made to thrive deep domain adaptation (DA) by seeking domain-invariant features. Most existing deep DA models only focus on aligning feature representations of task-specific layers across domains while integrating a totally shared convolutional architecture for source and target. However, we argue that such strongly-shared convolutional layers might be harmful for domain-specific feature learning when source and target data distribution differs to a large extent. In this paper, we relax a shared-convnets assumption made by previous DA methods and propose a Domain Conditioned Adaptation Network (DCAN), which aims to excite distinct convolutional channels with a domain conditioned channel attention mechanism. As a result, the critical low-level domain-dependent knowledge could be explored appropriately. As far as we know, this is the first work to explore the domain-wise convolutional channel activation for deep DA networks. Moreover, to effectively align high-level feature distributions across two domains, we further deploy domain conditioned feature correction blocks after task-specific layers, which will explicitly correct the domain discrepancy. Extensive experiments on three cross-domain benchmarks demonstrate the proposed approach outperforms existing methods by a large margin, especially on very tough cross-domain learning tasks. | 翻訳日:2022-12-03 05:16:11 公開日:2020-05-14 |
# 大規模フォント独立型ウルドゥー文字認識システム Large Scale Font Independent Urdu Text Recognition System ( http://arxiv.org/abs/2005.06752v1 ) ライセンス: Link先を確認 | Atique Ur Rehman, Sibt Ul Hussain | (参考訳) OCRアルゴリズムは、主に人工知能アルゴリズムの能力の向上により、最近、パフォーマンスが大幅に向上している。
しかし、この進歩は全ての言語に均等に分布するわけではない。
ウルドゥー語は特にフォント独立の観点からはあまり注目されなかった言語の一つである。
フォントの異なる画像やビデオに印刷されたUrduテキストを確実に認識できる自動化システムは存在しない。
このギャップを埋めるために、我々は、256フォントの大規模データセットであるQaidaと完全なUrdu lexiconを開発した。
また,84.2%の精度でウルドゥーリガチュアを識別できる畳み込みニューラルネットワーク(cnn)に基づく分類モデルを開発した。
さらに,我々の認識ネットワークは,学習中のフォント中のテキストを認識できるだけでなく,未認識の(新しい)フォントでも確実にテキストを認識できることを実証する。
この目的のために、本論文は下記の貢献をする。
(i)印刷されたウルドゥー文字認識のための大規模複数フォントベースのデータセットを導入する。
(II)Urduテキスト認識のためのCNNベースのモデルの設計,訓練,評価を行った。
(iii)ウルドゥー文字認識のための最先端結果を生成するために,インクリメンタル学習法を実験する。
すべての実験選択は詳細な実験分析によって完全に検証された。
本研究は,フォント独立型Urdu OCRシステムの性能向上の基礎となるものと考えられる。 OCR algorithms have received a significant improvement in performance recently, mainly due to the increase in the capabilities of artificial intelligence algorithms. However, this advancement is not evenly distributed over all languages. Urdu is among the languages which did not receive much attention, especially in the font independent perspective. There exists no automated system that can reliably recognize printed Urdu text in images and videos across different fonts. To help bridge this gap, we have developed Qaida, a large scale data set with 256 fonts, and a complete Urdu lexicon. We have also developed a Convolutional Neural Network (CNN) based classification model which can recognize Urdu ligatures with 84.2% accuracy. Moreover, we demonstrate that our recognition network can not only recognize the text in the fonts it is trained on but can also reliably recognize text in unseen (new) fonts. To this end, this paper makes following contributions: (i) we introduce a large scale, multiple fonts based data set for printed Urdu text recognition;(ii) we have designed, trained and evaluated a CNN based model for Urdu text recognition; (iii) we experiment with incremental learning methods to produce state-of-the-art results for Urdu text recognition. All the experiment choices were thoroughly validated via detailed empirical analysis. We believe that this study can serve as the basis for further improvement in the performance of font independent Urdu OCR systems. | 翻訳日:2022-12-03 05:15:33 公開日:2020-05-14 |
# セマンティクスセグメンテーションにおける分散対象の検出と検索 Detection and Retrieval of Out-of-Distribution Objects in Semantic Segmentation ( http://arxiv.org/abs/2005.06831v1 ) ライセンス: Link先を確認 | Philipp Oberdiek and Matthias Rottmann and Gernot A. Fink | (参考訳) 自動運転車にディープラーニングテクノロジをデプロイする場合、ディープニューラルネットワークは常にドメインシフトにさらされる。
例えば、天候の変化、日時、長期の時間変化などである。
本研究では,都市の街並みを含む都市景観データセット上で訓練された深層ニューラルネットワークを用いて,異なるデータセットであるa2d2データセットから画像を推定する。
本稿では, 深層ニューラルネットワークの予測により分布外セグメント(OOD)を検出するセマンティック・セグメンテーションのパイプラインを提案し, 特徴抽出後の画像検索と画像パッチの次元化を行う。
実験では,デプロイされたOODアプローチが分布外概念の検出に適していることを示した。
さらに、半互換のa2d2基底真理を用いて画像パッチ検索を定性的に定量的に評価し、最大52.2%の地図値を得る。 When deploying deep learning technology in self-driving cars, deep neural networks are constantly exposed to domain shifts. These include, e.g., changes in weather conditions, time of day, and long-term temporal shift. In this work we utilize a deep neural network trained on the Cityscapes dataset containing urban street scenes and infer images from a different dataset, the A2D2 dataset, containing also countryside and highway images. We present a novel pipeline for semantic segmenation that detects out-of-distribution (OOD) segments by means of the deep neural network's prediction and performs image retrieval after feature extraction and dimensionality reduction on image patches. In our experiments we demonstrate that the deployed OOD approach is suitable for detecting out-of-distribution concepts. Furthermore, we evaluate the image patch retrieval qualitatively as well as quantitatively by means of the semi-compatible A2D2 ground truth and obtain mAP values of up to 52.2%. | 翻訳日:2022-12-03 05:14:56 公開日:2020-05-14 |
# super:新しい車線検出システム SUPER: A Novel Lane Detection System ( http://arxiv.org/abs/2005.07277v1 ) ライセンス: Link先を確認 | Pingping Lu, Chen Cui, Shaobing Xu, Huei Peng, Fan Wang | (参考訳) AIベースの車線検出アルゴリズムは、ここ数年で活発に研究されている。
多くは従来の機能ベースの手法と比較して優れたパフォーマンスを示している。
しかし、その精度は一般的には低い80%か高い90%であり、挑戦的な画像を使用する場合にはさらに低い。
本稿では,Scene Understanding Physics-Enhanced Real-time (SUPER)アルゴリズムというリアルタイムレーン検出システムを提案する。
提案手法は2つのモジュールから構成される。
1)シーン特徴抽出器としての階層的意味セグメンテーションネットワークと
2)車線推定のための物理拡張マルチレーンパラメータ最適化モジュール。
提案システムは、Cityscapes、Vistas、Apolloの異種データを用いてトレーニングし、Tusimple、Caltech、URBAN KITTI-ROAD、X-3000を含む4つの完全に独立したデータセット(これまで見たことのない)のパフォーマンスを評価する。
提案されたアプローチは、すでに同じデータセットでトレーニングされたレーン検出モデルと同等かそれ以上のパフォーマンスを発揮し、トレーニングされていないデータセットでもうまく機能する。
実際の車両試験も行われた。
予備試験の結果,Mobileyeと比較して実車線検出性能は有望であった。 AI-based lane detection algorithms were actively studied over the last few years. Many have demonstrated superior performance compared with traditional feature-based methods. The accuracy, however, is still generally in the low 80% or high 90%, or even lower when challenging images are used. In this paper, we propose a real-time lane detection system, called Scene Understanding Physics-Enhanced Real-time (SUPER) algorithm. The proposed method consists of two main modules: 1) a hierarchical semantic segmentation network as the scene feature extractor and 2) a physics enhanced multi-lane parameter optimization module for lane inference. We train the proposed system using heterogeneous data from Cityscapes, Vistas and Apollo, and evaluate the performance on four completely separate datasets (that were never seen before), including Tusimple, Caltech, URBAN KITTI-ROAD, and X-3000. The proposed approach performs the same or better than lane detection models already trained on the same dataset and performs well even on datasets it was never trained on. Real-world vehicle tests were also conducted. Preliminary test results show promising real-time lane-detection performance compared with the Mobileye. | 翻訳日:2022-12-03 05:13:34 公開日:2020-05-14 |
# NAT:ロバストニューラルネットワークラベリングのためのノイズアウェアトレーニング NAT: Noise-Aware Training for Robust Neural Sequence Labeling ( http://arxiv.org/abs/2005.07162v1 ) ライセンス: Link先を確認 | Marcin Namysl, Sven Behnke and Joachim K\"ohler | (参考訳) シーケンスラベリングシステムは、理想的な条件だけでなく、破損した入力でも確実に動作しなければなりません。
そこで本研究では,入力が未知の通知処理を行う可能性のある雑音列ラベリング問題を定式化し,摂動入力におけるシーケンスラベリングのロバスト性を改善する2つのノイズアウェアトレーニング(nat)目標を提案する。
私たちは訓練時にバニラノイズモデルを使用します。
評価には、元のデータとその変種の両方を実際のOCRエラーとミススペルで乱用する。
英語とドイツ語の名前付きエンティティ認識ベンチマークの大規模な実験により、NATは一般的なシーケンスラベリングモデルの堅牢性を一貫して改善し、元の入力の精度を保った。
私たちは、コードとデータを研究コミュニティで公開しています。 Sequence labeling systems should perform reliably not only under ideal conditions but also with corrupted inputs - as these systems often process user-generated text or follow an error-prone upstream component. To this end, we formulate the noisy sequence labeling problem, where the input may undergo an unknown noising process and propose two Noise-Aware Training (NAT) objectives that improve robustness of sequence labeling performed on perturbed input: Our data augmentation method trains a neural model using a mixture of clean and noisy samples, whereas our stability training algorithm encourages the model to create a noise-invariant latent representation. We employ a vanilla noise model at training time. For evaluation, we use both the original data and its variants perturbed with real OCR errors and misspellings. Extensive experiments on English and German named entity recognition benchmarks confirmed that NAT consistently improved robustness of popular sequence labeling models, preserving accuracy on the original input. We make our code and data publicly available for the research community. | 翻訳日:2022-12-03 05:06:16 公開日:2020-05-14 |
# OSACT4 攻撃的言語検出に関する共有タスク:集中前処理に基づくアプローチ OSACT4 Shared Task on Offensive Language Detection: Intensive Preprocessing-Based Approach ( http://arxiv.org/abs/2005.07297v1 ) ライセンス: Link先を確認 | Fatemah Husain | (参考訳) 前処理フェーズは、テキスト分類パイプラインにおける重要なフェーズの1つである。
本研究の目的は,前処理段階がテキスト分類に与える影響,特にアラビア語テキストに対する攻撃的言語とヘイトスピーチ分類について検討することである。
ソーシャルメディアで使われるアラビア語は非公式であり、アラビア語で書かれているため、テキスト分類は非常に複雑である。
プリプロセッシングは次元の縮小と無駄なコンテンツの除去に役立つ。
集約的な前処理手法をデータセットに適用し,さらに処理を行い,分類モデルに入力する。
集中的な前処理ベースのアプローチは、オープンソースのアラビア語コーパスとコーパス処理ツール(OSACT)の第4回ワークショップで、攻撃的な言語検出とヘイトスピーチ検出の共有タスクにその大きな影響を示している。
我々のチームは、サブタスクaにおける攻撃的言語検出部門で3位、サブタスクbヘイトスピーチ検出部門で1位(第1位)を獲得し、それぞれ89%と95%のf1スコアで、アラビア語ヘイトスピーチ検出におけるf1の精度、リコール、精度で最先端のパフォーマンスを提供する。 The preprocessing phase is one of the key phases within the text classification pipeline. This study aims at investigating the impact of the preprocessing phase on text classification, specifically on offensive language and hate speech classification for Arabic text. The Arabic language used in social media is informal and written using Arabic dialects, which makes the text classification task very complex. Preprocessing helps in dimensionality reduction and removing useless content. We apply intensive preprocessing techniques to the dataset before processing it further and feeding it into the classification model. An intensive preprocessing-based approach demonstrates its significant impact on offensive language detection and hate speech detection shared tasks of the fourth workshop on Open-Source Arabic Corpora and Corpora Processing Tools (OSACT). Our team wins the third place (3rd) in the Sub-Task A Offensive Language Detection division and wins the first place (1st) in the Sub-Task B Hate Speech Detection division, with an F1 score of 89% and 95%, respectively, by providing the state-of-the-art performance in terms of F1, accuracy, recall, and precision for Arabic hate speech detection. | 翻訳日:2022-12-03 05:05:10 公開日:2020-05-14 |
# 形式的スタイル転送のための並列データ拡張 Parallel Data Augmentation for Formality Style Transfer ( http://arxiv.org/abs/2005.07522v1 ) ライセンス: Link先を確認 | Yi Zhang, Tao Ge, Xu Sun | (参考訳) 形式的スタイル転送(Formality Style Transfer)タスクの進捗に対する大きな障壁は、トレーニングデータの不十分さである。
本稿では,並列データの拡張方法について検討し,容易にアクセス可能なモデルとシステムを持つ有用な文対を得るための,新しい簡易データ拡張手法を提案する。
実験により、我々の拡張並列データは、モデルを事前訓練する際に形式的スタイルの転送を改善するのに大きく役立ち、GYAFCベンチマークデータセットの最先端結果につながることが示された。 The main barrier to progress in the task of Formality Style Transfer is the inadequacy of training data. In this paper, we study how to augment parallel data and propose novel and simple data augmentation methods for this task to obtain useful sentence pairs with easily accessible models and systems. Experiments demonstrate that our augmented parallel data largely helps improve formality style transfer when it is used to pre-train the model, leading to the state-of-the-art results in the GYAFC benchmark dataset. | 翻訳日:2022-12-03 05:04:44 公開日:2020-05-14 |
# スマートホームにおけるアクティビティ学習のためのエッジクラウドインテリジェンスの実現 Enabling Edge Cloud Intelligence for Activity Learning in Smart Home ( http://arxiv.org/abs/2005.06885v1 ) ライセンス: Link先を確認 | Bing Huang, Athman Bouguettaya, Hai Dong | (参考訳) 本研究では,人的活動の認識と予測を目的とした,エッジクラウドアーキテクチャに基づく新しいアクティビティ学習フレームワークを提案する。
活動認識は多くの研究者によって研究されてきたが、活動モデルに有用な洞察を与える活動を構成する時間的特徴は、マイニングアルゴリズムによってその潜在能力に活用されていない。
本稿では,1つのスマートホーム環境での活動認識と予測に時間的特徴を利用する。
我々は,実データから活動の順序などの活動パターンや時間的関係を発見し,プロンプトシステムを開発する。
提案手法を検証するために,スマートホームから収集した実データの解析を行った。 We propose a novel activity learning framework based on Edge Cloud architecture for the purpose of recognizing and predicting human activities. Although activity recognition has been vastly studied by many researchers, the temporal features that constitute an activity, which can provide useful insights for activity models, have not been exploited to their full potentials by mining algorithms. In this paper, we utilize temporal features for activity recognition and prediction in a single smart home setting. We discover activity patterns and temporal relations such as the order of activities from real data to develop a prompting system. Analysis of real data collected from smart homes was used to validate the proposed method. | 翻訳日:2022-12-03 05:04:23 公開日:2020-05-14 |
# モノのインターネットのための認知増幅器 Cognitive Amplifier for Internet of Things ( http://arxiv.org/abs/2005.06914v1 ) ライセンス: Link先を確認 | Bing Huang, Athman Bouguettaya, Azadeh Ghari Neiat | (参考訳) 生活の利便性向上を目的とした認知機能を備えた,IoTの一部部分を強化するための認知増幅器フレームワークを提案する。
具体的には、認知増幅器は知識発見および予測成分からなる。
知識発見コンポーネントは、現実の環境での規則性、バリエーション、遷移を考慮した自然な活動パターンの発見に焦点を当てている。
予測コンポーネントは、発見された知識を、何、いつ、どこで次の活動が起こるかを推測する基盤とみなす。
実生活データによる実験結果から,提案手法の有効性と適用性が確認された。 We present a Cognitive Amplifier framework to augment things part of an IoT, with cognitive capabilities for the purpose of improving life convenience. Specifically, the Cognitive Amplifier consists of knowledge discovery and prediction components. The knowledge discovery component focuses on finding natural activity patterns considering their regularity, variations, and transitions in real life setting. The prediction component takes the discovered knowledge as the base for inferring what, when, and where the next activity will happen. Experimental results on real-life data validate the feasibility and applicability of the proposed approach. | 翻訳日:2022-12-03 05:04:14 公開日:2020-05-14 |
# w-cell-net:セル顕微鏡ビデオのマルチフレーム補間 W-Cell-Net: Multi-frame Interpolation of Cellular Microscopy Videos ( http://arxiv.org/abs/2005.06684v1 ) ライセンス: Link先を確認 | Rohit Saha, Abenezer Teklemariam, Ian Hsu, Alan M. Moses | (参考訳) ディープニューラルネットワークは、フレームレートの変化や偽の顔ビデオの生成など、ビデオフレームの補間タスクにますます利用されている。
本研究の目的は, 蛍光顕微鏡タイムラプス映画の時間分解能を高めるため, 近年のディープビデオ補間技術の適用である。
我々の知る限り、2つの連続した顕微鏡画像間のフレームを生成するために畳み込みニューラルネットワーク(CNN)を使った以前の研究はない。
入力2つの画像から最大7つの中間画像を生成する完全畳み込みオートエンコーダネットワークを提案する。
我々のアーキテクチャは2つのエンコーダを持ち、それぞれ1つのデコーダにスキップ接続する。
我々は,ネットワークアーキテクチャと損失関数が異なるモデルのいくつかの変種の性能を評価する。
我々の最良のモデルは、アートビデオフレーム補間アルゴリズムの状態を上回ります。
また,映像フレーム補間アルゴリズムとの質的・定量的比較も行った。
深部映像補間は蛍光顕微鏡の時間分解能を改善する新しい手法であると信じている。 Deep Neural Networks are increasingly used in video frame interpolation tasks such as frame rate changes as well as generating fake face videos. Our project aims to apply recent advances in Deep video interpolation to increase the temporal resolution of fluorescent microscopy time-lapse movies. To our knowledge, there is no previous work that uses Convolutional Neural Networks (CNN) to generate frames between two consecutive microscopy images. We propose a fully convolutional autoencoder network that takes as input two images and generates upto seven intermediate images. Our architecture has two encoders each with a skip connection to a single decoder. We evaluate the performance of several variants of our model that differ in network architecture and loss function. Our best model out-performs state of the art video frame interpolation algorithms. We also show qualitative and quantitative comparisons with state-of-the-art video frame interpolation algorithms. We believe deep video interpolation represents a new approach to improve the time-resolution of fluorescent microscopy. | 翻訳日:2022-12-03 04:57:57 公開日:2020-05-14 |
# 温帯魚の検出と分類:深層学習に基づくアプローチ Temperate Fish Detection and Classification: a Deep Learning based Approach ( http://arxiv.org/abs/2005.07518v1 ) ライセンス: Link先を確認 | Kristian Muri Knausg{\aa}rd, Arne Wiklund, Tonje Knutsen S{\o}rdalen, Kim Halvorsen, Alf Ring Kleiven, Lei Jiao, Morten Goodwin | (参考訳) 海洋生態学における幅広い応用は水中カメラを広範囲に利用している。
それでも、大量のデータを効率的に処理するためには、フィルムで捕獲された種を自動的に検出し認識するツールを開発する必要がある。
自然環境における映像や画像から魚種を分類することは、照明の騒音や環境の変化のために困難である。
本稿では,温帯魚類の検出と分類のための2段階の深層学習手法を提案する。
最初のステップは、種や性別によらず、画像中の各魚を検出することです。
この目的のために、You Only Look Once (YOLO) オブジェクト検出技術を用いる。
第2のステップでは、画像中の各魚を事前フィルタリングせずに分類するために、Squeeze-and-Excitation (SE)アーキテクチャを備えた畳み込みニューラルネットワーク(CNN)を採用する。
本研究では, 温帯魚類の限られた訓練サンプルを克服し, 分類精度を向上させるために移動学習を適用した。
これはimagenetでオブジェクト検出モデルをトレーニングし、パブリックデータセット(fish4knowledge)を介して魚分類器をトレーニングし、オブジェクト検出と分類器の両方が興味のある温帯魚によって更新される。
プレトレーニングから得られる重量をプレトレーニングとして後トレーニングに適用する。
本ソリューションは,事前学習時の精度99.27\%を達成する。
トレーニング後の精度は, 83.68\%, 87.74\%, 画像拡張なしでは87.74\%と良好であり, より広範なデータセットで解が実現可能であることを示す。 A wide range of applications in marine ecology extensively uses underwater cameras. Still, to efficiently process the vast amount of data generated, we need to develop tools that can automatically detect and recognize species captured on film. Classifying fish species from videos and images in natural environments can be challenging because of noise and variation in illumination and the surrounding habitat. In this paper, we propose a two-step deep learning approach for the detection and classification of temperate fishes without pre-filtering. The first step is to detect each single fish in an image, independent of species and sex. For this purpose, we employ the You Only Look Once (YOLO) object detection technique. In the second step, we adopt a Convolutional Neural Network (CNN) with the Squeeze-and-Excitation (SE) architecture for classifying each fish in the image without pre-filtering. We apply transfer learning to overcome the limited training samples of temperate fishes and to improve the accuracy of the classification. This is done by training the object detection model with ImageNet and the fish classifier via a public dataset (Fish4Knowledge), whereupon both the object detection and classifier are updated with temperate fishes of interest. The weights obtained from pre-training are applied to post-training as a priori. Our solution achieves the state-of-the-art accuracy of 99.27\% on the pre-training. The percentage values for accuracy on the post-training are good; 83.68\% and 87.74\% with and without image augmentation, respectively, indicating that the solution is viable with a more extensive dataset. | 翻訳日:2022-12-03 04:56:36 公開日:2020-05-14 |
# 縦断的健康データを用いた患者類似性分析 Patient Similarity Analysis with Longitudinal Health Data ( http://arxiv.org/abs/2005.06630v1 ) ライセンス: Link先を確認 | Ahmed Allam, Matthias Dittberner, Anna Sintsova, Dominique Brodbeck, Michael Krauthammer | (参考訳) 医療専門家は長い間、コンピュータの膨大な処理能力を使って、電子医療記録に閉じ込められた新しい事実や医療知識を発見することを考えてきた。
これらの膨大な医療記録には、診察、検査、手続きに関する時間分解された情報と、個々の患者旅行を形成する結果が含まれている。
これらの旅の類似性を評価することにより、共通病跡の集団と健康状態の共有を解明することができる。
特定のクラスターへの患者旅行の割り当ては、パーソナライズされた結果予測と治療選択の基盤となるかもしれない。
この手順は非自明な計算問題であり、患者データと異なる時間と解像度でキャプチャされる多次元的・多様的特徴を比較する必要がある。
本稿では,縦断データを用いた患者類似度分析に使用されるツールと方法の包括的概要を述べ,その臨床的意思決定改善の可能性について考察する。 Healthcare professionals have long envisioned using the enormous processing powers of computers to discover new facts and medical knowledge locked inside electronic health records. These vast medical archives contain time-resolved information about medical visits, tests and procedures, as well as outcomes, which together form individual patient journeys. By assessing the similarities among these journeys, it is possible to uncover clusters of common disease trajectories with shared health outcomes. The assignment of patient journeys to specific clusters may in turn serve as the basis for personalized outcome prediction and treatment selection. This procedure is a non-trivial computational problem, as it requires the comparison of patient data with multi-dimensional and multi-modal features that are captured at different times and resolutions. In this review, we provide a comprehensive overview of the tools and methods that are used in patient similarity analysis with longitudinal data and discuss its potential for improving clinical decision making. | 翻訳日:2022-12-03 04:56:11 公開日:2020-05-14 |
# VerifAIを用いたニューラルネットワークによる航空機税体系の形式解析と再設計 Formal Analysis and Redesign of a Neural Network-Based Aircraft Taxiing System with VerifAI ( http://arxiv.org/abs/2005.07173v1 ) ライセンス: Link先を確認 | Daniel J. Fremont, Johnathan Chiu, Dragos D. Margineantu, Denis Osipychev, and Sanjit A. Seshia | (参考訳) 本稿では,安全クリティカルな自律システムの厳密な設計への統一的アプローチをvelifaiツールキットを用いて実証する。
VerifAIは、モデリング、ファルシフィケーション、デバッグ、MLコンポーネントの再トレーニングを含む、デザインプロセスにまたがるタスクのための統合ツールチェーンを提供する。
滑走路の中央線をニューラルネットワークで追跡するboeingが開発した自律型無人航空機タクシーシステムに関する産業ケーススタディにおいて,これらすべての応用を評価した。
本研究では,Scanic Probabilistic Language を用いて滑走路シナリオを定義し,それを X-Plane 飛行シミュレータでテストする。
我々はまず、中心線からかなり逸脱(あるいは滑走路を完全に残す)することで、システムが仕様に違反している環境条件を自動的に見つける。
次に,反例分析を用いて,特定の障害事例を特定し,その根本原因を専門的なテストで確認する。
最後に、ファルシフィケーションとデバッギングの結果を用いてネットワークを再トレーニングし、いくつかの障害ケースを排除し、クローズドループシステム全体の性能を改善する。 We demonstrate a unified approach to rigorous design of safety-critical autonomous systems using the VerifAI toolkit for formal analysis of AI-based systems. VerifAI provides an integrated toolchain for tasks spanning the design process, including modeling, falsification, debugging, and ML component retraining. We evaluate all of these applications in an industrial case study on an experimental autonomous aircraft taxiing system developed by Boeing, which uses a neural network to track the centerline of a runway. We define runway scenarios using the Scenic probabilistic programming language, and use them to drive tests in the X-Plane flight simulator. We first perform falsification, automatically finding environment conditions causing the system to violate its specification by deviating significantly from the centerline (or even leaving the runway entirely). Next, we use counterexample analysis to identify distinct failure cases, and confirm their root causes with specialized testing. Finally, we use the results of falsification and debugging to retrain the network, eliminating several failure cases and improving the overall performance of the closed-loop system. | 翻訳日:2022-12-03 04:55:57 公開日:2020-05-14 |
# structure-aware encoding と decoding を用いた drts 解析 DRTS Parsing with Structure-Aware Encoding and Decoding ( http://arxiv.org/abs/2005.06901v1 ) ライセンス: Link先を確認 | Qiankun Fu and Yue Zhang and Jiangming Liu and Meishan Zhang | (参考訳) discourse representation tree structure (drts) 構文解析は、最近最も懸念されている新しい意味的構文解析タスクである。
木構造をインクリメンタルシーケンス生成問題として扱うニューラルシーケンス・ツー・シーケンスモデルにより、最先端のパフォーマンスを実現することができる。
入力構文や部分出力の中間スケルトンといった構造情報はモデルでは無視されており、DRTS解析に有用である可能性がある。
本研究では,構造情報を統合するためのエンコーダとデコーダの両フェーズにおける構造認識モデルを提案し,グラフアテンションネットワーク(GAT)を効果的にモデル化する。
ベンチマークデータセットにおける実験結果は,提案モデルが有効であることを示し,文献上で最高の性能が得られることを示す。 Discourse representation tree structure (DRTS) parsing is a novel semantic parsing task which has been concerned most recently. State-of-the-art performance can be achieved by a neural sequence-to-sequence model, treating the tree construction as an incremental sequence generation problem. Structural information such as input syntax and the intermediate skeleton of the partial output has been ignored in the model, which could be potentially useful for the DRTS parsing. In this work, we propose a structural-aware model at both the encoder and decoder phase to integrate the structural information, where graph attention network (GAT) is exploited for effectively modeling. Experimental results on a benchmark dataset show that our proposed model is effective and can obtain the best performance in the literature. | 翻訳日:2022-12-03 04:55:29 公開日:2020-05-14 |
# 深層強化学習に対する頑健で効果的な対人攻撃 Stealthy and Efficient Adversarial Attacks against Deep Reinforcement Learning ( http://arxiv.org/abs/2005.07099v1 ) ライセンス: Link先を確認 | Jianwen Sun, Tianwei Zhang, Xiaofei Xie, Lei Ma, Yan Zheng, Kangjie Chen, Yang Liu | (参考訳) 従来のDeep Learning(DL)システムとアルゴリズムに対する敵対的な攻撃が広く研究され、様々な防御策が提案されている。
しかし, 深層強化学習(DRL)に対する攻撃の可能性や可能性については検討されていない。
DRLは様々な複雑なタスクにおいて大きな成功を収めたため、効果的な敵攻撃を設計することは、堅牢なDRLアルゴリズムを構築するための必須条件である。
本稿では,DRLエージェントの攻撃方法として,emph{stealthily} と \emph{stealthily} の2つの新しい攻撃手法を紹介する。
これらの2つの手法により、敵は最小限の臨界瞬間に敵のサンプルを注入し、エージェントに最も深刻な損傷を与える。
敵は将来の環境状態とエージェントの行動を予測するモデルを構築し、それぞれの攻撃戦略の損傷を評価し、最適な攻撃戦略を選択する。
第2のテクニックは \emph{antagonist attack} であり、敵は自動的にドメインに依存しないモデルを学び、エピソードでエージェントを攻撃する重要な瞬間を発見する。
実験の結果,本手法の有効性が示された。
具体的には、DRLエージェントの攻撃を成功させるためには、1ステップ(TORCS)または2ステップ(Atari PongとBreakout)しか必要とせず、5ステップ(Mujocoタスク4タスク)未満のアンタゴニスト技術は最先端の手法よりも大幅に改善されている。 Adversarial attacks against conventional Deep Learning (DL) systems and algorithms have been widely studied, and various defenses were proposed. However, the possibility and feasibility of such attacks against Deep Reinforcement Learning (DRL) are less explored. As DRL has achieved great success in various complex tasks, designing effective adversarial attacks is an indispensable prerequisite towards building robust DRL algorithms. In this paper, we introduce two novel adversarial attack techniques to \emph{stealthily} and \emph{efficiently} attack the DRL agents. These two techniques enable an adversary to inject adversarial samples in a minimal set of critical moments while causing the most severe damage to the agent. The first technique is the \emph{critical point attack}: the adversary builds a model to predict the future environmental states and agent's actions, assesses the damage of each possible attack strategy, and selects the optimal one. The second technique is the \emph{antagonist attack}: the adversary automatically learns a domain-agnostic model to discover the critical moments of attacking the agent in an episode. Experimental results demonstrate the effectiveness of our techniques. Specifically, to successfully attack the DRL agent, our critical point technique only requires 1 (TORCS) or 2 (Atari Pong and Breakout) steps, and the antagonist technique needs fewer than 5 steps (4 Mujoco tasks), which are significant improvements over state-of-the-art methods. | 翻訳日:2022-12-03 04:49:49 公開日:2020-05-14 |
# Prive-HD:プライバシー保護型超次元コンピューティング Prive-HD: Privacy-Preserved Hyperdimensional Computing ( http://arxiv.org/abs/2005.06716v1 ) ライセンス: Link先を確認 | Behnam Khaleghi, Mohsen Imani, Tajana Rosing | (参考訳) トレーニングされたモデルが、囲まれたデータセットの機密情報を公開する可能性があるため、データのプライバシは機械学習の大きな課題である。
さらに、エッジデバイスの計算能力と容量の制限により、クラウドホスト推論は避けられなくなった。
リモートサーバにプライベート情報を送信することで、通信チャネルや信頼性の低いホストが原因で、推論のプライバシも脆弱になる。
本稿では,脳にインスパイアされた超次元(hd)コンピューティングのプライバシ保護トレーニングと推論を対象とし,その軽量な計算能力と頑健性によって注目を集めている新しい学習アルゴリズムである。
実際、その有望な特性にもかかわらず、hdコンピューティングはその可逆的な計算のために事実上プライバシーがない。
本稿では,hdのビルディングブロックである超ベクトルの細心の量子化とプルーニングを通した精度優先のトレードオフ法を提案する。
最後に,提案手法がハードウェアの効率的な実装にどのように活用できるかを示す。 The privacy of data is a major challenge in machine learning as a trained model may expose sensitive information of the enclosed dataset. Besides, the limited computation capability and capacity of edge devices have made cloud-hosted inference inevitable. Sending private information to remote servers makes the privacy of inference also vulnerable because of susceptible communication channels or even untrustworthy hosts. In this paper, we target privacy-preserving training and inference of brain-inspired Hyperdimensional (HD) computing, a new learning algorithm that is gaining traction due to its light-weight computation and robustness particularly appealing for edge devices with tight constraints. Indeed, despite its promising attributes, HD computing has virtually no privacy due to its reversible computation. We present an accuracy-privacy trade-off method through meticulous quantization and pruning of hypervectors, the building blocks of HD, to realize a differentially private model as well as to obfuscate the information sent for cloud-hosted inference. Finally, we show how the proposed techniques can be also leveraged for efficient hardware implementation. | 翻訳日:2022-12-03 04:49:25 公開日:2020-05-14 |
# ニューラルネットワークのトレーニング手順の完全性を保護する Protecting the integrity of the training procedure of neural networks ( http://arxiv.org/abs/2005.06928v1 ) ライセンス: Link先を確認 | Christian Berghoff | (参考訳) 近年、パフォーマンスが大幅に向上しているため、ニューラルネットワークはますます多くのアプリケーションで使われている。
しかし、ニューラルネットワークは、その決定が人間にとって容易に解釈可能でトレースできないという欠点がある。
これは、例えば、これらのプロパティが不可欠であるハイリスクアプリケーションの安全性とitセキュリティに関して、いくつかの問題を引き起こす。
ニューラルネットワークの不透明さによって引き起こされるITセキュリティ上の最も顕著な問題のひとつは、トレーニングフェーズ中に、攻撃者が特別に作成されたデータを挿入して結果のモデルを操作する、いわゆる中毒攻撃の可能性である。
本稿では,標準暗号機構を用いてトレーニング手順の整合性を確実に検証する手法を提案する。 Due to significant improvements in performance in recent years, neural networks are currently used for an ever-increasing number of applications. However, neural networks have the drawback that their decisions are not readily interpretable and traceable for a human. This creates several problems, for instance in terms of safety and IT security for high-risk applications, where assuring these properties is crucial. One of the most striking IT security problems aggravated by the opacity of neural networks is the possibility of so-called poisoning attacks during the training phase, where an attacker inserts specially crafted data to manipulate the resulting model. We propose an approach to this problem which allows provably verifying the integrity of the training procedure by making use of standard cryptographic mechanisms. | 翻訳日:2022-12-03 04:48:11 公開日:2020-05-14 |
# シミュレーションに基づく世界保健決定の推論 Simulation-Based Inference for Global Health Decisions ( http://arxiv.org/abs/2005.07062v1 ) ライセンス: Link先を確認 | Christian Schroeder de Witt, Bradley Gram-Hansen, Nantas Nardelli, Andrew Gambardella, Rob Zinkov, Puneet Dokania, N. Siddharth, Ana Belen Espinosa-Gonzalez, Ara Darzi, Philip Torr, At{\i}l{\i}m G\"une\c{s} Baydin | (参考訳) 新型コロナウイルス(COVID-19)のパンデミックは、適切な予防と封じ込め戦略について健康政策や意思決定者に通知する感染症のダイナミクスを予測する上で、シリカの疫学モデルの重要性を強調している。
この環境での作業には、複雑化する個々のモデルにおける推論と制御の問題の解決が含まれる。
本稿では、機械学習の最近の進歩、特にシミュレーションに基づく推論について論じ、公衆衛生介入の設計と評価を支援するためのモデル校正の新しい場としての可能性を探る。
さらに研究を刺激するために、COVID-19とマラリア疫学モデルであるCOVID-sim(https://github.com/mrc-ide/covid-sim/)とOpenMalaria(https://github.com/SwissTPH/openmalaria)を確率的プログラムに変換するソフトウェアインターフェースを開発し、これらのシミュレータ内で効率よくベイズ的推論を可能にする。 The COVID-19 pandemic has highlighted the importance of in-silico epidemiological modelling in predicting the dynamics of infectious diseases to inform health policy and decision makers about suitable prevention and containment strategies. Work in this setting involves solving challenging inference and control problems in individual-based models of ever increasing complexity. Here we discuss recent breakthroughs in machine learning, specifically in simulation-based inference, and explore its potential as a novel venue for model calibration to support the design and evaluation of public health interventions. To further stimulate research, we are developing software interfaces that turn two cornerstone COVID-19 and malaria epidemiology models COVID-sim, (https://github.com/mrc-ide/covid-sim/) and OpenMalaria (https://github.com/SwissTPH/openmalaria) into probabilistic programs, enabling efficient interpretable Bayesian inference within those simulators. | 翻訳日:2022-12-03 04:46:52 公開日:2020-05-14 |
# 分類マイニングのための重み付き相互k-ネアレスト近傍 A Weighted Mutual k-Nearest Neighbour for Classification Mining ( http://arxiv.org/abs/2005.08640v1 ) ライセンス: Link先を確認 | Joydip Dhar, Ashaya Shukla, Mukul Kumar, Prashant Gupta | (参考訳) kNNは非常に効果的なインスタンスベースの学習方法であり、実装が容易です。
データの異種性のため、特に大規模データベースの場合、異なる情報源からのノイズも自然界に広がっている。
擬似近傍のノイズ除去と効果について,本論文では,提案データセットから擬似近傍の異常検出と除去を行う新たな学習アルゴリズムを提案する。
このアルゴリズムは、遠い隣人の効果を最小化することも試みている。
実験結果には確実性測度の概念も導入されている。
相互隣人の概念と距離重み付け投票の利点は、データセットが異常や重み付けの概念を取り除いた後に洗練され、近くにあるこれらの隣人の考慮を考慮に入れられることである。
その結果,提案アルゴリズムの性能が計算された。 kNN is a very effective Instance based learning method, and it is easy to implement. Due to heterogeneous nature of data, noises from different possible sources are also widespread in nature especially in case of large-scale databases. For noise elimination and effect of pseudo neighbours, in this paper, we propose a new learning algorithm which performs the task of anomaly detection and removal of pseudo neighbours from the dataset so as to provide comparative better results. This algorithm also tries to minimize effect of those neighbours which are distant. A concept of certainty measure is also introduced for experimental results. The advantage of using concept of mutual neighbours and distance-weighted voting is that, dataset will be refined after removal of anomaly and weightage concept compels to take into account more consideration of those neighbours, which are closer. Consequently, finally the performance of proposed algorithm is calculated. | 翻訳日:2022-12-03 04:40:37 公開日:2020-05-14 |
# 半教師付きニューラルネットワーク評価器 A Semi-Supervised Assessor of Neural Architectures ( http://arxiv.org/abs/2005.06821v1 ) ライセンス: Link先を確認 | Yehui Tang, Yunhe Wang, Yixing Xu, Hanting Chen, Chunjing Xu, Boxin Shi, Chao Xu, Qi Tian, Chang Xu | (参考訳) ニューラルアーキテクチャサーチ(NAS)は、良好な性能を持つディープニューラルネットワークを自動設計することを目的としている。
一方、アーキテクチャ性能予測器は、中間的ニューラルネットワークアーキテクチャを効率的に評価することが重要である。
しかし、この予測器のトレーニングのためには、多くのニューラルネットワークとその実際のパフォーマンスを収集する必要がある。
従来の性能予測器を完全教師付きで最適化するのとは対照的に,ニューラルネットワークの半教師付き評価器を提案する。
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
各ニューラルネットワークアーキテクチャを検索空間の個々のインスタンスとして取り込んで、ラベル付きアーキテクチャとラベルなしアーキテクチャの両方が関与する固有の類似性を捉えるグラフを構築する。
グラフ畳み込みニューラルネットワークを導入し、学習した表現とそのグラフによってモデル化された関係に基づいてアーキテクチャの性能を予測する。
NAS-Benchmark-101データセットの大規模な実験結果から,本手法は効率的なアーキテクチャを見つけるために必要な完全トレーニングアーキテクチャを大幅に削減できることが示された。 Neural architecture search (NAS) aims to automatically design deep neural networks of satisfactory performance. Wherein, architecture performance predictor is critical to efficiently value an intermediate neural architecture. But for the training of this predictor, a number of neural architectures and their corresponding real performance often have to be collected. In contrast with classical performance predictor optimized in a fully supervised way, this paper suggests a semi-supervised assessor of neural architectures. We employ an auto-encoder to discover meaningful representations of neural architectures. Taking each neural architecture as an individual instance in the search space, we construct a graph to capture their intrinsic similarities, where both labeled and unlabeled architectures are involved. A graph convolutional neural network is introduced to predict the performance of architectures based on the learned representations and their relation modeled by the graph. Extensive experimental results on the NAS-Benchmark-101 dataset demonstrated that our method is able to make a significant reduction on the required fully trained architectures for finding efficient architectures. | 翻訳日:2022-12-03 04:40:25 公開日:2020-05-14 |
# ZynqNet:FPGAによる組み込み畳み込みニューラルネットワーク ZynqNet: An FPGA-Accelerated Embedded Convolutional Neural Network ( http://arxiv.org/abs/2005.06892v1 ) ライセンス: Link先を確認 | David Gschwend | (参考訳) 画像理解は、医療診断から自動運転車まで、ますます多くのアプリケーションで不可欠な機能になりつつある。
多くのアプリケーションは、リアルタイムと電力の制約のある既存のシステムに統合された組み込みソリューションを求めています。
畳み込みニューラルネットワーク(CNN)は現在、すべての画像理解ベンチマークで記録破りの精度を達成しているが、非常に高い計算複雑性を有する。
組み込みcnnは、小さくて効率的だが強力なコンピューティングプラットフォームを必要とする。
このマスター論文はFPGAベースのCNNアクセラレーションの可能性を探究し、Zynq System-on-Chip上でのCNNの完全な概念実証を実証する。
ZynqNet Embedded CNNはImageNetの画像分類用に設計されており、最適化されカスタマイズされたCNNトポロジであるZynqNet CNNと、その評価のためのFPGAベースのアーキテクチャであるZynqNet FPGA Acceleratorで構成されている。
ZynqNet CNNは、非常に効率的なCNNトポロジーである。
カスタムデザインのNetscope CNN Analyzerを使って以前のトポロジの詳細な分析と最適化を行い、計算複雑性がわずか5億3000万のCNNを84.5%の精度で実現した。
トポロジーは非常に規則的で、畳み込み層、ReLU非線形性、大域プール層で構成されている。
CNNはFPGAアクセラレーターに理想的に適合する。
ZynqNet FPGA Acceleratorは、ZynqNet CNNの効率的な評価を可能にする。
これはネストループアルゴリズムに基づいて完全なネットワークを加速し、演算操作とメモリアクセスの数を最小化する。
FPGA加速器は、Xilinx Zynq XC-7Z045の高レベル合成を用いて合成され、80%から90%のデバイス利用で200MHzのクロック周波数に達した。 Image Understanding is becoming a vital feature in ever more applications ranging from medical diagnostics to autonomous vehicles. Many applications demand for embedded solutions that integrate into existing systems with tight real-time and power constraints. Convolutional Neural Networks (CNNs) presently achieve record-breaking accuracies in all image understanding benchmarks, but have a very high computational complexity. Embedded CNNs thus call for small and efficient, yet very powerful computing platforms. This master thesis explores the potential of FPGA-based CNN acceleration and demonstrates a fully functional proof-of-concept CNN implementation on a Zynq System-on-Chip. The ZynqNet Embedded CNN is designed for image classification on ImageNet and consists of ZynqNet CNN, an optimized and customized CNN topology, and the ZynqNet FPGA Accelerator, an FPGA-based architecture for its evaluation. ZynqNet CNN is a highly efficient CNN topology. Detailed analysis and optimization of prior topologies using the custom-designed Netscope CNN Analyzer have enabled a CNN with 84.5% top-5 accuracy at a computational complexity of only 530 million multiplyaccumulate operations. The topology is highly regular and consists exclusively of convolutional layers, ReLU nonlinearities and one global pooling layer. The CNN fits ideally onto the FPGA accelerator. The ZynqNet FPGA Accelerator allows an efficient evaluation of ZynqNet CNN. It accelerates the full network based on a nested-loop algorithm which minimizes the number of arithmetic operations and memory accesses. The FPGA accelerator has been synthesized using High-Level Synthesis for the Xilinx Zynq XC-7Z045, and reaches a clock frequency of 200MHz with a device utilization of 80% to 90 %. | 翻訳日:2022-12-03 04:40:11 公開日:2020-05-14 |
# 産業連携型学習 : 要件とシステム設計 Industrial Federated Learning -- Requirements and System Design ( http://arxiv.org/abs/2005.06850v1 ) ライセンス: Link先を確認 | Thomas Hiessl, Daniel Schall, Jana Kemnitz, Stefan Schulte | (参考訳) Federated Learning(FL)は、プライベートデータを公開することなく、参加するクライアント間で知識を交換することで、分散機械学習(ML)モデルを改善するための非常に有望なアプローチである。
しかしながら、FLはすべてのFLタスクに対して強いデータ類似性が仮定されるため、産業的な文脈にはまだ適していない。
これは、機械の種類、運用条件、環境条件の異なる産業機械データではまれである。
そこで本研究では,知識交換を支援する産業連携学習(IFL)システムを導入し,学習課題のFLコホートを十分なデータ類似性で継続的に評価し,更新した。
これにより、共通のML問題におけるビジネスパートナの最適なコラボレーションが可能になり、負の知識伝達が防止され、関連するエッジデバイスのリソース最適化が保証される。 Federated Learning (FL) is a very promising approach for improving decentralized Machine Learning (ML) models by exchanging knowledge between participating clients without revealing private data. Nevertheless, FL is still not tailored to the industrial context as strong data similarity is assumed for all FL tasks. This is rarely the case in industrial machine data with variations in machine type, operational- and environmental conditions. Therefore, we introduce an Industrial Federated Learning (IFL) system supporting knowledge exchange in continuously evaluated and updated FL cohorts of learning tasks with sufficient data similarity. This enables optimal collaboration of business partners in common ML problems, prevents negative knowledge transfer, and ensures resource optimization of involved edge devices. | 翻訳日:2022-12-03 04:37:46 公開日:2020-05-14 |
# Manthan: ブール関数合成のためのデータ駆動アプローチ Manthan: A Data Driven Approach for Boolean Function Synthesis ( http://arxiv.org/abs/2005.06922v1 ) ライセンス: Link先を確認 | Priyanka Golia, Subhajit Roy, and Kuldeep S. Meel | (参考訳) ブール関数合成は、幅広い応用を持つコンピュータ科学の根本的問題であり、過去10年間に徐々に改善された技術が注目されている。
アルゴリズム開発が盛んであるにもかかわらず、多くの問題は最先端の技術に届かないままである。
機械学習の進歩に動機づけられ、boolean関数合成に対する新しいデータ駆動アプローチであるmanthanを提案する。
マンタンは関数合成を分類問題として捉え、データ生成のための制約付きサンプリングの進歩と、新しい証明ガイドによる改良と証明可能な検証のための自動推論の進歩と考えている。
609ベンチマーク以上の広範囲で厳密な評価を行った結果、マンタンは現在の技術水準において大幅に改善し、356ベンチマークを解き、最先端の技術技術によって最も解決された280ベンチマークと比較し、76ベンチマークの増加を実証した。
さらにmanthan氏は、現在の技術では解決できない60のベンチマークも解決している。
重要なパフォーマンス改善は、詳細な分析とともに、機械学習、制約付きサンプリング、自動推論の交差点における今後の研究の興味深い方法をいくつか挙げています。 Boolean functional synthesis is a fundamental problem in computer science with wide-ranging applications and has witnessed a surge of interest resulting in progressively improved techniques over the past decade. Despite intense algorithmic development, a large number of problems remain beyond the reach of the state of the art techniques. Motivated by the progress in machine learning, we propose Manthan, a novel data-driven approach to Boolean functional synthesis. Manthan views functional synthesis as a classification problem, relying on advances in constrained sampling for data generation, and advances in automated reasoning for a novel proof-guided refinement and provable verification. On an extensive and rigorous evaluation over 609 benchmarks, we demonstrate that Manthan significantly improves upon the current state of the art, solving 356 benchmarks in comparison to 280, which is the most solved by a state of the art technique; thereby, we demonstrate an increase of 76 benchmarks over the current state of the art. Furthermore, Manthan solves 60 benchmarks that none of the current state of the art techniques could solve. The significant performance improvements, along with our detailed analysis, highlights several interesting avenues of future work at the intersection of machine learning, constrained sampling, and automated reasoning. | 翻訳日:2022-12-03 04:37:34 公開日:2020-05-14 |
# ファイン: きめ細かいバッチ正規化による軽量ニューラルネットワークの訓練 Finet: Using Fine-grained Batch Normalization to Train Light-weight Neural Networks ( http://arxiv.org/abs/2005.06828v1 ) ライセンス: Link先を確認 | Chunjie Luo, Jianfeng Zhan, Lei Wang, Wanling Gao | (参考訳) 軽量ネットワークを構築するために,新しい正規化,細粒度バッチ正規化(fbn)を提案する。
加重入力の最終和を正規化するバッチ正規化(BN)とは異なり、FBNは和の中間状態を正規化する。
本稿では,fbnに基づく新しい軽量ネットワークである finet を提案する。
トレーニング時には、FBNとの畳み込み層を逆ボトルネック機構と見なすことができる。
FBNは推論時に畳み込みに融合することができる。
融合後、ファイントはチャネル幅が等しい標準畳み込みを用いるので、推論をより効率的にする。
imagenet分類データセットでは、ファイントは最先端のパフォーマンス(43mフロップの65.706%精度、303mフロップの73.786%精度)を達成している。 To build light-weight network, we propose a new normalization, Fine-grained Batch Normalization (FBN). Different from Batch Normalization (BN), which normalizes the final summation of the weighted inputs, FBN normalizes the intermediate state of the summation. We propose a novel light-weight network based on FBN, called Finet. At training time, the convolutional layer with FBN can be seen as an inverted bottleneck mechanism. FBN can be fused into convolution at inference time. After fusion, Finet uses the standard convolution with equal channel width, thus makes the inference more efficient. On ImageNet classification dataset, Finet achieves the state-of-art performance (65.706% accuracy with 43M FLOPs, and 73.786% accuracy with 303M FLOPs), Moreover, experiments show that Finet is more efficient than other state-of-art light-weight networks. | 翻訳日:2022-12-03 04:31:01 公開日:2020-05-14 |
# 動的スパーストレーニング: トレーニング可能なマスク層でスクラッチから効率的なスパースネットワークを見つける Dynamic Sparse Training: Find Efficient Sparse Network From Scratch With Trainable Masked Layers ( http://arxiv.org/abs/2005.06870v1 ) ライセンス: Link先を確認 | Junjie Liu, Zhe Xu, Runbin Shi, Ray C. C. Cheung, Hayden K.H. So | (参考訳) 本稿では、トレーニング可能なプルーニングしきい値を持つ統一最適化プロセスにおいて、最適ネットワークパラメータとスパースネットワーク構造を共同で見つけることのできる、動的スパーストレーニングと呼ばれる新しいネットワークプルーニングアルゴリズムを提案する。
これらのしきい値は、バックプロパゲーションによって動的に細粒度に調整することができる。
我々の動的スパーストレーニングアルゴリズムは、高密度モデルと同じ数のトレーニングエポックを用いて、非常にスパースなニューラルネットワークモデルを少ない性能で容易に訓練できることを実証する。
動的スパーストレーニングは、様々なネットワークアーキテクチャ上の他のスパーストレーニングアルゴリズムと比較して、アートパフォーマンスの状態を実現できる。
さらに、アルゴリズムの有効性と効率の強い証拠を提供する驚くべき観測がいくつかある。
これらの観測結果から,従来の3段階プルーニングアルゴリズムの根底にある問題点を明らかにし,よりコンパクトなネットワークアーキテクチャの設計に対するアルゴリズムの潜在的ガイダンスを示す。 We present a novel network pruning algorithm called Dynamic Sparse Training that can jointly find the optimal network parameters and sparse network structure in a unified optimization process with trainable pruning thresholds. These thresholds can have fine-grained layer-wise adjustments dynamically via backpropagation. We demonstrate that our dynamic sparse training algorithm can easily train very sparse neural network models with little performance loss using the same number of training epochs as dense models. Dynamic Sparse Training achieves the state of the art performance compared with other sparse training algorithms on various network architectures. Additionally, we have several surprising observations that provide strong evidence for the effectiveness and efficiency of our algorithm. These observations reveal the underlying problems of traditional three-stage pruning algorithms and present the potential guidance provided by our algorithm to the design of more compact network architectures. | 翻訳日:2022-12-03 04:30:46 公開日:2020-05-14 |
# multigraph geometric matrix completion (mgmc) を用いた不完全医療データセットの同時インプテーションと疾患分類 Simultaneous imputation and disease classification in incomplete medical datasets using Multigraph Geometric Matrix Completion (MGMC) ( http://arxiv.org/abs/2005.06935v1 ) ライセンス: Link先を確認 | Gerome Vivar, Anees Kazi, Hendrik Burwinkel, Andreas Zwergal, Nassir Navab, Seyed-Ahmad Ahmadi | (参考訳) 医学における大規模人口ベース研究は、疾患の診断、モニタリング、治療のための重要な資源である。
また、臨床診断支援システム、特に機械学習(ML)を用いたコンピュータ支援診断(CADx)の実現にも役立っている。
CADxに対する多くのMLアプローチが文献で提案されている。
しかし、これらのアプローチは、臨床データでは必ずしも実現不可能な完全なデータ可用性を前提としている。
データの欠落を考慮すれば、不完全なデータサンプルは削除またはインデュートされ、データのバイアスを引き起こし、分類性能に悪影響を及ぼす可能性がある。
本研究では,マルチグラフ幾何行列補完(mgmc)による不完全医療データセットのインプテーションと疾患予測のエンドツーエンド学習を提案する。
MGMCは複数の反復グラフ畳み込みネットワークを使用し、各グラフは年齢、性別、認知機能といった重要な臨床メタ機能に基づいて、独立した人口モデルを表す。
局所患者近傍からのグラフ信号アグリゲーションとセルフアテンションによるマルチグラフ信号融合は、マトリックス再構成と分類性能の両方に正規化効果を持つ。
提案手法は, 関連する特徴を分類し, 2つの医用データセットの正確な分類を行うことができる。
提案手法は,最先端手法と比較して分類とインプテーション性能の点で優れていることを示す。
MGMCは、マルチモーダルおよび不完全な医療データセットにおける疾患予測を可能にする。
これらの発見は、不完全なデータセットを使用する将来のcadxアプローチのベースラインとなる可能性がある。 Large-scale population-based studies in medicine are a key resource towards better diagnosis, monitoring, and treatment of diseases. They also serve as enablers of clinical decision support systems, in particular Computer Aided Diagnosis (CADx) using machine learning (ML). Numerous ML approaches for CADx have been proposed in literature. However, these approaches assume full data availability, which is not always feasible in clinical data. To account for missing data, incomplete data samples are either removed or imputed, which could lead to data bias and may negatively affect classification performance. As a solution, we propose an end-to-end learning of imputation and disease prediction of incomplete medical datasets via Multigraph Geometric Matrix Completion (MGMC). MGMC uses multiple recurrent graph convolutional networks, where each graph represents an independent population model based on a key clinical meta-feature like age, sex, or cognitive function. Graph signal aggregation from local patient neighborhoods, combined with multigraph signal fusion via self-attention, has a regularizing effect on both matrix reconstruction and classification performance. Our proposed approach is able to impute class relevant features as well as perform accurate classification on two publicly available medical datasets. We empirically show the superiority of our proposed approach in terms of classification and imputation performance when compared with state-of-the-art approaches. MGMC enables disease prediction in multimodal and incomplete medical datasets. These findings could serve as baseline for future CADx approaches which utilize incomplete datasets. | 翻訳日:2022-12-03 04:30:34 公開日:2020-05-14 |
# コンフォメーション予測のトレーニング Training conformal predictors ( http://arxiv.org/abs/2005.07037v1 ) ライセンス: Link先を確認 | Nicolo Colombo and Vladimir Vovk | (参考訳) 例えば \emph{observed fuzziness} (つまり偽ラベルに関連するp値の和)のような共形予測の効率基準は、与えられた共形予測器の性能を評価するために一般的に用いられる。
そこで本研究では, 等角予測器と点分類器の両方において, 目標関数の訓練などにより, 効率基準を有効活用できるかどうかを検討する。
提案手法は手書き桁のバイナリ分類の問題に対して実装されている。
1次元モデルクラス(実数値自由パラメータ1つ)を選択することで、パラメータ空間の(離散バージョン)上の(ほぼ)排他的な探索を通じて最適化問題を解くことができる。
実験結果から, 観測されたファズネスを最小化した共形予測器は, 対応する点分類器の<emph{prediction error} を最小化することにより, 従来の共形予測器よりも優れた性能を示すことが示唆された。
それらはまた、テストセットの予測エラーの観点からも合理的な性能を持つ。 Efficiency criteria for conformal prediction, such as \emph{observed fuzziness} (i.e., the sum of p-values associated with false labels), are commonly used to \emph{evaluate} the performance of given conformal predictors. Here, we investigate whether it is possible to exploit efficiency criteria to \emph{learn} classifiers, both conformal predictors and point classifiers, by using such criteria as training objective functions. The proposed idea is implemented for the problem of binary classification of hand-written digits. By choosing a 1-dimensional model class (with one real-valued free parameter), we can solve the optimization problems through an (approximate) exhaustive search over (a discrete version of) the parameter space. Our empirical results suggest that conformal predictors trained by minimizing their observed fuzziness perform better than conformal predictors trained in the traditional way by minimizing the \emph{prediction error} of the corresponding point classifier. They also have a reasonable performance in terms of their prediction error on the test set. | 翻訳日:2022-12-03 04:30:14 公開日:2020-05-14 |
# 創発的・コンパクトな分類用スパースフレームワークとしての進化的単純学習 Evolutionary Simplicial Learning as a Generative and Compact Sparse Framework for Classification ( http://arxiv.org/abs/2005.07076v1 ) ライセンス: Link先を確認 | Yigit Oktar, Mehmet Turkan | (参考訳) スパース表現のための辞書学習は多くの再構成作業で成功している。
単純学習(Simplicial learning)は、辞書学習の適応であり、サブスペースをクリップして任意のオフセットを取得し、単純化の形を取る。
このような適応はスパース符号に対する追加の制約によって達成される。
さらに、進化的アプローチは、ほとんどの生成的およびコンパクトな簡約が好まれる、簡約を構成する簡約の個数と次元を決定するために選択することができる。
本稿では,分類のための生成的かつコンパクトなスパースフレームワークとして,進化的単純学習法を提案する。
提案手法は最初,一級分類タスクに適用され,検討されたベンチマークの中では最も信頼性の高い手法と考えられる。
最も驚くべき結果は、進化的単純学習が多クラス分類タスクの中で考慮されるときに観察される。
スパース表現は本質的に生成的であるため、同じ部分空間上にある2つのクラスを区別できないという根本的な問題がある。
この主張は、生成的アプローチが実証されても、合成実験と単純学習の優越性によって検証される。
単純学習は、高次元の場合の判別法よりも優れているが、分類タスクにおける最先端のパフォーマンスを達成するために、識別要素でさらに修正することができる。 Dictionary learning for sparse representations has been successful in many reconstruction tasks. Simplicial learning is an adaptation of dictionary learning, where subspaces become clipped and acquire arbitrary offsets, taking the form of simplices. Such adaptation is achieved through additional constraints on sparse codes. Furthermore, an evolutionary approach can be chosen to determine the number and the dimensionality of simplices composing the simplicial, in which most generative and compact simplicials are favored. This paper proposes an evolutionary simplicial learning method as a generative and compact sparse framework for classification. The proposed approach is first applied on a one-class classification task and it appears as the most reliable method within the considered benchmark. Most surprising results are observed when evolutionary simplicial learning is considered within a multi-class classification task. Since sparse representations are generative in nature, they bear a fundamental problem of not being capable of distinguishing two classes lying on the same subspace. This claim is validated through synthetic experiments and superiority of simplicial learning even as a generative-only approach is demonstrated. Simplicial learning loses its superiority over discriminative methods in high-dimensional cases but can further be modified with discriminative elements to achieve state-of-the-art performance in classification tasks. | 翻訳日:2022-12-03 04:29:55 公開日:2020-05-14 |
# 進化型ニューラルネットワークを用いた時系列の異常検出と分類 Anomaly Detection And Classification In Time Series With Kervolutional Neural Networks ( http://arxiv.org/abs/2005.07078v1 ) ライセンス: Link先を確認 | Oliver Ammann, Gabriel Michau, Olga Fink | (参考訳) 近年、ディープラーニングの発展に伴い、エンド・ツー・エンドのニューラルネットワークアーキテクチャがコンディション監視信号にますます応用されている。
彼らは特に畳み込みニューラルネットワークを用いた断層検出と分類において優れた性能を示した。
さらに最近では、畳み込みの概念からカーボリューションの概念への拡張が提案され、画像分類タスクで有望な結果が得られた。
本稿では,時系列データに適用するカーボリューションニューラルネットワークの可能性について検討する。
畳み込み層とカーボリューション層を混合することにより,モデル性能が向上することを示す。
混合モデルは、まず時系列の分類タスクにベンチマークデータセットとして適用される。
提案する混合アーキテクチャは、ヘリコプターの加速度計で記録された時系列データの異常を検出するために使用される。
時間的オートエンコーダを用いた残差に基づく異常検出手法を提案する。
我々は,エンコーダ内の畳み込み層とカーボリューダルを混合することにより,入力データの変動に敏感になり,異常な時系列をより良い方法で検出できることを実証した。 Recently, with the development of deep learning, end-to-end neural network architectures have been increasingly applied to condition monitoring signals. They have demonstrated superior performance for fault detection and classification, in particular using convolutional neural networks. Even more recently, an extension of the concept of convolution to the concept of kervolution has been proposed with some promising results in image classification tasks. In this paper, we explore the potential of kervolutional neural networks applied to time series data. We demonstrate that using a mixture of convolutional and kervolutional layers improves the model performance. The mixed model is first applied to a classification task in time series, as a benchmark dataset. Subsequently, the proposed mixed architecture is used to detect anomalies in time series data recorded by accelerometers on helicopters. We propose a residual-based anomaly detection approach using a temporal auto-encoder. We demonstrate that mixing kervolutional with convolutional layers in the encoder is more sensitive to variations in the input data and is able to detect anomalous time series in a better way. | 翻訳日:2022-12-03 04:29:35 公開日:2020-05-14 |
# 教師なし重度気象検出 -テキストと天気データを用いた共同表現学習- Unsupervised Severe Weather Detection Via Joint Representation Learning Over Textual and Weather Data ( http://arxiv.org/abs/2005.07243v1 ) ライセンス: Link先を確認 | Athanasios Davvetas, Iraklis A. Klampanos | (参考訳) 現象を観察する場合、重篤なケースや異常はしばしば、期待されるデータ分布からの逸脱によって特徴づけられる。
しかし、非逸脱データサンプルは暗黙的に深刻な結果をもたらす可能性がある。
教師なしの厳しい天気検知の場合、これらのデータサンプルは、厳しい天候の予測者がしばしば特徴として直接観察されないため、誤予測につながる可能性がある。
我々は、外部タスクの結果や観察結果などの外部情報や補助情報を組み込むことで、教師なし検出アルゴリズムの決定境界を改善することができると仮定する。
本稿では,拡張的かつ線形に分離可能な潜伏表現を学習することにより,厳天候の事例を検出するクラスタリング手法の有効性を高めるとともに,風雨,洪水,竜巻の3つの厳寒事例に対するソリューションを評価する。 When observing a phenomenon, severe cases or anomalies are often characterised by deviation from the expected data distribution. However, non-deviating data samples may also implicitly lead to severe outcomes. In the case of unsupervised severe weather detection, these data samples can lead to mispredictions, since the predictors of severe weather are often not directly observed as features. We posit that incorporating external or auxiliary information, such as the outcome of an external task or an observation, can improve the decision boundaries of an unsupervised detection algorithm. In this paper, we increase the effectiveness of a clustering method to detect cases of severe weather by learning augmented and linearly separable latent representations.We evaluate our solution against three individual cases of severe weather, namely windstorms, floods and tornado outbreaks. | 翻訳日:2022-12-03 04:28:53 公開日:2020-05-14 |
# 固定メモリ予算のディープアンサンブル:1つのネットワークか、より薄いものか? Deep Ensembles on a Fixed Memory Budget: One Wide Network or Several Thinner Ones? ( http://arxiv.org/abs/2005.07292v1 ) ライセンス: Link先を確認 | Nadezhda Chirkova, Ekaterina Lobacheva, Dmitry Vetrov | (参考訳) 現代のディープラーニングの一般的に受け入れられている見解の1つは、パラメータの数を増やすと一般的に品質が向上するということである。
パラメータ数を増やすための最も簡単な2つの方法は、例えば、幅や深層アンサンブルのトレーニングなど、ネットワークのサイズを増やすことである。
この作業では、固定メモリの予算設定を検討し、より効果的なのは、単一のワイドネットワークをトレーニングするか、またはメモリ分割を実行し、同じ数のパラメータで、より薄いネットワークのアンサンブルをトレーニングすることです。
十分な予算で、最適なメモリ分割に対応するアンサンブル内のネットワークの数は、通常1より大きいことが分かる。
興味深いことに、この効果は標準アーキテクチャの一般的なサイズに当てはまる。
例えば、WideResNet-28-10は16個のWideResNetのアンサンブル(80.6%と82.52%)よりもCIFAR-100の試験精度がかなり悪い。
前述の効果をメモリ分割アドバンテージと呼び、さまざまなデータセットとモデルアーキテクチャを保持できることを示します。 One of the generally accepted views of modern deep learning is that increasing the number of parameters usually leads to better quality. The two easiest ways to increase the number of parameters is to increase the size of the network, e.g. width, or to train a deep ensemble; both approaches improve the performance in practice. In this work, we consider a fixed memory budget setting, and investigate, what is more effective: to train a single wide network, or to perform a memory split -- to train an ensemble of several thinner networks, with the same total number of parameters? We find that, for large enough budgets, the number of networks in the ensemble, corresponding to the optimal memory split, is usually larger than one. Interestingly, this effect holds for the commonly used sizes of the standard architectures. For example, one WideResNet-28-10 achieves significantly worse test accuracy on CIFAR-100 than an ensemble of sixteen thinner WideResNets: 80.6% and 82.52% correspondingly. We call the described effect the Memory Split Advantage and show that it holds for a variety of datasets and model architectures. | 翻訳日:2022-12-03 04:28:40 公開日:2020-05-14 |
# リンパ節転移の進展する説明可能な分類法 Evolved Explainable Classifications for Lymph Node Metastases ( http://arxiv.org/abs/2005.07229v1 ) ライセンス: Link先を確認 | Iam Palatnik de Sousa, Marley Maria Bernardes Rebuzzi Vellasco, Eduardo Costa da Silva | (参考訳) 説明可能な人工知能の新しい進化的アプローチとして、"Evolved Explanations"モデル(EvEx)がある。
この手法は、画像分類タスクにおける自動セグメンテーションパラメータチューニングを可能にするために、LIME(Local Interpretable Model Agnostic Explanations)とMulti-Objective Genetic Algorithmsを組み合わせたものである。
この場合、調査されたデータセットはPatch-Camelyonで、スライド画像全体の病理像からパッチで構成されている。
このデータセットで利用可能な畳み込みニューラルネットワーク(CNN)をトレーニングし、リンパ節転移組織の存在/存在のバイナリ分類を提供した。
それぞれの分類は進化的セグメンテーションによって説明され、3つの評価目標を同時に最適化しようとする。
最終説明は、発達した遺伝的アルゴリズムによって進化したパレート人によって生成されたすべての説明の平均として計算される。
説明の再現性とトレーサビリティを高めるために、それぞれがランダムに選択された複数の異なる種から生成される。
その結果,異なる種子間で顕著な一致を示した。
LIMEの説明の確率的性質にもかかわらず、高説明重みの領域は、ピクセルワイドの相対標準偏差によって計算された熱マップにおいて良い一致を示した。
得られたヒートマップは、この手法が(評価指標による)高品質な説明を見つけることができ、自動パラメータの微調整という新たな利点があることを実証する専門家の医療区分と一致する。
これらの結果は、医療データのためのニューラルネットワークブラックボックス決定の内部動作に関するさらなる洞察を与える。 A novel evolutionary approach for Explainable Artificial Intelligence is presented: the "Evolved Explanations" model (EvEx). This methodology consists in combining Local Interpretable Model Agnostic Explanations (LIME) with Multi-Objective Genetic Algorithms to allow for automated segmentation parameter tuning in image classification tasks. In this case, the dataset studied is Patch-Camelyon, comprised of patches from pathology whole slide images. A publicly available Convolutional Neural Network (CNN) was trained on this dataset to provide a binary classification for presence/absence of lymph node metastatic tissue. In turn, the classifications are explained by means of evolving segmentations, seeking to optimize three evaluation goals simultaneously. The final explanation is computed as the mean of all explanations generated by Pareto front individuals, evolved by the developed genetic algorithm. To enhance reproducibility and traceability of the explanations, each of them was generated from several different seeds, randomly chosen. The observed results show remarkable agreement between different seeds. Despite the stochastic nature of LIME explanations, regions of high explanation weights proved to have good agreement in the heat maps, as computed by pixel-wise relative standard deviations. The found heat maps coincide with expert medical segmentations, which demonstrates that this methodology can find high quality explanations (according to the evaluation metrics), with the novel advantage of automated parameter fine tuning. These results give additional insight into the inner workings of neural network black box decision making for medical data. | 翻訳日:2022-12-03 04:22:55 公開日:2020-05-14 |
# OD-SGD:分散トレーニングのための1ステップ遅延確率勾配 OD-SGD: One-step Delay Stochastic Gradient Descent for Distributed Training ( http://arxiv.org/abs/2005.06728v1 ) ライセンス: Link先を確認 | Yemao Xu and Dezun Dong and Weixia Xu and Xiangke Liao | (参考訳) 現代のディープラーニングニューラルネットワークのトレーニングは、gpuや他の特定のアクセラレーターによって提供される大量の計算を要求する。
高速なトレーニングを実現するために、2つの更新アルゴリズムが主に分散トレーニングプロセス、すなわちSynchronous SGDアルゴリズム(SSGD)とAsynchronous SGDアルゴリズム(ASGD)に適用される。
ssgdは同期バリアによりトレーニング速度が遅くなる間に良好な収束点を得る。
ASGDはトレーニング速度が速いが、SSGDと比較して収束点が低い。
SSGDとASGDの利点を十分に活用するために,1段階遅延SGD(One-step Delay SGD)と呼ばれる新しい技術を提案する。
したがって,SSGD や ASGD と同様の収束点とトレーニング速度を別々に達成することができる。
我々の知る限りでは、SSGDとASGDの機能を組み合わせて分散トレーニング性能を向上させるための最初の試みを行っている。
od-sgdの各イテレーションにはパラメータサーバノードのグローバル更新とワーカーノードのローカル更新が含まれており、ローカル更新は遅延したローカル重みを更新および補償するために導入される。
提案アルゴリズムは,MNIST, CIFAR-10, ImageNetデータセットを用いて評価する。
実験結果から, OD-SGDはSSGDと同等あるいはわずかに精度が向上し, トレーニング速度はASGDのトレーニング速度を超えていることがわかった。 The training of modern deep learning neural network calls for large amounts of computation, which is often provided by GPUs or other specific accelerators. To scale out to achieve faster training speed, two update algorithms are mainly applied in the distributed training process, i.e. the Synchronous SGD algorithm (SSGD) and Asynchronous SGD algorithm (ASGD). SSGD obtains good convergence point while the training speed is slowed down by the synchronous barrier. ASGD has faster training speed but the convergence point is lower when compared to SSGD. To sufficiently utilize the advantages of SSGD and ASGD, we propose a novel technology named One-step Delay SGD (OD-SGD) to combine their strengths in the training process. Therefore, we can achieve similar convergence point and training speed as SSGD and ASGD separately. To the best of our knowledge, we make the first attempt to combine the features of SSGD and ASGD to improve distributed training performance. Each iteration of OD-SGD contains a global update in the parameter server node and local updates in the worker nodes, the local update is introduced to update and compensate the delayed local weights. We evaluate our proposed algorithm on MNIST, CIFAR-10 and ImageNet datasets. Experimental results show that OD-SGD can obtain similar or even slightly better accuracy than SSGD, while its training speed is much faster, which even exceeds the training speed of ASGD. | 翻訳日:2022-12-03 04:22:30 公開日:2020-05-14 |
# 影響関数によるブラックボックス予測とデータアーチファクトの展開 Explaining Black Box Predictions and Unveiling Data Artifacts through Influence Functions ( http://arxiv.org/abs/2005.06676v1 ) ライセンス: Link先を確認 | Xiaochuang Han, Byron C. Wallace, Yulia Tsvetkov | (参考訳) 現代のNLPのディープラーニングモデルは不透明である。
これは、勾配に基づく塩分マップや注意重みの可視化など、そのようなモデルを解釈する手法の開発を動機付けた。
このようなアプローチは、対応する入力テキストで重要な単語を強調することで、特定のモデル予測の説明を提供することを目的としている。
これは入力中の個々のトークンによって決定が明示的に影響されるタスクに有用かもしれませんが、そのようなハイライトはより複雑な推論によってモデル決定が駆動されるべきタスクには適していないと思います。
本研究では,nlpに対する影響関数の使用について検討し,ニューラルテキスト分類器の解釈方法を提案する。
影響関数は、影響力のあるトレーニング例を特定することによって、モデルの判断を説明する。
このアプローチの約束にもかかわらず、NLPの文脈では影響関数はまだ広く評価されていない。
代表課題における影響関数と共通の単語保存法の比較を行った。
疑わしいことに,影響関数は自然言語推論において特に有用であり,このタスクでは「関係マップ」が明確な解釈を持たない可能性がある。
さらに,学習データのアーティファクトを明らかにすることができる影響関数に基づく新しい定量的尺度を開発した。 Modern deep learning models for NLP are notoriously opaque. This has motivated the development of methods for interpreting such models, e.g., via gradient-based saliency maps or the visualization of attention weights. Such approaches aim to provide explanations for a particular model prediction by highlighting important words in the corresponding input text. While this might be useful for tasks where decisions are explicitly influenced by individual tokens in the input, we suspect that such highlighting is not suitable for tasks where model decisions should be driven by more complex reasoning. In this work, we investigate the use of influence functions for NLP, providing an alternative approach to interpreting neural text classifiers. Influence functions explain the decisions of a model by identifying influential training examples. Despite the promise of this approach, influence functions have not yet been extensively evaluated in the context of NLP, a gap addressed by this work. We conduct a comparison between influence functions and common word-saliency methods on representative tasks. As suspected, we find that influence functions are particularly useful for natural language inference, a task in which 'saliency maps' may not have clear interpretation. Furthermore, we develop a new quantitative measure based on influence functions that can reveal artifacts in training data. | 翻訳日:2022-12-03 04:21:46 公開日:2020-05-14 |
# 噂検証モデルの予測不確実性の推定 Estimating predictive uncertainty for rumour verification models ( http://arxiv.org/abs/2005.07174v1 ) ライセンス: Link先を確認 | Elena Kochkina and Maria Liakata | (参考訳) オンラインで流される噂を正しく解決できないことは、現実世界に有害な結果をもたらす可能性がある。
本稿では,自然言語処理モデルにモデルとデータ不確実性推定を組み込む手法を提案する。
これらの推定値を用いて、誤ったモデル予測をフィルタリングし、人間のファクトチェッカーによってこれらの困難な事例を優先順位付けできることを示す。
不確実性に基づくインスタンス拒否のための2つの手法を提案する。
また、モデルの性能を噂の展開として解釈するために不確実性推定がどのように用いられるかを示す。 The inability to correctly resolve rumours circulating online can have harmful real-world consequences. We present a method for incorporating model and data uncertainty estimates into natural language processing models for automatic rumour verification. We show that these estimates can be used to filter out model predictions likely to be erroneous, so that these difficult instances can be prioritised by a human fact-checker. We propose two methods for uncertainty-based instance rejection, supervised and unsupervised. We also show how uncertainty estimates can be used to interpret model performance as a rumour unfolds. | 翻訳日:2022-12-03 04:21:09 公開日:2020-05-14 |
# モンテカルロ木探索とディープニューラルネットワークによる旅行セールスマン問題の解法 Solve Traveling Salesman Problem by Monte Carlo Tree Search and Deep Neural Network ( http://arxiv.org/abs/2005.06879v1 ) ライセンス: Link先を確認 | Zhihao Xing, Shikui Tu, Lei Xu | (参考訳) 本稿では,旅行セールスマン問題を解決するために,深い強化学習とモンテカルロ木探索を組み合わせた自己学習手法を提案する。
提案手法には2つの利点がある。
まず、決定のための値関数を計算するために深層強化学習を採用し、手作りの機能やラベル付きデータの必要性を取り除く。
第二に、モンテカルロ木探索を用いて、異なる値関数を比較して最良のポリシーを選択することで、一般化能力を高める。
実験の結果,提案手法は中小問題において他の手法に対して有利に動作することがわかった。
そして、大きな問題設定において最先端のパフォーマンスと同等のパフォーマンスを示している。 We present a self-learning approach that combines deep reinforcement learning and Monte Carlo tree search to solve the traveling salesman problem. The proposed approach has two advantages. First, it adopts deep reinforcement learning to compute the value functions for decision, which removes the need of hand-crafted features and labelled data. Second, it uses Monte Carlo tree search to select the best policy by comparing different value functions, which increases its generalization ability. Experimental results show that the proposed method performs favorably against other methods in small-to-medium problem settings. And it shows comparable performance as state-of-the-art in large problem setting. | 翻訳日:2022-12-03 04:20:40 公開日:2020-05-14 |
# 睡眠アームと長期フェアネス制約を有する組合せ半バンドのトンプソンサンプリング Thompson Sampling for Combinatorial Semi-bandits with Sleeping Arms and Long-Term Fairness Constraints ( http://arxiv.org/abs/2005.06725v1 ) ライセンス: Link先を確認 | Zhiming Huang, Yifan Xu, Bingshan Hu, Qipeng Wang, Jianping Pan | (参考訳) 長期フェアネス制約(csmab-f)を満たした組合せ睡眠型マルチアーム半バンド問題について検討した。
この問題に対処するために、Thompson Sampling~(TS)を用いて、全報酬を最大化し、仮想キュー技術を用いてフェアネス制約を処理し、CSMAB-F~(TSCSF-B)}のベータ前処理とベルヌーイ確率を持つ「emph{TS」と呼ばれるアルゴリズムを設計する。
さらに、TSCSF-Bがフェアネス制約を満たすことを証明し、平均的後悔は、$\frac{N}{2\eta} + O\left(\frac{\sqrt{mNT\ln T}}{T}\right)$、$N$は武器の総数、$m$は各ラウンドで同時に引くことができる武器の最大数、$\eta$は報酬のフェアネスを取引するパラメータである。
公正性制約(すなわち$\eta \rightarrow \infty$)を緩和することにより、結合は、組合せ型睡眠型半バンドイット問題に対する最初の問題非依存なTSアルゴリズムの有界化へと導かれる。
最後に, 数値実験を行い, 提案アルゴリズムの有効性と効率を示すために, 高評価映画推薦アプリケーションを用いた。 We study the combinatorial sleeping multi-armed semi-bandit problem with long-term fairness constraints~(CSMAB-F). To address the problem, we adopt Thompson Sampling~(TS) to maximize the total rewards and use virtual queue techniques to handle the fairness constraints, and design an algorithm called \emph{TS with beta priors and Bernoulli likelihoods for CSMAB-F~(TSCSF-B)}. Further, we prove TSCSF-B can satisfy the fairness constraints, and the time-averaged regret is upper bounded by $\frac{N}{2\eta} + O\left(\frac{\sqrt{mNT\ln T}}{T}\right)$, where $N$ is the total number of arms, $m$ is the maximum number of arms that can be pulled simultaneously in each round~(the cardinality constraint) and $\eta$ is the parameter trading off fairness for rewards. By relaxing the fairness constraints (i.e., let $\eta \rightarrow \infty$), the bound boils down to the first problem-independent bound of TS algorithms for combinatorial sleeping multi-armed semi-bandit problems. Finally, we perform numerical experiments and use a high-rating movie recommendation application to show the effectiveness and efficiency of the proposed algorithm. | 翻訳日:2022-12-03 04:20:14 公開日:2020-05-14 |
# 多エージェントコミュニケーションと自然言語:機能学習と構造言語学習の相乗効果 Multi-agent Communication meets Natural Language: Synergies between Functional and Structural Language Learning ( http://arxiv.org/abs/2005.07064v1 ) ライセンス: Link先を確認 | Angeliki Lazaridou, Anna Potapenko, Olivier Tieleman | (参考訳) 本稿では,自然言語学習におけるマルチエージェントコミュニケーションと従来のデータ駆動型アプローチを組み合わせる手法を提案する。
私たちの出発点は、タスク固有の言語データではなく、ジェネリックに基づいて訓練された言語モデルです。
次に、このモデルをマルチエージェントのセルフプレイ環境に配置し、モデルへの適応や修正に使用するタスク固有の報酬を生成し、タスク条件言語モデルに変換する。
本稿では,言語モデルサンプルの再ランク付けに基づく2種類の学習を組み合わせる新しい手法を提案するとともに,視覚的参照コミュニケーションタスクにおける人間とのコミュニケーションにおいて,他者よりも優れていることを示す。
最後に、異なる種類の言語ドリフトの分類を示し、それらを検出するための一連の尺度と共に起こりうる。 We present a method for combining multi-agent communication and traditional data-driven approaches to natural language learning, with an end goal of teaching agents to communicate with humans in natural language. Our starting point is a language model that has been trained on generic, not task-specific language data. We then place this model in a multi-agent self-play environment that generates task-specific rewards used to adapt or modulate the model, turning it into a task-conditional language model. We introduce a new way for combining the two types of learning based on the idea of reranking language model samples, and show that this method outperforms others in communicating with humans in a visual referential communication task. Finally, we present a taxonomy of different types of language drift that can occur alongside a set of measures to detect them. | 翻訳日:2022-12-03 04:13:34 公開日:2020-05-14 |
# 統計的等価性:公正分類の対象 Statistical Equity: A Fairness Classification Objective ( http://arxiv.org/abs/2005.07293v1 ) ライセンス: Link先を確認 | Ninareh Mehrabi, Yuzhong Huang, Fred Morstatter | (参考訳) 機械学習システムは、過去の社会的な誤りを広めることが示されている。
これを踏まえて、豊富な研究は「公正」なソリューションの設計に焦点を当てている。
この仕事の多さにもかかわらず、公正性は主観的であり、文脈に依存しているため、公正性の特異な定義は存在しない。
我々は,データの既存のバイアスを考慮し,過去の歴史バイアスを考慮した公平な決定を試み,公平性原理に動機づけられた新たな公平性定義を提案する。
公正の定義を形式化し、適切な文脈でそれを動機付けます。
次に、等価分類のために運用する。
フィードバックループなどの公正な側面に対して,定義の有効性を示すために,複数の自動評価と人的評価を行い,その有用性を実証する。 Machine learning systems have been shown to propagate the societal errors of the past. In light of this, a wealth of research focuses on designing solutions that are "fair." Even with this abundance of work, there is no singular definition of fairness, mainly because fairness is subjective and context dependent. We propose a new fairness definition, motivated by the principle of equity, that considers existing biases in the data and attempts to make equitable decisions that account for these previous historical biases. We formalize our definition of fairness, and motivate it with its appropriate contexts. Next, we operationalize it for equitable classification. We perform multiple automatic and human evaluations to show the effectiveness of our definition and demonstrate its utility for aspects of fairness, such as the feedback loop. | 翻訳日:2022-12-03 04:12:45 公開日:2020-05-14 |
# マルチチャネルウェーブレットフィルタによるGANの高密度サンプル生成のためのノイズ均質化 Noise Homogenization via Multi-Channel Wavelet Filtering for High-Fidelity Sample Generation in GANs ( http://arxiv.org/abs/2005.06707v1 ) ライセンス: Link先を確認 | Shaoning Zeng and Bob Zhang | (参考訳) GAN(Generative Adversarial Networks)のジェネレータでは、一連の畳み込み操作によって偽のサンプルを生成するためにノイズが入力される。
しかし、現在のノイズ生成モデルは、単にピクセル空間からの情報に依存するため、ターゲット分布に近づくことの困難さが増すだけである。
幸いにも、長い証明されたウェーブレット変換は、画像から複数のスペクトル情報を分解することができる。
本研究では,GANに対する新しいマルチチャネルウェーブレットフィルタリング手法を提案し,この問題に対処する。
ウェーブレットデコンボリューション層をジェネレータに埋め込むと、ウェーブレットデコンボリューションを利用して複数のチャネルによるフィルタリングを学習し、平均演算により生成されたノイズを効率的に均質化し、高忠実なサンプルを生成する。
オープンGANベンチマークツールを用いて,Fashion-MNIST,KMNIST,SVHNデータセットのベンチマーク実験を行った。
その結果、WaveletGANは、これらのデータセットで得られた最小のFIDのおかげで、高忠実度サンプルを生成するのに優れた性能を示した。 In the generator of typical Generative Adversarial Networks (GANs), a noise is inputted to generate fake samples via a series of convolutional operations. However, current noise generation models merely relies on the information from the pixel space, which increases the difficulty to approach the target distribution. Fortunately, the long proven wavelet transformation is able to decompose multiple spectral information from the images. In this work, we propose a novel multi-channel wavelet-based filtering method for GANs, to cope with this problem. When embedding a wavelet deconvolution layer in the generator, the resultant GAN, called WaveletGAN, takes advantage of the wavelet deconvolution to learn a filtering with multiple channels, which can efficiently homogenize the generated noise via an averaging operation, so as to generate high-fidelity samples. We conducted benchmark experiments on the Fashion-MNIST, KMNIST and SVHN datasets through an open GAN benchmark tool. The results show that WaveletGAN has excellent performance in generating high-fidelity samples, thanks to the smallest FIDs obtained on these datasets. | 翻訳日:2022-12-03 04:12:12 公開日:2020-05-14 |
# ローリング・ホライズン」でビデオゲームが遊べる Rolling Horizon NEAT for General Video Game Playing ( http://arxiv.org/abs/2005.06764v1 ) ライセンス: Link先を確認 | Diego Perez-Liebana, Muhammad Sajid Alam, Raluca D. Gaina | (参考訳) 本稿では,新しい統計フォワードプランニング(sfp)法であるrhneat法(rolling horizon neuroevolution of augmenteding topologies)を提案する。
進化的アルゴリズムが一連のアクションを進化させる従来のローリング水平進化とは異なり、rhNEATはリアルタイムでニューラルネットワークの重みと接続を進化させ、ゲームで実行するアクションを返す前にいくつかのステップを計画する。
アルゴリズムの異なるバージョンは、20のGVGAIゲームのコレクションで探索され、他のSFP手法やアート結果と比較される。
結果が他のSFP法よりも総合的に優れているわけではないが、rhNEATのゲーム機能の変化に適応する性質は、他の方法が伝統的に苦労してきたゲームにおいて、アートレコードの新たな状態を確立することを可能にしている。
ここで提案するアルゴリズムは汎用的であり, 転がり地平線進化技術において情報を表現する新しい方法を提案する。 This paper presents a new Statistical Forward Planning (SFP) method, Rolling Horizon NeuroEvolution of Augmenting Topologies (rhNEAT). Unlike traditional Rolling Horizon Evolution, where an evolutionary algorithm is in charge of evolving a sequence of actions, rhNEAT evolves weights and connections of a neural network in real-time, planning several steps ahead before returning an action to execute in the game. Different versions of the algorithm are explored in a collection of 20 GVGAI games, and compared with other SFP methods and state of the art results. Although results are overall not better than other SFP methods, the nature of rhNEAT to adapt to changing game features has allowed to establish new state of the art records in games that other methods have traditionally struggled with. The algorithm proposed here is general and introduces a new way of representing information within rolling horizon evolution techniques. | 翻訳日:2022-12-03 04:11:30 公開日:2020-05-14 |
# Evo* 2020 - 遅延ブレーキング抽象化ボリューム Evo* 2020 -- Late-Breaking Abstracts Volume ( http://arxiv.org/abs/2005.07235v1 ) ライセンス: Link先を確認 | A.M. Mora, A.I. Esparcia-Alc\'azar | (参考訳) この巻には、2020年4月15日から17日にかけてのEvo* 2020カンファレンスに提出されたレイトブレキング抽象化が含まれている。
これらの論文は短い講演として発表され、カンファレンスのポスターセッションで他のレギュラー投稿とともに発表された。
これらはいずれも、バイオインスパイアド・メソッド(主に進化的計算)の異なるアプローチを異なる問題に適用する研究と予備的な結果であり、そのほとんどは実世界のものである。 This volume contains the Late-Breaking Abstracts submitted to the Evo* 2020 Conference, that took place online, from 15 to 17 of April 2020. These papers where presented as short talks and also at the poster session of the conference together with other regular submissions. All of them present ongoing research and preliminary results investigating on the application of different approaches of Bioinspired Methods (mainly Evolutionary Computation) to different problems, most of them real world ones. | 翻訳日:2022-12-03 04:10:54 公開日:2020-05-14 |