このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200828となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# マイスナー状態における微小粒子浮揚のためのチップベース超伝導トラップ Chip-based superconducting traps for levitation of micrometer-sized particles in the Meissner state ( http://arxiv.org/abs/2002.03868v3 ) ライセンス: Link先を確認 | Mart\'i Gutierrez Latorre, Joachim Hofer, Matthias Rudolph, Witlef Wieczorek | (参考訳) 本稿では,マイクロメートルの超伝導粒子をマイスナー状態で浮揚できる2つのチップ型超伝導トラップアーキテクチャの詳細な解析を行う。
これらのアーキテクチャは、より重い粒子を用いた新しい量子実験や、前例のない感度の力と加速度センサーに適している。
我々はチップベースのアンチヘルムホルツコイル型トラップ(AHC)と平面二重ループ(DLP)トラップの開発に重点を置いている。
超伝導Nb膜から作製し, NbまたはPbから超伝導粒子を作製した。
これら2つのトラップアーキテクチャをトラップ安定性と周波数について詳細に解析するために有限要素モデリング(fem)を適用する。
重要なことに、FEMでは、トラップの完全な3次元幾何学、浮遊超伝導粒子への有限磁場浸透、磁化効果、磁束量子化が説明できる。
したがって、解析モデルによる仮定以上のトラップ特性を解析することができる。
リアルなAHCトラップは10kHz以上のトラップ周波数で微小粒子の浮揚が可能であり, DLトラップは1kHz未満のトラップ周波数を可能とし, 単一層プロセスで容易に製造できる。
我々の数値計算結果は,マイスナー状態の微小粒子をチップベース超伝導トラップで浮揚する将来の実験を導くものである。
我々が使用するモデリングは、超伝導シールドの設計や超伝導共振器の充填係数の計算など、マイスナー状態の超伝導体を用いた他のシナリオでも適用可能である。 We present a detailed analysis of two chip-based superconducting trap architectures capable of levitating micrometer-sized superconducting particles in the Meissner state. These architectures are suitable for performing novel quantum experiments with more massive particles or for force and acceleration sensors of unprecedented sensitivity. We focus in our work on a chip-based anti-Helmholtz coil-type trap (AHC) and a planar double-loop (DLP) trap. We demonstrate their fabrication from superconducting Nb films and the fabrication of superconducting particles from Nb or Pb. We apply finite element modeling (FEM) to analyze these two trap architectures in detail with respect to trap stability and frequency. Crucially, in FEM we account for the complete three-dimensional geometry of the traps, finite magnetic field penetration into the levitated superconducting particle, demagnetizing effects, and flux quantization. We can, thus, analyze trap properties beyond assumptions made in analytical models. We find that realistic AHC traps yield trap frequencies well above 10kHz for levitation of micrometer-sized particles and can be fabricated with a three-layer process, while DL traps enable trap frequencies below 1kHz and are simpler to fabricate in a single-layer process. Our numerical results guide future experiments aiming at levitating micrometer-sized particles in the Meissner state with chip-based superconducting traps. The modeling we use is also applicable in other scenarios using superconductors in the Meissner state, such as for designing superconducting magnetic shields or for calculating filling factors in superconducting resonators. | 翻訳日:2023-06-04 01:45:10 公開日:2020-08-28 |
# 超伝導回路における放射熱伝達の電界制御 Electric field control of radiative heat transfer in a superconducting circuit ( http://arxiv.org/abs/2002.11591v3 ) ライセンス: Link先を確認 | Olivier Maillet, Diego Subero, Joonas T. Peltonen, Dmitry S. Golubev, Jukka P. Pekola | (参考訳) 熱は量子系の操作に不利であるが、基本的には量子力学に従って振る舞うが、位相コヒーレントであり、キャリアに関係なく普遍的に量子制限される。
その堅牢性のため、消散素子を統合する超伝導回路は、量子熱輸送における多体現象をエミュレートするのに理想的な候補であり、ヒッヘルトは実験的にはほとんど探索しなかった。
しかし、完全な物理的豊かさに取り組む能力は、制御パラメータとして磁束を排他的に使用することで著しく妨げられ、補完的なアプローチが必要となる。
本稿では,超伝導島における電荷量子化が電界制御を徹底的に可能にする2重磁場フリー回路を提案する。
したがって、2つのメソスコピック貯水池の間の1つのフォトニックチャネルの量子限界に近い熱コンダクタンスをチューニングする。
本研究は, 島内におけるクーパーペアトンネルとクーロン反発の競合から生じる熱流の振動を簡易なモデルで観測する。
以上の結果から,電荷とフラックスの二重性は熱輸送にまで拡張され,量子デバイスの熱管理に期待できる。 Heat is detrimental for the operation of quantum systems, yet it fundamentally behaves according to quantum mechanics, being phase coherent and universally quantum-limited regardless of its carriers. Due to their robustness, superconducting circuits integrating dissipative elements are ideal candidates to emulate many-body phenomena in quantum heat transport, hitherto scarcely explored experimentally. However, their ability to tackle the underlying full physical richness is severely hindered by the exclusive use of a magnetic flux as a control parameter and requires complementary approaches. Here, we introduce a dual, magnetic field-free circuit where charge quantization in a superconducting island enables thorough electric field control. We thus tune the thermal conductance, close to its quantum limit, of a single photonic channel between two mesoscopic reservoirs. We observe heat flow oscillations originating from the competition between Cooper-pair tunnelling and Coulomb repulsion in the island, well captured by a simple model. Our results demonstrate that the duality between charge and flux extends to heat transport, with promising applications in thermal management of quantum devices. | 翻訳日:2023-06-01 21:16:00 公開日:2020-08-28 |
# 可変超伝導回路におけるパラメトリックゲートの不要量子ビット相互作用抑制における誤差解析 Error analysis in suppression of unwanted qubit interactions for a parametric gate in a tunable superconducting circuit ( http://arxiv.org/abs/2003.08542v3 ) ライセンス: Link先を確認 | X.Y. Han, T.Q. Cai, X.G. Li, Y.K. Wu, Y.W. Ma, Y.L. Ma, J.H. Wang, H.Y. Zhang, Y.P. Song, and L.M. Duan | (参考訳) 超伝導回路におけるパラメトリックiSWAPゲートを, チューナブルカプラを用いて連続的なチューニング性を実現し, 不要な量子ビット相互作用を除去する実験を行った。
計算量子ビット間のパラメトリック交換相互作用をオンにするために、カプラに高速流束バイアス変調パルスを適用して、2量子iSWAPゲートを実装した。
制御可能な相互作用はパラメトリックゲート構築の最適条件を検証するために余分な自由度を与えることができる。
2量子ビットゲートの誤差源を完全検証するために, 量子プロセストモグラフィ計測と数値シミュレーションを行い, 静的zz結合強度を変化させた。
2ビットゲート動作における動的ZZ結合のパラシタイズを定量的に計算し、デコヒーレンス、動的ZZ結合、高次発振項から特定のゲート誤差を抽出する。
その結果, 主ゲート誤差はデコヒーレンスによるものであり, 動的ZZ結合と高次発振誤差の増加はパラメトリックゲート性能を低下させることがわかった。
従来検討されていないこのアプローチは、望ましくない量子ビット相互作用の抑制によりパラメトリックISWAPゲートのゲート忠実度を改善するための指針となる。
この制御可能な相互作用はパラメトリック変調技術とともに、クロストークフリーマルチ量子ビット量子回路および量子シミュレーション応用に望ましい。 We experimentally demonstrate a parametric iSWAP gate in a superconducting circuit based on a tunable coupler for achieving a continuous tunability to eliminate unwanted qubit interactions. We implement the twoqubit iSWAP gate by applying a fast-flux bias modulation pulse on the coupler to turn on parametric exchange interaction between computational qubits. The controllable interaction can provide an extra degree of freedom to verify the optimal condition for constructing the parametric gate. Aiming to fully investigate error sources of the two-qubit gates, we perform quantum process tomography measurements and numerical simulations as varying static ZZ coupling strength. We quantitatively calculate the dynamic ZZ coupling parasitizing in two-qubit gate operation, and extract the particular gate error from the decoherence, dynamic ZZ coupling and high-order oscillation terms. Our results reveal that the main gate error comes from the decoherence, while the increase in the dynamic ZZ coupling and high-order oscillation error degrades the parametric gate performance. This approach, which has not yet been previously explored, provides a guiding principle to improve gate fidelity of parametric iSWAP gate by suppression of the unwanted qubit interactions. This controllable interaction, together with the parametric modulation technique, is desirable for crosstalk free multiqubit quantum circuits and quantum simulation applications. | 翻訳日:2023-05-28 18:05:24 公開日:2020-08-28 |
# 量子温度測定と量子エンジン強化のための集合熱容量 Collective heat capacity for quantum thermometry and quantum engine enhancements ( http://arxiv.org/abs/2004.00032v3 ) ライセンス: Link先を確認 | Camille L. Latune, Ilya Sinayskiy, Francesco Petruccione | (参考訳) 熱平衡における量子温度測定の性能と、特定の種類の量子エンジンの出力パワーは共通の特性を共有し、どちらもプローブや加工媒体の熱容量によって決定される。
スピンアンサンブルの熱容量が熱浴との集合結合によって著しく変化できることに気付いた後、上記の観測に基づいて、そのような集合効果が量子温度測定や量子エンジンに与える影響について検討する。
温度推定の精度は高温で大きく向上し、逆にスピンの数に比例してハイゼンベルクのスケーリングにまで達することがわかった。
カルノー効率に近いオットーエンジンでは、集合結合は常に出力パワーを高める。
いくつかの有形実験プラットフォームが提案されている。 The performances of quantum thermometry in thermal equilibrium together with the output power of certain class of quantum engines share a common characteristic: both are determined by the heat capacity of the probe or working medium. After noticing that the heat capacity of spin ensembles can be significantly modified by collective coupling with a thermal bath, we build on the above observation to investigate the respective impact of such collective effect on quantum thermometry and quantum engines. We find that the precision of the temperature estimation is largely increased at high temperatures, reaching even the Heisenberg scaling - inversely proportional to the number of spins. For Otto engines operating close to the Carnot efficiency, collective coupling always enhances the output power. Some tangible experimental platforms are suggested. | 翻訳日:2023-05-27 07:33:52 公開日:2020-08-28 |
# 集積多素子光学用AlGaAsヘテロ構造における懸濁フォトニック結晶膜 Suspended photonic crystal membranes in AlGaAs heterostructures for integrated multi-element optomechanics ( http://arxiv.org/abs/2004.12454v2 ) ライセンス: Link先を確認 | Sushanth Kini Manjeshwar, Karim Elkhouly, Jamie M. Fitzgerald, Martin Ekman, Yanchao Zhang, Fan Zhang, Shu Min Wang, Philippe Tassin, Witlef Wieczorek | (参考訳) テレコム波長帯で動作する自由空間光キャビティ用AlGaAsヘテロ構造体から作製した高反射率機械共振器について述べる。
機械共振器はGaAsのスラブで製造され、フォトニック結晶でパターン化され、外面反射率を高める。
メカニカルモードのキャラクタリゼーションにより、GaAsデバイス層に残留な引張応力が生じる。
この応力は、非応力GaAsよりも高い機械周波数をもたらし、機械散逸のひずみ工学に使用できる。
同時に、入射光ビームの有限ウエストが反射スペクトルの低下に繋がることがわかった。
この特徴は、有限サイズのスラブを設計する際に考慮しなければならない効果であるフォトニック結晶の誘導共鳴への結合に由来する。
ここで実証されたシングルおよびサブ$\upmu$m空間の二重層スラブは、同じ材料プラットフォーム内の分散ブラッグ反射鏡上に直接作製することができる。
このようなプラットフォームは、チップ上の多素子キャビティ光機械装置と光機械的マイクロキャビティの統合を実現するための経路を開く。 We present high-reflectivity mechanical resonators fabricated from AlGaAs heterostructures for use in free-space optical cavities operating in the telecom wavelength regime. The mechanical resonators are fabricated in slabs of GaAs and patterned with a photonic crystal to increase their out-of-plane reflectivity. Characterization of the mechanical modes reveals residual tensile stress in the GaAs device layer. This stress results in higher mechanical frequencies than in unstressed GaAs and can be used for strain engineering of mechanical dissipation. Simultaneously, we find that the finite waist of the incident optical beam leads to a dip in the reflectance spectrum. This feature originates from coupling to a guided resonance of the photonic crystal, an effect that must be taken into account when designing slabs of finite size. The single- and sub-$\upmu$m-spaced double-layer slabs demonstrated here can be directly fabricated on top of a distributed Bragg reflector mirror in the same material platform. Such a platform opens a route for realizing integrated multi-element cavity optomechanical devices and optomechanical microcavities on chip. | 翻訳日:2023-05-22 02:13:12 公開日:2020-08-28 |
# 米国電力部門におけるcovid-19の短期的影響分析のためのクロスドメインアプローチ A Cross-Domain Approach to Analyzing the Short-Run Impact of COVID-19 on the U.S. Electricity Sector ( http://arxiv.org/abs/2005.06631v7 ) ライセンス: Link先を確認 | Guangchun Ruan, Dongqi Wu, Xiangtian Zheng, Haiwang Zhong, Chongqing Kang, Munther A. Dahleh, S. Sivaranjani, Le Xie | (参考訳) 新型コロナウイルス感染症(COVID-19)は2020年に世界中で急速に広がり、米国では3月下旬以降、新型コロナウイルスの流行の中心となっている。
アメリカ合衆国の経済活動が徐々に再開し始めると、政策立案者や電力システム運営者が電気部門への影響を理解し予測するために科学的アプローチをとることが不可欠である。
ここでは、米国全土の電力市場のデータを、新型コロナウイルス(COVID-19)のケース、天気、細胞の位置、衛星画像データと統合し、同種のクロスドメインオープンアクセスデータハブをリリースする。
公衆衛生・モビリティデータからの分野横断的洞察を活用することで、新型コロナウイルスの感染者の増加、社会的距離の程度、商業活動のレベルと強い相関関係にある電力消費量の大幅な削減を明らかにする。 The novel coronavirus disease (COVID-19) has rapidly spread around the globe in 2020, with the U.S. becoming the epicenter of COVID-19 cases since late March. As the U.S. begins to gradually resume economic activity, it is imperative for policymakers and power system operators to take a scientific approach to understanding and predicting the impact on the electricity sector. Here, we release a first-of-its-kind cross-domain open-access data hub, integrating data from across all existing U.S. wholesale electricity markets with COVID-19 case, weather, cellular location, and satellite imaging data. Leveraging cross-domain insights from public health and mobility data, we uncover a significant reduction in electricity consumption across that is strongly correlated with the rise in the number of COVID-19 cases, degree of social distancing, and level of commercial activity. | 翻訳日:2023-05-20 13:55:05 公開日:2020-08-28 |
# 高パラメトリック利得状態における非線形干渉計を用いた光コヒーレンストモグラフィ Optical Coherence Tomography with a nonlinear interferometer in the high parametric gain regime ( http://arxiv.org/abs/2006.02314v2 ) ライセンス: Link先を確認 | Gerard J. Machado, Gaetano Frascella, Juan P. Torres, and Maria V. Chekhova | (参考訳) 高利得パラメトリックダウンコンバージョンを持つsu(1,1)非線形干渉計に基づく光コヒーレンストモグラフィを示す。
撮像やセンシングの用途では、高光子フラックスは高品質な画像を得るのに低い積分時間を与えるため、従来の実験よりも低いパラメトリックゲインで作業することが約束される。
このように、非常に感度の高い単光子検出器やCCDカメラの使用を避けることができ、代わりに標準分光計を使用することができる。
その他の利点は、検出前に小さな損失に対する感度が高く、増幅され、検出された光力が探針よりもかなり大きいことである。 We demonstrate optical coherence tomography based on an SU(1,1) nonlinear interferometer with high-gain parametric down-conversion. For imaging and sensing applications, this scheme promises to outperform previous experiments working at low parametric gain, since higher photon fluxes provide lower integration times for obtaining high-quality images. In this way one can avoid using single-photon detectors or CCD cameras with very high sensitivities, and standard spectrometers can be used instead. Other advantages are: higher sensitivity to small loss and amplification before detection, so that the detected light power considerably exceeds the probing one. | 翻訳日:2023-05-17 06:40:23 公開日:2020-08-28 |
# 低温原子レーザーのしきい値以下のコヒーレンス時間 Coherence time of a cold-atom laser below threshold ( http://arxiv.org/abs/2007.07798v2 ) ライセンス: Link先を確認 | Graeme Harvie, Adam Butcher, and Jon Goldwin | (参考訳) 我々は、ゲイン媒体が磁気光学的に閉じ込められた原子のガスである低閾値ラマンレーザーのコヒーレンス時間について実験的に研究した。
第2次光コヒーレンスは、ゲインを制御することにより、2桁の等級で変化する相関時間を有する光子束を示す。
結果は単純な解析モデルとよく一致しており、この系における効果は分散ではなく利得によって支配されることを示している。
キャビティリングダウン測定では、1次コヒーレンス時間に関連する光子寿命も増加する。 We experimentally study the coherence time of a below-threshold Raman laser in which the gain medium is a gas of magneto-optically trapped atoms. The second-order optical coherence exhibits photon bunching with a correlation time which is varied by two orders of magnitude by controlling the gain. Results are in good agreement with a simple analytic model which suggests the effect is dominated by gain, rather than dispersion, in this system. Cavity ring-down measurements show the photon lifetime, related to the first-order coherence time, is also increased. | 翻訳日:2023-05-09 09:14:15 公開日:2020-08-28 |
# 行列積状態におけるR'enyiエントロピー Extensive R\'enyi entropies in matrix product states ( http://arxiv.org/abs/2008.11764v2 ) ライセンス: Link先を確認 | Alberto Rolandi, Henrik Wilming | (参考訳) 一般的な (gapped) 変換不変行列積状態 (MPS) によって記述されるスピン鎖のすべての R\enyi 絡み合いエントロピーが、非連結な部分系に対して広範なことを証明している: すべての k-次スピンからなる部分系の R\enyi 絡み合いエントロピーエントロピー密度は、状態が熱力学極限の積状態に収束しない場合に限り、熱力学極限においてゼロである。
さらに、MPSの転送作用素の膨張係数と、その固定点のスペクトル特性を正準形式として、エンタングルメントエントロピーに明確な下界を与える。
副作用として、その定点のクラウスランクとエントロピー特性の観点から、原始量子チャネルの膨張係数と特異値分布に対する下界を求める。
単位的量子チャネルの場合、これは特異値の分布とクラウスランクの項による拡大係数の非常に単純な下界を与える。
本研究の結果は,多体ローカライズドシステムにおける平衡に関する質問から得られたものである。 We prove that all R\'enyi entanglement entropies of spin-chains described by generic (gapped), translational invariant matrix product states (MPS) are extensive for disconnected sub-systems: All R\'enyi entanglement entropy densities of the sub-system consisting of every k-th spin are non-zero in the thermodynamic limit if and only if the state does not converge to a product state in the thermodynamic limit. Furthermore, we provide explicit lower bounds to the entanglement entropy in terms of the expansion coefficient of the transfer operator of the MPS and spectral properties of its fixed point in canonical form. As side-result we obtain a lower bound for the expansion coefficient and singular value distribution of a primitve quantum channel in terms of its Kraus-rank and entropic properties of its fixed-point. For unital quantum channels this yields a very simple lower bound on the distribution of singular values and the expansion coefficient in terms of the Kraus-rank. Physically, our results are motivated by questions about equilibration in many-body localized systems, which we review. | 翻訳日:2023-05-04 21:30:54 公開日:2020-08-28 |
# 線形ポテンシャルにおける中性子の帰還時間 The neutron returning time in a linear potential ( http://arxiv.org/abs/2008.12546v1 ) ライセンス: Link先を確認 | Zhi Xiao, Shuang Zheng and Ji-Cai Liu | (参考訳) 本稿では,地球の線形重力ポテンシャルから散乱する中性子の量子時間遅延を計算する。
量子時間遅延は、古典的な戻り時間(CRT)をウィグナー時間、ドウェル時間、そして再定義されたラーモア時間からそれぞれ引いて得られる。
従来の定義とは異なり、ラーモア時間は中性子伝播方向に沿って磁場を整列させることで定義され、この定義は自由領域と正方形障壁を通る運動に対して合理的な結果をもたらす。
ゼロ磁場限界では、ラーモア時間は線形障壁の特別な形に起因するCRTとよく一致しており、弱同値原理に何らかの関係があることに注意する必要がある。
また, 古典的禁断領域は, crtにマッチするドウェル時間$\tau_{_\mathrm{dw}}$ に必須であり, ドウェルと位相時間との差は, 自己干渉時間遅延である \ie はバリア形状に敏感であり, 線形障壁の特異性を示す。
すべての時間遅延はミリ秒以下の順序で発振挙動を示し、散乱中性子の自己干渉をシグナルとし、発振はデブロリー波長 $\lambda_k=2\pi/k$ が特性長 $L_c=[2m^2g/\hbar^2]^{-1/3}$ に匹敵する場合にのみ明らかとなる。
時間遅延測定が実験的に実現可能であれば、時間領域の重力ポテンシャルから粒子を散乱させる量子的性質を探索することができる。 In this paper, we calculate the quantum time delays for neutron scattering off the Earth's linear gravitational potential. The quantum time delays are obtained by subtracting the classical returning time (CRT) from the Wigner time, the dwell time and the redefined Larmor time respectively. Different from the conventional definition, our Larmor time is defined by aligning the magnetic field along the neutron propagation direction, and this definition does give reasonable results for motions through a free region and a square barrier. It is worth noting that in the zero magnetic field limit, the Larmor time coincides well with the CRT, which is due to the special shape of linear barrier, and may have some relevance to the weak equivalence principle. It is also found that the classical forbidden region plays an essential role for the dwell time $\tau_{_\mathrm{DW}}$ to match with the CRT, and the difference between the dwell and the phase times, \ie, the self-interference time delay, is barrier shape sensitive and clearly shows the peculiarity of the linear barrier. All the time delays are on the order of sub-millisecond and exhibit oscillating behaviors, signaling the self-interference of the scattering neutron, and the oscillations become evident only when the de Broglie wavelength $\lambda_k=2\pi/k$ is comparable to the characteristic length $L_c=[2m^2g/\hbar^2]^{-1/3}$. If the time delay measurement is experimentally realizable, it can probe the quantum nature for particle scattering off the gravitational potential in the temporal domain. | 翻訳日:2023-05-04 11:52:11 公開日:2020-08-28 |
# ニューヨーク市におけるタクシーとuberの競争の調査: 強化学習によるマルチエージェントモデリング Investigating Taxi and Uber competition in New York City: Multi-agent modeling by reinforcement-learning ( http://arxiv.org/abs/2008.12530v1 ) ライセンス: Link先を確認 | Saeed Vasebi, Yeganeh M. Hayeri | (参考訳) タクシー事業は数十年間過度に規制されてきた。
規制は、規制された競争環境における安全と公平性を確保することが求められている。
ドライバーと乗客の両方の選択と行動に影響を与えることで、新興のe配車サービス(例えばUberとLyft)は、ここ数年で既存の競争を再構築している。
本研究は、ニューヨーク市におけるメインストリームの配車サービス(イエローとグリーンキャブ)とe配車サービス(すなわちuber)の競合について検討する。
彼らの競争は市場セグメンテーション、新興需要、規制の観点から調査されている。
データ可視化技術は、旅行行動における既存の新しいパターンを見つけるために使われる。
本研究では,ドライバの動作を模倣する多エージェントモデルと強化学習手法を適用した。
データビジュアライゼーションの結果で認識されるパターンによってモデルが検証される。
モデルはその後、複数の新しい規制と競争シナリオを評価するために使用される。
調査の結果,e-hailersは低密度地域(住宅地など)を支配し,e-hailersは迅速に旅行需要の変化に反応することがわかった。
これはハイラーの市場規模を減少させる。
さらに,グリーンキャブ規制の既存競争に対する間接的影響も確認した。
今回の調査は、当社が提案するシナリオとともに、政策立案者や当局が需要に効果的に対応できる政策の設計を支援するとともに、配偶者やe-ハリング部門の健全な競争を保証します。
キーワード:タクシー、uber、ポリシー、e-hailing、マルチエージェントシミュレーション、強化学習 The taxi business has been overly regulated for many decades. Regulations are supposed to ensure safety and fairness within a controlled competitive environment. By influencing both drivers and riders choices and behaviors, emerging e-hailing services (e.g., Uber and Lyft) have been reshaping the existing competition in the last few years. This study investigates the existing competition between the mainstream hailing services (i.e., Yellow and Green Cabs) and e-hailing services (i.e., Uber) in New York City. Their competition is investigated in terms of market segmentation, emerging demands, and regulations. Data visualization techniques are employed to find existing and new patterns in travel behavior. For this study, we developed a multi-agent model and applied reinforcement learning techniques to imitate drivers behaviors. The model is verified by the patterns recognized in our data visualization results. The model is then used to evaluate multiple new regulations and competition scenarios. Results of our study illustrate that e-hailers dominate low-travel-density areas (e.g., residential areas), and that e-hailers quickly identify and respond to change in travel demand. This leads to diminishing market size for hailers. Furthermore, our results confirm the indirect impact of Green Cabs regulations on the existing competition. This investigation, along with our proposed scenarios, can aid policymakers and authorities in designing policies that could effectively address demand while assuring a healthy competition for the hailing and e-haling sectors. Keywords: taxi; Uber, policy; E-hailing; multi-agent simulation; reinforcement learning; | 翻訳日:2023-05-04 11:51:40 公開日:2020-08-28 |
# 量子コンピュータによる小型・大型k-Cliqueインスタンスの探索 Finding Small and Large k-Clique Instances on a Quantum Computer ( http://arxiv.org/abs/2008.12525v1 ) ライセンス: Link先を確認 | Sara Ayman Metwalli, Francois Le Gall, Rodney Van Meter | (参考訳) k-クリケ問題の最小の非自明な例である三角探索アルゴリズムが量子コンピュータで提案されている。
それでもこれらのアルゴリズムは、固定アクセス時間量子RAM(QRAM)を前提としている。
三角フィニング問題とNP-ハード k-clique 一般化に対する実用的なゲートベース手法を提案する。
ノイズの多い中間スケール量子コンピュータ (nisq) デバイス上での短期的実装のための定数要因と, 量子コンピュータの長期使用を評価するための問題のスケーリングについて検討した。
理論的アプローチと実際の実装の時間複雑性と回路実用性を比較した。
我々は,Qiskit実装の回路サイズについて検討し,k-clique問題に対して2つの異なる戦略を提案し,適用する。
我々は,様々な誤差モデルを用いて三角形探索をシミュレートし,正解の振幅を減衰させる効果を観察し,実際の6台のIBMQマシン上での実行との比較を行った。
最後に,IBMの量子体積指数成長予測と誤差解析の結果に基づいて,提案手法が実装置上で有効に動作可能な日時を推定する。 Algorithms for triangle-finding, the smallest nontrivial instance of the k-clique problem, have been proposed for quantum computers. Still, those algorithms assume the use of fixed access time quantum RAM (QRAM). We present a practical gate-based approach to both the triangle-finding problem and its NP-hard k-clique generalization. We examine both constant factors for near-term implementation on a Noisy Intermediate Scale Quantum computer (NISQ) device, and the scaling of the problem to evaluate long-term use of quantum computers. We compare the time complexity and circuit practicality of the theoretical approach and actual implementation. We propose and apply two different strategies to the k-clique problem, examining the circuit size of Qiskit implementations. We analyze our implementations by simulating triangle finding with various error models, observing the effect on damping the amplitude of the correct answer, and compare to execution on six real IBMQ machines. Finally, we estimate the date when the methods proposed can run effectively on an actual device based on IBM's quantum volume exponential growth forecast and the results of our error analysis. | 翻訳日:2023-05-04 11:51:10 公開日:2020-08-28 |
# スクイーズとパラメトリック増幅による角変位推定 Angular displacements estimation enhanced by squeezing and parametric amplification ( http://arxiv.org/abs/2008.12495v1 ) ライセンス: Link先を確認 | Gao-Feng Jiao, Qiang Wang, L. Q. Chen, Weiping Zhang and Chun-Hua Yuan | (参考訳) 光学式パラメトリック増幅器(PA)を標準MZIの2つのアームにそれぞれ導入した改良型マッハ・ツェンダー干渉計(MZI)に基づく角変位推定法について理論的に検討する。
pasの雇用は、ショットノイズを圧縮し、干渉計内部の光子数を増幅することができる。
両腕に未知の角変位が導入された場合、量子フィッシャー情報行列アプローチを用いて多パラメータ量子Cram\'er-Rao界(QCRB)を導出し、両腕間の角変位の差分を強度検出による角変位の感度と比較する。
一方,一方の腕に未知の角変位がある場合,ホモダイン検出法を用いて角変位の感度を与える。
標準量子限界(SQL)を超え、単一のパラメータ QCRB に近づくことができる。
最後に,光子損失が感度に及ぼす影響について考察した。 We theoretically study the angular displacements estimation based on a modified Mach-Zehnder interferometer (MZI), in which two optical parametric amplifiers (PAs) are introduced into two arms of the standard MZI, respectively. The employment of PAs can both squeeze the shot noise and amplify the photon number inside the interferometer. When the unknown angular displacements are introduced to both arms, we derive the multiparameter quantum Cram\'er-Rao bound (QCRB) using the quantum Fisher information matrix approach, and the bound of angular displacements difference between the two arms is compared with the sensitivity of angular displacement using the intensity detection. On the other hand, in the case where the unknown angular displacement is in only one arm, we give the sensitivity of angular displacement using the method of homodyne detection. It can surpass the standard quantum limit (SQL) and approach the single parameter QCRB. Finally, the effect of photon losses on sensitivity is discussed. | 翻訳日:2023-05-04 11:50:20 公開日:2020-08-28 |
# 3スピン相互作用を持つスピン-$\frac{1}{2}$XX$ハイゼンベルク連鎖における局所量子フィッシャー情報と片方向量子不足 Local quantum Fisher information and one-way quantum deficit in spin-$\frac{1}{2}$ $XX$ Heisenberg chain with three-spin interaction ( http://arxiv.org/abs/2008.12460v1 ) ライセンス: Link先を確認 | Biao-Liang Ye, Bo Li, Xiao-Bin Liang, Shao-Ming Fei | (参考訳) 我々は、局所的な量子フィッシャー情報と一方的な量子欠損の観点から3スピン相互作用を持つスピン-1/2$XX$鎖における量子相転移と量子ゆらぎの実証について検討する。
分析結果は導出され、詳細に分析される。 We explore quantum phase transitions in the spin-1/2 $XX$ chain with three-spin interaction in terms of local quantum Fisher information and one-way quantum deficit, together with the demonstration of quantum fluctuations. Analytical results are derived and analyzed in detail. | 翻訳日:2023-05-04 11:49:09 公開日:2020-08-28 |
# 滑らかなポテンシャル井戸の存在下でのクライン・ゴルドン粒子の束縛状態 Bound states of a Klein-Gordon particle in presence of a smooth potential well ( http://arxiv.org/abs/2008.12718v1 ) ライセンス: Link先を確認 | Eduardo L\'opez and Clara Rojas | (参考訳) 1次元の時間独立クライン・ゴルドン方程式を滑らかなポテンシャル井戸の存在下で解く。
境界状態解はウィテカー$M_{\kappa,\mu}(x)$関数の項で与えられ、反粒子境界状態はポテンシャルパラメータの項で議論される。 We solve the one-dimensional time-independent Klein-Gordon equation in presence of a smooth potential well. The bound state solutions are given in terms of the Whittaker $M_{\kappa,\mu}(x)$ function, and the antiparticle bound state is discussed in terms of potential parameters. | 翻訳日:2023-05-04 11:42:23 公開日:2020-08-28 |
# 超伝導量子ビットを用いた共振結合パラメータ推定 Resonant Coupling Parameter Estimation with Superconducting Qubits ( http://arxiv.org/abs/2008.12714v1 ) ライセンス: Link先を確認 | J. H. B\'ejanin, C. T. Earnest, Y. R. Sanders, M. Mariantoni | (参考訳) 今日の量子コンピュータは、数万の量子ビットが互いに相互作用し、複雑化するネットワークの環境で構成されている。
このようなシステムを操作する際に最高の性能を達成するためには、量子コンピュータハミルトニアンにおける全てのパラメータの正確な知識が必要である。
本稿では,周波数可変超伝導量子ビットからなる量子コンピュータの共振相互作用のパラメータを効率的に学習する手法を理論的および実験的に示す。
このような相互作用には、例えば、他の量子ビット、共振器、二レベル状態欠陥、その他の不要モードなどがある。
本研究では,オフラインデータ収集アルゴリズムとオンラインベイズ学習アルゴリズムを組み合わせたスワップ分光校正法を提案する。
オフラインアルゴリズムの目的は、ゼロ知識の状態から共鳴相互作用を検出し、概略推定することである。
これは測定値の数を二乗根で減少させる。
オンラインアルゴリズムはその後、パラメータの見積を従来のスワップ分光校正法と同等の精度で洗練するが、一定時間で行う。
我々は超伝導量子ビットを用いてこの技術を実装した実験を行う。
両方のアルゴリズムを組み合わせることで、キャリブレーション時間の1桁の削減を観測する。
提案手法は,現在の中規模超伝導量子コンピュータを改良し,大規模システムにも拡張できると考えている。
最後に、ここで提示される2つのアルゴリズムは、量子コンピューティングアーキテクチャの異なる物理的実装に取り組んでいるコミュニティによって容易に採用できる。 Today's quantum computers are comprised of tens of qubits interacting with each other and the environment in increasingly complex networks. In order to achieve the best possible performance when operating such systems, it is necessary to have accurate knowledge of all parameters in the quantum computer Hamiltonian. In this article, we demonstrate theoretically and experimentally a method to efficiently learn the parameters of resonant interactions for quantum computers consisting of frequency-tunable superconducting qubits. Such interactions include, for example, those to other qubits, resonators, two-level state defects, or other unwanted modes. Our method is based on a significantly improved swap spectroscopy calibration and consists of an offline data collection algorithm, followed by an online Bayesian learning algorithm. The purpose of the offline algorithm is to detect and roughly estimate resonant interactions from a state of zero knowledge. It produces a square-root reduction in the number of measurements. The online algorithm subsequently refines the estimate of the parameters to comparable accuracy as traditional swap spectroscopy calibration, but in constant time. We perform an experiment implementing our technique with a superconducting qubit. By combining both algorithms, we observe a reduction of the calibration time by one order of magnitude. We believe the method investigated will improve present medium-scale superconducting quantum computers and will also scale up to larger systems. Finally, the two algorithms presented here can be readily adopted by communities working on different physical implementations of quantum computing architectures. | 翻訳日:2023-05-04 11:42:00 公開日:2020-08-28 |
# 量子ノイズレーダと古典ノイズレーダの比較 A comparison between quantum and classical noise radar sources ( http://arxiv.org/abs/2008.12711v1 ) ライセンス: Link先を確認 | Robert Jonsson, Roberto Di Candia, Martin Ankel, Anders Str\"om, G\"oran Johansson | (参考訳) 本研究では,2モード圧縮状態に基づく量子レーダの性能と相関熱雑音に基づく古典的レーダシステムとの比較を行った。
環境を探索するために送信される光子の等しい数$N_S$の制約により、量子配置は、クロスモード相関において古典的な$\sqrt{2}$に対する優位性を示す。
信号とアイドラーの増幅はプロトコルの異なる段階で考慮され、量子制限増幅器が利用可能であっても、大きなゲインが適用された場合、量子優位性は得られないことを示す。
また、型I誤差確率の制約を与えられた最小の型IIエラー確率減衰を特徴付け、量子セットアップにおける型IIエラー確率の最適減衰率は、N_S\ll1$レジームにおいて、最適古典セットアップよりも$\ln(1+1/N_S)$であることを示す。
また,受信器と受信信号が別々に測定された場合のシナリオに対する受信器動作特性(ROC)曲線を考察し,この場合の量子的優位性は存在しないことを示す。
我々の研究は、量子レーダーシステムにおける量子相関とノイズのトレードオフを特徴付ける。 We compare the performance of a quantum radar based on two-mode squeezed states with a classical radar system based on correlated thermal noise. With a constraint of equal number of photons $N_S$ transmitted to probe the environment, we find that the quantum setup exhibits an advantage with respect to its classical counterpart of $\sqrt{2}$ in the cross-mode correlations. Amplification of the signal and the idler is considered at different stages of the protocol, showing that no quantum advantage is achievable when a large-enough gain is applied, even when quantum-limited amplifiers are available. We also characterize the minimal type-II error probability decay, given a constraint on the type-I error probability, and find that the optimal decay rate of the type-II error probability in the quantum setup is $\ln(1+1/N_S)$ larger than the optimal classical setup, in the $N_S\ll1$ regime. In addition, we consider the Receiver Operating Characteristic (ROC) curves for the scenario when the idler and the received signal are measured separately, showing that no quantum advantage is present in this case. Our work characterizes the trade-off between quantum correlations and noise in quantum radar systems. | 翻訳日:2023-05-04 11:41:39 公開日:2020-08-28 |
# 単一検出器による光子アンチバンチングの観察 Observation of photon antibunching with a single conventional detector ( http://arxiv.org/abs/2008.12669v1 ) ライセンス: Link先を確認 | Shaojie Liu, Xing Lin, Feng Liu, Hairui Lei, Wei Fang and Chaoyuan Jin | (参考訳) 2階光子相関関数は、一対の光子検出器と二重チャネル時間取得モジュールを用いるハンベリー・ブラウンとツイス干渉計で通常測定される量子光学において非常に重要である。
本稿では,標準の単光子アバランシェフォトダイオード(dead-time = 22 ns)と単一チャネル時間取得モジュールを用いて,第2次相関関数を計測・抽出する新しい方法を示す。
これは、ゼロ時間遅延に近い情報的偶然カウントを、デッドタイム及びアフターパルス検出システムによって消されることのないタイムウィンドウにシフトすることで実現される。
本手法は, 単一コロイドナノ結晶からの2次相関測定により検証した。
光子アンチバンチングは明らかに観察され、標準HBTセットアップを用いて測定された結果とよく一致する。
提案手法は,高次相関手法を単純化し,コスト依存的な状況で好まれる可能性がある。 The second-order photon correlation function is of great importance in quantum optics which is typically measured with the Hanbury Brown and Twiss interferometer which employs a pair of single-photon detectors and a dual-channel time acquisition module. Here we demonstrate a new method to measure and extract the second-order correlation function with a standard single-photon avalanche photodiode (dead-time = 22 ns) and a single-channel time acquisition module. This is realized by shifting the informative coincidence counts near the zero-time delay to a time window which is not obliterated by the dead-time and after-pulse of detection system. The new scheme is verified by measuring the second-order correlation from a single colloidal nanocrystal. Photon antibunching is unambiguously observed and agrees well with the result measured using the standard HBT setup. Our scheme simplifies the higher-order correlation technique and might be favored in cost-sensitive circumstances. | 翻訳日:2023-05-04 11:40:47 公開日:2020-08-28 |
# 情報逆流は量子メモリを示さないかもしれない Information backflow may not indicate quantum memory ( http://arxiv.org/abs/2008.12638v1 ) ライセンス: Link先を確認 | Michal Banacki, Marcin Marciniak, Karol Horodecki, Pawel Horodecki | (参考訳) 量子マルコビアン性に対する最近のアプローチと量子メモリの適切な定義との関係について分析する。
情報逆流の有名な基準は、その量子性を示すメモリの特性を正しく報告しない可能性がある。
したがって、よく知られた基準を補うものとして、初等力学写像のいくつかの概念を提案する。
このタイプの写像は、与えられた基底のフォン・ノイマン測定で区別できない状態の識別性を高めない。
これらの概念と凸性により、弱い強い意味で量子メモリを持たないプロセスの一般的なクラスを定義できる。
最後に,量子情報バックフローを目撃する新たな概念の観点から,最も直感的なクラスを実践的に評価する。 We analyze recent approaches to quantum Markovianity and how they relate to the proper definition of quantum memory. We point out that the well-known criterion of information backflow may not correctly report character of the memory falsely signaling its quantumness. Therefore, as a complement to the well-known criteria, we propose several concepts of elementary dynamical maps. Maps of this type do not increase distinguishability of states which are indistinguishable by von Neumann measurements in a given basis. Those notions and convexity allows us to define general classes of processes without quantum memory in a weak and strong sense. Finally, we provide a practical characterization of the most intuitive class in terms of the new concept of witness of quantum information backflow. | 翻訳日:2023-05-04 11:40:32 公開日:2020-08-28 |
# フェルミの黄金律の開始時刻 The onset time of Fermi's golden rule ( http://arxiv.org/abs/2008.12565v1 ) ライセンス: Link先を確認 | V. Debierre, E. Lassalle | (参考訳) フェルミの黄金律は、不安定な量子系の崩壊ダイナミクスを貯水池に結合し、時間の線形崩壊を予測する。
比較的短い時間に発生するが、フェルミ・レジームは量子力学の初期の段階では成立しない。
フェルミ状態の開始時刻に関する文献の標準基準は$t_f\sim1/\delta\omega$であり、$\delta\omega$ は共鳴遷移周波数 $\omega_0$ の周りの周波数間隔であり、その上で貯水池とのカップリングは許容できない。
この研究において、この基準は一般の広帯域貯水池では不適切であることが示されており、ここでは貯水池結合スペクトルが $r\left(\omega\right)\propto\omega^\eta$ と形容され、ここでは $\eta>1$ に対してフェルミ・レジームの開始時刻は$t_f\propto\left(\omega_{\mathrm{x}}/\omega_0\right)^{\eta-1}\times1/\omega_0$ で与えられる。
したがって、フェルミ体制の開始は、標準基準によって予測されるものよりも桁違いに大きくなることができる。
この現象は、短時間のリザーバのオフ共振周波数の励起に関連していることが示されている。
ブロードバンド貯水池は$\eta\leq1$で、狭帯域貯水池では標準基準が正しいことが示されている。
フェルミの黄金律の適用可能性の条件を再検討し,不安定な量子系のダイナミクスの理解を深めた。 Fermi's golden rule describes the decay dynamics of unstable quantum systems coupled to a reservoir, and predicts a linear decay in time. Although it arises at relatively short times, the Fermi regime does not take hold in the earliest stages of the quantum dynamics. The standard criterion in the literature for the onset time of the Fermi regime is $t_F\sim1/\Delta\omega$, with $\Delta\omega$ the frequency interval around the resonant transition frequency $\omega_0$ of the system, over which the coupling to the reservoir does not vary appreciably. In this work, this criterion is shown to be inappropriate in general for broadband reservoirs, where the reservoir coupling spectrum takes the form $R\left(\omega\right)\propto\omega^\eta$, and for which it is found that for $\eta>1$, the onset time of the Fermi regime is given by $t_F\propto\left(\omega_{\mathrm{X}}/\omega_0\right)^{\eta-1}\times1/\omega_0$ where $\omega_{\mathrm{X}}$ is the high-frequency cutoff of the reservoir. Therefore, the onset of the Fermi regime can take place at times orders of magnitude larger than those predicted by the standard criterion. This phenomenon is shown to be related to the excitation of the off-resonant frequencies of the reservoir at short times. For broadband reservoirs with $\eta\leq1$, and for narrowband reservoirs, it is shown that the standard criterion is correct. Our findings revisit the conditions of applicability of Fermi's golden rule and improve our understanding of the dynamics of unstable quantum systems. | 翻訳日:2023-05-04 11:40:06 公開日:2020-08-28 |
# 個人食モデル Personal Food Model ( http://arxiv.org/abs/2008.12855v1 ) ライセンス: Link先を確認 | Ali Rostami, Vaibhav Pandey, Nitish Nag, Vesper Wang, Ramesh Jain | (参考訳) 食物は生命の中心である。
食物は私たちの体にエネルギーと基礎的な構成要素を提供し、喜びと新しい体験の主要な源となります。
全体経済のかなりの部分は食料に関するものである。
食品科学、流通、処理、消費は、計算アプローチのサイロを用いて異なるコミュニティによって対処されてきた。
本稿では,人中心のマルチメディアとマルチモーダルの視点を食品コンピューティングに適用し,マルチメディアと食品コンピューティングが相乗的かつ相補的であることを示す。
食べ物を楽しむことは、視覚、味、匂い、さらには音さえも含む真のマルチメディア体験であり、マルチメディアフードロガーを使ってキャプチャできる。
食品に対する生物学的反応は、利用可能なウェアラブルデバイスを使用してマルチモーダルデータストリームを使ってキャプチャできる。
このアプローチの中心は、パーソナルフードモデルである。
個人食モデルは、個人の食品関連特性のデジタル化表現である。
食品レコメンデーションシステムにおいて、ユーザの生活の質を改善する食事関連レコメンデーションを提供するために使用されるように設計されている。
食生活の特徴をモデル化するためには, 嗜好的個人食モデルを用いて食生活を捉え, 生物的個人食モデルを用いて食品に対する生物学的反応を捉えることが不可欠である。
視覚処理のための3次元カラーモデルのパワーに触発され,食感や嗜好を把握できる6次元味空間が導入された。
我々は,食品と他の生物・生物イベントを関連付けるイベントマイニング手法を用いて,新たな食品レコメンデーションシステムにおいても効果的に使用できる予測モデルを構築した。 Food is central to life. Food provides us with energy and foundational building blocks for our body and is also a major source of joy and new experiences. A significant part of the overall economy is related to food. Food science, distribution, processing, and consumption have been addressed by different communities using silos of computational approaches. In this paper, we adopt a person-centric multimedia and multimodal perspective on food computing and show how multimedia and food computing are synergistic and complementary. Enjoying food is a truly multimedia experience involving sight, taste, smell, and even sound, that can be captured using a multimedia food logger. The biological response to food can be captured using multimodal data streams using available wearable devices. Central to this approach is the Personal Food Model. Personal Food Model is the digitized representation of the food-related characteristics of an individual. It is designed to be used in food recommendation systems to provide eating-related recommendations that improve the user's quality of life. To model the food-related characteristics of each person, it is essential to capture their food-related enjoyment using a Preferential Personal Food Model and their biological response to food using their Biological Personal Food Model. Inspired by the power of 3-dimensional color models for visual processing, we introduce a 6-dimensional taste-space for capturing culinary characteristics as well as personal preferences. We use event mining approaches to relate food with other life and biological events to build a predictive model that could also be used effectively in emerging food recommendation systems. | 翻訳日:2023-05-04 11:33:01 公開日:2020-08-28 |
# Bose-Hubbard例外点の単位展開と粒子数保存 Unitary unfoldings of Bose-Hubbard exceptional point with and without particle number conservation ( http://arxiv.org/abs/2008.12844v1 ) ライセンス: Link先を確認 | Miloslav Znojil | (参考訳) 3パラメトリックbose-hubbard hamiltonian $h(\gamma,v,c)$ は、一般化されたbose-hubbard様ハミルトニアンの族(英語版)の非摂動部分である特別な例外点極限 $c \to 0$ と $\gamma \to v$ において、n-$plet のボソンの非エルミティアンだが、${\cal pt}-$対称量子系をピックアップする。
これにより、ハミルトニアンの2つの異なる族$\mathfrak{H}(\lambda)$が構築される。
1つ目ではボソンの番号$n$が保存され、2つ目ではそのような仮定が緩和される。
どちらの場合も、関連する物理的ヒルベルト空間の異方性は、非常に直観的だが操作的に実現可能な許容摂動$\lambda\,{\cal V}$の構造によって反映される。 Non-Hermitian but ${\cal PT}-$symmetric quantum system of an $N-$plet of bosons described by the three-parametric Bose-Hubbard Hamiltonian $H(\gamma,v,c)$ is picked up, in its special exceptional-point limit $c \to 0$ and $\gamma \to v$, as an unperturbed part of the family of generalized Bose-Hubbard-like Hamiltonians $\mathfrak{H}(\lambda)=H(v,v,0)+\lambda\,{\cal V}$ for which the unitarity of the perturbed system is required. This leads to the construction of two different families of Hamiltonians $\mathfrak{H}(\lambda)$. In the first one the number $N$ of bosons is assumed conserved while in the second family such an assumption is relaxed. In both cases the anisotropy of the related physical Hilbert space is shown reflected by a highly counterintuitive but operationally realizable structure of admissible perturbations $\lambda\,{\cal V}$. | 翻訳日:2023-05-04 11:32:38 公開日:2020-08-28 |
# 中心qudit問題における反転多体移動エッジ Inverted many-body mobility edge in a central qudit problem ( http://arxiv.org/abs/2008.12796v1 ) ライセンス: Link先を確認 | Saeed Rahmanian Koshkaki, Michael H. Kolodrubetz | (参考訳) 空洞QEDや中心スピンモデルのような多くの興味深い実験システムは、単一の調和モードへの大域的な結合を含む。
平衡の外では、局部的な位相がそのような大域的な結合を生き残るかは定かではない。
逆場と長手場がグローバルに$d$レベルのシステム(qudit)に結合した乱れイジングモデルにおけるエネルギー依存性の局所化について検討した。
厳密には、高エネルギー状態が局所化され、低エネルギー状態が非局在化されている逆移動端が見つかる。
我々の結果はシフト・アンド・逆固有状態ターゲティングとクリロフ時間進化によって支えられ、それぞれL=13ドルと18ドルになる。
e_c \propto l^{1/2}$ とスケールし、有限サイズの数値と一致する局在相転移の臨界エネルギーを議論する。
また, 中心モードの影響が強いにもかかわらず, より低いエネルギーでmbl相が再突入する証拠を示す。
同様の結果は中心スピン-S$問題において大きな$S$とキャビティQEDの特定のモデルで発生すべきである。 Many interesting experimental systems, such as cavity QED or central spin models, involve global coupling to a single harmonic mode. Out-of-equilibrium, it remains unclear under what conditions localized phases survive such global coupling. We study energy-dependent localization in the disordered Ising model with transverse and longitudinal fields coupled globally to a $d$-level system (qudit). Strikingly, we discover an inverted mobility edge, where high energy states are localized while low energy states are delocalized. Our results are supported by shift-and-invert eigenstate targeting and Krylov time evolution up to $L=13$ and $18$ respectively. We argue for a critical energy of the localization phase transition which scales as $E_c \propto L^{1/2}$, consistent with finite size numerics. We also show evidence for a reentrant MBL phase at even lower energies despite the presence of strong effects of the central mode in this regime. Similar results should occur in the central spin-$S$ problem at large $S$ and in certain models of cavity QED. | 翻訳日:2023-05-04 11:31:55 公開日:2020-08-28 |
# 量子非局在化、ゲージおよび量子光学:相対論的量子情報における光-物質相互作用 Quantum delocalization, gauge and quantum optics: The light-matter interaction in relativistic quantum information ( http://arxiv.org/abs/2008.12785v1 ) ライセンス: Link先を確認 | Richard Lopp and Eduardo Mart\'in-Mart\'inez | (参考訳) 電磁気のゲージの性質と多重極近似の効果に関係した微妙さを指摘し、量子電磁場と第1量子化原子系(2つの荷電量子粒子からなる)の相互作用を再考する。
量子光学や相対論的量子情報(unruh-dewitt(udw)モデルや双極子カップリング近似など)で用いられる典型的な実効モデルと完全極小結合モデルを結びつける。
我々は、異なる近似のレジームが妥当であるか、どの場合において、光-物質相互作用の特徴を捉えるために効果的なモデルを洗練する必要があるかを指摘する。
これは、原子の質量(COM)の中心を複数の軌道上で非局在化できる量子系として考えると特に重要である。
例えば、量子COMとの最も単純なUDW近似は、COMと内部原子自由度を互いに結合する重要なR\"オントゲン項を捕捉できないことを示す。
最後に、相対論的に動く原子に対して効果的な双極子相互作用モデルがどのように共変的に定まるかを示す。 We revisit the interaction of a first-quantized atomic system (consisting of two charged quantum particles) with the quantum electromagnetic field, pointing out the subtleties related to the gauge nature of electromagnetism and the effect of multipole approximations. We connect the full minimal-coupling model with the typical effective models used in quantum optics and relativistic quantum information such as the Unruh-DeWitt (UDW) model and the dipole coupling approximation. We point out in what regimes different degrees of approximation are reasonable and in what cases effective models need to be refined to capture the features of the light-matter interaction. This is particularly important when considering the center of mass (COM) of the atom as a quantum system that can be delocalized over multiple trajectories. For example, we show that the simplest UDW approximation with a quantum COM fails to capture crucial R\"ontgen terms coupling COM and internal atomic degrees of freedom with each other and the field. Finally we show how effective dipole interaction models can be covariantly prescribed for relativistically moving atoms. | 翻訳日:2023-05-04 11:31:23 公開日:2020-08-28 |
# 複素重み付きマルチセットオートマタを用いた非順序データの表現 Representing Unordered Data Using Complex-Weighted Multiset Automata ( http://arxiv.org/abs/2001.00610v3 ) ライセンス: Link先を確認 | Justin DeBenedetto, David Chiang | (参考訳) 非順序、可変サイズの入力は複数のフィールドにまたがる多くの設定で発生する。
このタイプの入力を処理するための、セットとマルチセット指向のニューラルネットワークの能力は、近年多くの作業の焦点となっている。
複素重み付きマルチセットオートマトンを用いてマルチセットを表現し、既存のニューラルネットワークアーキテクチャのマルチセット表現を我々の特別なケースとみなす方法を示す。
すなわち,(1) 正弦波関数を用いたトランスフォーマーモデルの位置表現の理論的,直感的な新しい正当性を提供し,(2) 複素数を使用するためにDeepSetsモデルを拡張し,既存のモデルをタスクの1つの拡張上で上回るようにした。 Unordered, variable-sized inputs arise in many settings across multiple fields. The ability for set- and multiset-oriented neural networks to handle this type of input has been the focus of much work in recent years. We propose to represent multisets using complex-weighted multiset automata and show how the multiset representations of certain existing neural architectures can be viewed as special cases of ours. Namely, (1) we provide a new theoretical and intuitive justification for the Transformer model's representation of positions using sinusoidal functions, and (2) we extend the DeepSets model to use complex numbers, enabling it to outperform the existing model on an extension of one of their tasks. | 翻訳日:2023-01-16 04:39:47 公開日:2020-08-28 |
# deep learning compiler: 包括的な調査 The Deep Learning Compiler: A Comprehensive Survey ( http://arxiv.org/abs/2002.03794v4 ) ライセンス: Link先を確認 | Mingzhen Li, Yi Liu, Xiaoyan Liu, Qingxiao Sun, Xin You, Hailong Yang, Zhongzhi Luan, Lin Gan, Guangwen Yang, Depei Qian | (参考訳) 多様なDLハードウェア上に様々なディープラーニング(DL)モデルをデプロイすることの難しさにより、コミュニティにおけるDLコンパイラの研究と開発が促進された。
いくつかのDLコンパイラは、Tensorflow XLAやTVMのような業界と学術の両方から提案されている。
同様に、DLコンパイラは異なるDLフレームワークで記述されたDLモデルを入力とし、様々なDLハードウェアに対して最適化されたコードを生成する。
しかし、既存の調査ではdlコンパイラのユニークな設計アーキテクチャを包括的に分析していない。
本稿では、DL指向多レベルIRとフロントエンド/バックエンド最適化に重点を置いて、広く採用されている設計を詳細に分離し、既存のDLコンパイラを網羅的に調査する。
具体的には、様々な側面から既存のDLコンパイラと比較する。
さらに,多レベルirsの設計に関する詳細な分析を行い,広く採用されている最適化手法について述べる。
最後に、DLコンパイラの潜在的な研究方向性として、いくつかの洞察が強調されている。
dlコンパイラの設計アーキテクチャに焦点を当てた最初の調査論文であり、dlコンパイラに対する今後の研究への道を開くことを願っている。 The difficulty of deploying various deep learning (DL) models on diverse DL hardware has boosted the research and development of DL compilers in the community. Several DL compilers have been proposed from both industry and academia such as Tensorflow XLA and TVM. Similarly, the DL compilers take the DL models described in different DL frameworks as input, and then generate optimized codes for diverse DL hardware as output. However, none of the existing survey has analyzed the unique design architecture of the DL compilers comprehensively. In this paper, we perform a comprehensive survey of existing DL compilers by dissecting the commonly adopted design in details, with emphasis on the DL oriented multi-level IRs, and frontend/backend optimizations. Specifically, we provide a comprehensive comparison among existing DL compilers from various aspects. In addition, we present detailed analysis on the design of multi-level IRs and illustrate the commonly adopted optimization techniques. Finally, several insights are highlighted as the potential research directions of DL compiler. This is the first survey paper focusing on the design architecture of DL compilers, which we hope can pave the road for future research towards DL compiler. | 翻訳日:2023-01-03 13:33:46 公開日:2020-08-28 |
# パイプライン干渉 Pipeline Interventions ( http://arxiv.org/abs/2002.06592v2 ) ライセンス: Link先を確認 | Eshwar Ram Arunachaleswaran, Sampath Kannan, Aaron Roth, Juba Ziani | (参考訳) 階層化有向非巡回グラフと連続する層間の遷移を管理する確率行列の集合によって定義される, \emph{pipeline intervention}問題を導入する。
このグラフは、異なる人口の人々が機会を提供する方法のスタイル化されたモデルであり、最終的には何らかの報酬をもたらす。
我々のモデルでは、個人は、固定された確率分布に従って初期位置(すなわち、グラフの第1層のノード)に生まれ、その後、遷移行列に従って、グラフの最終層のノードに到達するまで、そのグラフを確率的に進行する。
パイプラインの介入問題は、予算の制約の下で、人々の確率的遷移を管理する遷移行列に対して、どのように最もコストのかかる変更を行うかを問う。
我々は、社会福祉の最大化と、人口に対する価値(開始ノード)を期待値で最大化しようとする公正動機の最大化という2つの目的を考察する。
決定論的解を求めるか、ランダム化を許すかによって、極大目的の2つの変種を区別できると考える。
各目的に対して、一定幅ネットワークに対する効率的な近似アルゴリズム(加算FPTAS)を提案する。
また, 達成可能な社会福祉の最大値と, 最適解と一致した社会福祉の最高値との比率を, 設定において「公正の価格」を強く特徴づける。
最後に、多項式幅ネットワークにおいて、任意の定数係数に対して最大目的を近似するさえも、一定深さのネットワークであってもNP困難であることを示す。
これは、ポジティブな結果の幅の制限が不可欠であることを示している。 We introduce the \emph{pipeline intervention} problem, defined by a layered directed acyclic graph and a set of stochastic matrices governing transitions between successive layers. The graph is a stylized model for how people from different populations are presented opportunities, eventually leading to some reward. In our model, individuals are born into an initial position (i.e. some node in the first layer of the graph) according to a fixed probability distribution, and then stochastically progress through the graph according to the transition matrices, until they reach a node in the final layer of the graph; each node in the final layer has a \emph{reward} associated with it. The pipeline intervention problem asks how to best make costly changes to the transition matrices governing people's stochastic transitions through the graph, subject to a budget constraint. We consider two objectives: social welfare maximization, and a fairness-motivated maximin objective that seeks to maximize the value to the population (starting node) with the \emph{least} expected value. We consider two variants of the maximin objective that turn out to be distinct, depending on whether we demand a deterministic solution or allow randomization. For each objective, we give an efficient approximation algorithm (an additive FPTAS) for constant width networks. We also tightly characterize the "price of fairness" in our setting: the ratio between the highest achievable social welfare and the highest social welfare consistent with a maximin optimal solution. Finally we show that for polynomial width networks, even approximating the maximin objective to any constant factor is NP hard, even for networks with constant depth. This shows that the restriction on the width in our positive results is essential. | 翻訳日:2022-12-31 18:24:49 公開日:2020-08-28 |
# AIはすべての皮膚科医より優れていた:最適化されたDeep CNNアーキテクチャにおけるバッチロジックと損失関数のカスタマイズによる皮膚内視鏡的メラノーマ診断の改善 AI outperformed every dermatologist: Improved dermoscopic melanoma diagnosis through customizing batch logic and loss function in an optimized Deep CNN architecture ( http://arxiv.org/abs/2003.02597v2 ) ライセンス: Link先を確認 | Cong Tri Pham, Mai Chi Luong, Dung Van Hoang, Antoine Doucet | (参考訳) メラノーマは最も危険な種類の皮膚がんの1つで、非常に高い死亡率で再発する。
早期発見と切除は、治療が成功するための2つの重要なポイントである。
近年の研究では、人工知能を用いてメラノーマとネウスを分類し、これらのアルゴリズムの評価を皮膚科医のそれと比較している。
しかし、感度と特異性の測定の不均衡が既存モデルの性能に影響を及ぼした。
本研究では,二分分類問題としてのメラノーマの検出を目的とした深層畳み込みニューラルネットワークを用いた手法を提案する。
これには3つの重要な機能、すなわち、カスタマイズされたバッチロジック、カスタマイズされた損失関数、完全に接続されたレイヤが含まれる。
トレーニングデータセットは、メラノーマとnevusの17,302イメージを含む、最新の状態を維持している。
モデルはMClass-Dデータセットに基づいて,ドイツの12の大学病院の皮膚科医157名と比較した。
このモデルは全157人の皮膚科医より優れ、AUCでは94.4%、感度は85.0%、特異度は95.0%で、MClass-Dの100の皮膚画像の予測閾値は0.5であった。
さらに、0.40858の閾値は他の研究と比較して最もバランスの取れた指標を示し、感度90.0%、特異度93.8%の医療診断に有望である。 Melanoma, one of most dangerous types of skin cancer, re-sults in a very high mortality rate. Early detection and resection are two key points for a successful cure. Recent research has used artificial intelligence to classify melanoma and nevus and to compare the assessment of these algorithms to that of dermatologists. However, an imbalance of sensitivity and specificity measures affected the performance of existing models. This study proposes a method using deep convolutional neural networks aiming to detect melanoma as a binary classification problem. It involves 3 key features, namely customized batch logic, customized loss function and reformed fully connected layers. The training dataset is kept up to date including 17,302 images of melanoma and nevus; this is the largest dataset by far. The model performance is compared to that of 157 dermatologists from 12 university hospitals in Germany based on MClass-D dataset. The model outperformed all 157 dermatologists and achieved state-of-the-art performance with AUC at 94.4% with sensitivity of 85.0% and specificity of 95.0% using a prediction threshold of 0.5 on the MClass-D dataset of 100 dermoscopic images. Moreover, a threshold of 0.40858 showed the most balanced measure compared to other researches, and is promisingly application to medical diagnosis, with sensitivity of 90.0% and specificity of 93.8%. | 翻訳日:2022-12-26 07:00:32 公開日:2020-08-28 |
# グラフニューラルネットワークを用いたマスターデータ管理のためのリンク予測 Link Prediction using Graph Neural Networks for Master Data Management ( http://arxiv.org/abs/2003.04732v2 ) ライセンス: Link先を確認 | Balaji Ganesan, Srinivas Parkala, Neeraj R Singh, Sumit Bhatia, Gayatri Mishra, Matheen Ahmed Pasha, Hima Patel, Somashekar Naganna | (参考訳) n-aryリレーショナルデータのグラフ表現の学習には、アンチマネーロンダリング、不正検出、顧客のデューデリジェンスなど、現実世界のアプリケーションが多い。
陽性者の接触追跡もリンク予測問題として考えられる。
グラフニューラルネットワークを使用している人々間のリンクを予測するには、これまでGNNが適用されてきたドメインよりも、慎重に倫理的およびプライバシー上の考慮が必要である。
マスタデータ管理において,データの匿名化,モデルトレーニング,説明可能性とリンク予測の検証を行う新しい手法を導入し,その結果について考察する。 Learning graph representations of n-ary relational data has a number of real world applications like anti-money laundering, fraud detection, and customer due diligence. Contact tracing of COVID19 positive persons could also be posed as a Link Prediction problem. Predicting links between people using Graph Neural Networks requires careful ethical and privacy considerations than in domains where GNNs have typically been applied so far. We introduce novel methods for anonymizing data, model training, explainability and verification for Link Prediction in Master Data Management, and discuss our results. | 翻訳日:2022-12-25 19:56:48 公開日:2020-08-28 |
# ランダムエッジを付加した新しい畳み込みニューラルネットワークモデルに関する研究 Research on a New Convolutional Neural Network Model Combined with Random Edges Adding ( http://arxiv.org/abs/2003.07794v2 ) ライセンス: Link先を確認 | Xuanyu Shu, Jin Zhang, Sen Tian, Sheng chen and Lingyu Chen | (参考訳) 畳み込みニューラルネットワークモデルの精度を改善し、その収束をスピードアップすることは、常にホットで難しい点である。
小世界ネットワークの考え方に基づいて,畳み込みニューラルネットワークモデルの性能向上を目的としたランダムエッジ付加アルゴリズムを提案する。
このアルゴリズムは畳み込みニューラルネットワークモデルをベンチマークとして、確率pと逆層接続をランダム化し、新しい畳み込みニューラルネットワークモデルを形成する。
提案手法は,畳み込みニューラルネットワークのトポロジー構造を変化させることで,クロス層接続を最適化し,モデル改善のための新たなアイデアを提供する。
Fashion-MINST と cifar10 データセットに基づくシミュレーションの結果,確率 p = 0.1 の再構成モデルのランダムエッジ付加により,モデル認識精度とトレーニング収束速度が大幅に向上した。 It is always a hot and difficult point to improve the accuracy of convolutional neural network model and speed up its convergence. Based on the idea of small world network, a random edge adding algorithm is proposed to improve the performance of convolutional neural network model. This algorithm takes the convolutional neural network model as a benchmark, and randomizes backwards and cross-layer connections with probability p to form a new convolutional neural network model. The proposed idea can optimize the cross layer connectivity by changing the topological structure of convolutional neural network, and provide a new idea for the improvement of the model. The simulation results based on Fashion-MINST and cifar10 data set show that the model recognition accuracy and training convergence speed are greatly improved by random edge adding reconstructed models with aprobability p = 0.1. | 翻訳日:2022-12-22 20:55:25 公開日:2020-08-28 |
# real-mff: ground truth を用いた大規模多焦点画像データセット Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth ( http://arxiv.org/abs/2003.12779v3 ) ライセンス: Link先を確認 | Juncheng Zhang, Qingmin Liao, Shaojun Liu, Haoyu Ma, Wenming Yang, Jing-Hao Xue | (参考訳) 2つ以上の部分に焦点を当てたソースイメージからオールインフォーカス画像を生成する技術であるマルチフォーカス画像融合は、多くのコンピュータビジョンタスクに有用である。
しかし、現在マルチフォーカス画像融合におけるアルゴリズムの説得力のある評価と比較を行うための大規模で現実的なデータセットは存在しない。
さらに、適切なデータセットを使わずに、多焦点画像融合のためのディープニューラルネットワークを訓練することは困難である。
このレターでは,実写mffと呼ばれる大規模かつ現実的な多点データセットを導入し,対応する基底真理画像を含む710対のソース画像を含む。
データセットは光場画像によって生成され、ソース画像と地上真実画像の両方がリアルである。
既存のマルチフォーカス画像融合アルゴリズムの確立されたベンチマークと、ディープラーニングベースのメソッドの今後の開発のための適切なトレーニングデータセットの両方を提供するため、このデータセットは、建物、植物、人間、ショッピングモール、広場などを含むさまざまなシーンを含む。
また,このデータセット上の10の典型的なマルチフォーカスアルゴリズムをイラストレーションのために評価した。 Multi-focus image fusion, a technique to generate an all-in-focus image from two or more partially-focused source images, can benefit many computer vision tasks. However, currently there is no large and realistic dataset to perform convincing evaluation and comparison of algorithms in multi-focus image fusion. Moreover, it is difficult to train a deep neural network for multi-focus image fusion without a suitable dataset. In this letter, we introduce a large and realistic multi-focus dataset called Real-MFF, which contains 710 pairs of source images with corresponding ground truth images. The dataset is generated by light field images, and both the source images and the ground truth images are realistic. To serve as both a well-established benchmark for existing multi-focus image fusion algorithms and an appropriate training dataset for future development of deep-learning-based methods, the dataset contains a variety of scenes, including buildings, plants, humans, shopping malls, squares and so on. We also evaluate 10 typical multi-focus algorithms on this dataset for the purpose of illustration. | 翻訳日:2022-12-18 23:57:25 公開日:2020-08-28 |
# 因果推論のための機械学習--クロスフィット推定器を用いて Machine learning for causal inference: on the use of cross-fit estimators ( http://arxiv.org/abs/2004.10337v4 ) ライセンス: Link先を確認 | Paul N Zivich, Alexander Breskin | (参考訳) 現代の因果推論法では、機械学習を用いてパラメトリックモデリングの仮定を弱めることができる。
しかし、機械学習の使用は推論の複雑さをもたらす可能性がある。
二重ロバスト型クロスフィット推定器は、より優れた統計特性をもたらすために提案されている。
平均因果効果(ACE)に対する複数の異なる推定器の性能を評価するためのシミュレーション研究を行った。
シミュレーション処理と結果のためのデータ生成機構は, 対数変換, 多項式項, 不連続性であった。
本研究は, 単独の確率推定器(g計算, 逆確率重み付け)と2倍の確率重み付け(増分逆確率重み付け, 目標最大推定)を比較した。
ニュアンス関数はパラメトリックモデルとアンサンブル機械学習を別々に推定した。
さらに,二重ロバストクロスフィット推定器についても検討した。
正確に特定されたパラメトリックモデルでは、全ての推定値は偏りがなく、信頼区間は名目上の範囲に達した。
機械学習で使用する場合、二重確率のクロスフィット推定器は、バイアス、分散、信頼区間のカバレッジで他のすべての推定器よりも大幅に優れていた。
高次元データでパラメトリックモデルを適切に指定することが困難であるため、アンサンブル学習とクロスフィッティングを伴う二重ロバスト推定器は、ほとんどの疫学研究においてaceの推定に好適なアプローチである。
しかし、これらのアプローチは有限サンプル問題を避けるためにより大きなサンプルサイズを必要とするかもしれない。 Modern causal inference methods allow machine learning to be used to weaken parametric modeling assumptions. However, the use of machine learning may result in complications for inference. Doubly-robust cross-fit estimators have been proposed to yield better statistical properties. We conducted a simulation study to assess the performance of several different estimators for the average causal effect (ACE). The data generating mechanisms for the simulated treatment and outcome included log-transforms, polynomial terms, and discontinuities. We compared singly-robust estimators (g-computation, inverse probability weighting) and doubly-robust estimators (augmented inverse probability weighting, targeted maximum likelihood estimation). Nuisance functions were estimated with parametric models and ensemble machine learning, separately. We further assessed doubly-robust cross-fit estimators. With correctly specified parametric models, all of the estimators were unbiased and confidence intervals achieved nominal coverage. When used with machine learning, the doubly-robust cross-fit estimators substantially outperformed all of the other estimators in terms of bias, variance, and confidence interval coverage. Due to the difficulty of properly specifying parametric models in high dimensional data, doubly-robust estimators with ensemble learning and cross-fitting may be the preferred approach for estimation of the ACE in most epidemiologic studies. However, these approaches may require larger sample sizes to avoid finite-sample issues. | 翻訳日:2022-12-11 07:23:04 公開日:2020-08-28 |
# CNN Explainer:インタラクティブな可視化による畳み込みニューラルネットワークの学習 CNN Explainer: Learning Convolutional Neural Networks with Interactive Visualization ( http://arxiv.org/abs/2004.15004v3 ) ライセンス: Link先を確認 | Zijie J. Wang, Robert Turko, Omar Shaikh, Haekyu Park, Nilaksh Das, Fred Hohman, Minsuk Kahng, Duen Horng Chau | (参考訳) ディープラーニングの大きな成功は、多くの実践者や学生に、このエキサイティングな技術を学ぶ動機を与えます。
しかし、初心者にとって、深層学習の理解と適用の複雑さから、最初の一歩を踏み出すのは困難であることが多い。
提案するCNN Explainerは,非専門家を対象に,基盤となるディープラーニングモデルアーキテクチャである畳み込みニューラルネットワーク(CNN)を学習し,検討するための,インタラクティブな可視化ツールである。
我々のツールは、CNNについて学びながら初心者が直面する重要な課題に対処し、インストラクターへのインタビューや過去の学生に対する調査から識別する。
CNN Explainerは、CNNの構造を要約するモデル概要と、ユーザがCNNの基盤となるコンポーネントを理解するのに役立つオンデマンドの動的視覚的説明ビューを密に統合する。
抽象化レベル間のスムーズな遷移を通じて,低レベルの数学的操作と高レベルのモデル構造との相互作用を調べることができる。
質的なユーザ調査によると、CNN Explainerは、ユーザがCNNの内部動作をより容易に理解しやすく、エンゲージメントと使い勝手がよい。
私たちはまた、研究からデザインの教訓を導き出します。
モダンなWeb技術を使用して開発されたCNN Explainerは、インストールや特別なハードウェアを必要とせずに、ユーザのWebブラウザでローカルに動作し、モダンなディープラーニング技術への一般大衆の教育アクセスを拡大する。 Deep learning's great success motivates many practitioners and students to learn about this exciting technology. However, it is often challenging for beginners to take their first step due to the complexity of understanding and applying deep learning. We present CNN Explainer, an interactive visualization tool designed for non-experts to learn and examine convolutional neural networks (CNNs), a foundational deep learning model architecture. Our tool addresses key challenges that novices face while learning about CNNs, which we identify from interviews with instructors and a survey with past students. CNN Explainer tightly integrates a model overview that summarizes a CNN's structure, and on-demand, dynamic visual explanation views that help users understand the underlying components of CNNs. Through smooth transitions across levels of abstraction, our tool enables users to inspect the interplay between low-level mathematical operations and high-level model structures. A qualitative user study shows that CNN Explainer helps users more easily understand the inner workings of CNNs, and is engaging and enjoyable to use. We also derive design lessons from our study. Developed using modern web technologies, CNN Explainer runs locally in users' web browsers without the need for installation or specialized hardware, broadening the public's education access to modern deep learning techniques. | 翻訳日:2022-12-08 02:55:30 公開日:2020-08-28 |
# PCA-SRGAN:顔超解像に対する増分直交射影識別 PCA-SRGAN: Incremental Orthogonal Projection Discrimination for Face Super-resolution ( http://arxiv.org/abs/2005.00306v2 ) ライセンス: Link先を確認 | Hao Dou, Chen Chen, Xiyuan Hu, Zuxing Xuan, Zhisen Hu, Silong Peng | (参考訳) 顔の超高解像度化にはgan(generative adversarial network)が採用されているが、顔の細部を歪めやすく、リアルなテクスチャの回復にも弱点がある。
超解像によるGANモデルの性能向上のために,顔データのPCAプロジェクション行列に分散した直交射影空間における累積微分に着目したPCA-SRGANを提案する。
構造からディテールに至るまでの主成分投影を判別器に供給することにより、識別の難しさを大幅に軽減し、より鮮明な輪郭とより微細なテクスチャを再構築し、最終的に高い知覚と低歪みを実現するのに役立てることができる。
この漸進的な直交射影判別は、粗いものから細かいものへの正確な最適化手順を保証し、知覚正規化への依存を避ける。
我々はCelebAとFFHQの顔データセットの実験を行う。
定性的視覚効果と定量的評価は,本モデルが関連する作品よりも圧倒的な性能を示した。 Generative Adversarial Networks (GAN) have been employed for face super resolution but they bring distorted facial details easily and still have weakness on recovering realistic texture. To further improve the performance of GAN based models on super-resolving face images, we propose PCA-SRGAN which pays attention to the cumulative discrimination in the orthogonal projection space spanned by PCA projection matrix of face data. By feeding the principal component projections ranging from structure to details into the discriminator, the discrimination difficulty will be greatly alleviated and the generator can be enhanced to reconstruct clearer contour and finer texture, helpful to achieve the high perception and low distortion eventually. This incremental orthogonal projection discrimination has ensured a precise optimization procedure from coarse to fine and avoids the dependence on the perceptual regularization. We conduct experiments on CelebA and FFHQ face datasets. The qualitative visual effect and quantitative evaluation have demonstrated the overwhelming performance of our model over related works. | 翻訳日:2022-12-08 00:03:44 公開日:2020-08-28 |
# 新たなアンチフォーンモデリングを利用したL2英語音声の終端誤認識検出システム An End-to-End Mispronunciation Detection System for L2 English Speech Leveraging Novel Anti-Phone Modeling ( http://arxiv.org/abs/2005.11950v2 ) ライセンス: Link先を確認 | Bi-Cheng Yan, Meng-Che Wu, Hsiao-Tsung Hung, Berlin Chen | (参考訳) Mispronunciation Detection and diagnosis (MDD)は、コンピュータ支援発音訓練(CAPT)のコアコンポーネントである。
既存のMDDアプローチのほとんどは、カテゴリー的エラーを扱うことに重点を置いている(つまり、1つの標準電話は、削除や挿入による誤認識を除いて、別のものに置き換えられている)。
しかし,非分類的・歪的誤差 (viz) の正確な検出と診断は困難であった。
L2電話をL1(第一言語)電話で近似する、あるいはその中間の誤発音)は、まだ手が届かないように見える。
そこで我々は,新しいエンドツーエンド自動音声認識(E2E-based ASR)アプローチでMDDを実行することを提案する。
特に,元のL2電話機を対応するアンチフォンセットで拡張することにより,E2EベースのMDDアプローチは,カテゴリ的および非カテゴリ的誤認識の両方に優れた能力を有し,誤認識の検出と診断のフィードバックの向上を目的としている。
さらに,e2eベースのmddシステムの初期モデル推定を音韻規則にリソースを使わずに得るために,新しいトランスファー学習パラダイムを考案した。
L2-ARCTICデータセットにおける実験結果の集合は,F1スコアをそれぞれ11.05%,27.71%,既存のE2Eベースラインシステムと発音スコアベース手法(GOP)より優れていた。 Mispronunciation detection and diagnosis (MDD) is a core component of computer-assisted pronunciation training (CAPT). Most of the existing MDD approaches focus on dealing with categorical errors (viz. one canonical phone is substituted by another one, aside from those mispronunciations caused by deletions or insertions). However, accurate detection and diagnosis of non-categorial or distortion errors (viz. approximating L2 phones with L1 (first-language) phones, or erroneous pronunciations in between) still seems out of reach. In view of this, we propose to conduct MDD with a novel end- to-end automatic speech recognition (E2E-based ASR) approach. In particular, we expand the original L2 phone set with their corresponding anti-phone set, making the E2E-based MDD approach have a better capability to take in both categorical and non-categorial mispronunciations, aiming to provide better mispronunciation detection and diagnosis feedback. Furthermore, a novel transfer-learning paradigm is devised to obtain the initial model estimate of the E2E-based MDD system without resource to any phonological rules. Extensive sets of experimental results on the L2-ARCTIC dataset show that our best system can outperform the existing E2E baseline system and pronunciation scoring based method (GOP) in terms of the F1-score, by 11.05% and 27.71%, respectively. | 翻訳日:2022-11-29 06:23:43 公開日:2020-08-28 |
# 詩的伝統にまたがる話題進化のマッピング Mapping Topic Evolution Across Poetic Traditions ( http://arxiv.org/abs/2006.15732v2 ) ライセンス: Link先を確認 | Petr Plechac, Thomas N. Haider | (参考訳) 言語間の詩的伝統は異なる進化を遂げたが、ある意味的トピックはいくつかの言語で発生し、時には時間的遅延を伴うか、時間の経過とともに変化していく。
我々は4つの言語、すなわちドイツ語(52k詩)、英語(85k詩)、ロシア語(18k詩)、チェコ語(80k詩)の詩コーパスに潜在ディリクレ割当(lda)を適用する。
我々は、敬語的話題とその傾向(1600-1925年)を整理・解釈し、詩的伝統といくつかの選択された話題の類似点と相違点を示し、その軌跡を時間とともに使い、特定の文学的時代を識別する。 Poetic traditions across languages evolved differently, but we find that certain semantic topics occur in several of them, albeit sometimes with temporal delay, or with diverging trajectories over time. We apply Latent Dirichlet Allocation (LDA) to poetry corpora of four languages, i.e. German (52k poems), English (85k poems), Russian (18k poems), and Czech (80k poems). We align and interpret salient topics, their trend over time (1600--1925 A.D.), showing similarities and disparities across poetic traditions with a few select topics, and use their trajectories over time to pinpoint specific literary epochs. | 翻訳日:2022-11-16 01:56:15 公開日:2020-08-28 |
# ゲームレベルとゲームプレイエージェントのコジェネレーション Co-generation of game levels and game-playing agents ( http://arxiv.org/abs/2007.08497v2 ) ライセンス: Link先を確認 | Aaron Dharna, Julian Togelius, L. B. Soros | (参考訳) オープン・エンドネスは、主に人工生命の文脈で研究され、新奇性や複雑さを増大させる潜在的に有界なオントロジーを生成するシステムの能力である。
少なくともある程度の能力を示すエンジニアリング生成システムは、ゲームにおける手続き的コンテンツ生成への明確な応用の目標である。
2足歩行ドメインでのみ探索されるペア付きopen-ended trailblazer(poet)アルゴリズムは、それらを解決する環境とエージェントを同時に生成する共進化システムである。
本稿では,複数のゲームやエージェントのレベルを同時生成するPET-Inspired Neuroevolutionary System for KreativitY(PINSKY)をゲームに導入する。
このシステムは、General Video Game Artificial Intelligence(GVGAI)フレームワークを利用して、2D Atariスタイルのゲームであるゼルダとソーラーフォックスのレベルとエージェントのコジェネレーションを可能にする。
その結果、PINSKYがゲームレベルのカリキュラムを生成できることが示され、プロシージャコンテンツ生成と人工生活の交差点における研究の新たな道が開かれた。
同時に、これらの挑戦的なゲーム領域の結果は、現在のアルゴリズムの限界と改善の機会を強調している。 Open-endedness, primarily studied in the context of artificial life, is the ability of systems to generate potentially unbounded ontologies of increasing novelty and complexity. Engineering generative systems displaying at least some degree of this ability is a goal with clear applications to procedural content generation in games. The Paired Open-Ended Trailblazer (POET) algorithm, heretofore explored only in a biped walking domain, is a coevolutionary system that simultaneously generates environments and agents that can solve them. This paper introduces a POET-Inspired Neuroevolutionary System for KreativitY (PINSKY) in games, which co-generates levels for multiple video games and agents that play them. This system leverages the General Video Game Artificial Intelligence (GVGAI) framework to enable co-generation of levels and agents for the 2D Atari-style games Zelda and Solar Fox. Results demonstrate the ability of PINSKY to generate curricula of game levels, opening up a promising new avenue for research at the intersection of procedural content generation and artificial life. At the same time, results in these challenging game domains highlight the limitations of the current algorithm and opportunities for improvement. | 翻訳日:2022-11-09 22:41:05 公開日:2020-08-28 |
# SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection ( http://arxiv.org/abs/2007.11464v2 ) ライセンス: Link先を確認 | Dominik Schlechtweg, Barbara McGillivray, Simon Hengchen, Haim Dubossarsky, Nina Tahmasebi | (参考訳) レキシカル・セマンティック・チェンジ検出(Lexical Semantic Change Detection)、すなわち、時間とともに意味を変える単語を識別するタスクは、NLP、レキシコグラフィ、言語学など、非常に活発な研究領域である。
評価は現在、語彙的意味変化の検出において最も差し迫った問題であり、コミュニティに金の基準がないため、進歩を妨げている。
このギャップに対処する最初の共有タスクの結果を,研究者に評価フレームワークを提供し,英語,ドイツ語,ラテン語,スウェーデン語用に,手作業で注釈付き,高品質なデータセットを提供することで紹介する。
33チームが186のシステムを提出し、2つのサブタスクで評価した。 Lexical Semantic Change detection, i.e., the task of identifying words that change meaning over time, is a very active research area, with applications in NLP, lexicography, and linguistics. Evaluation is currently the most pressing problem in Lexical Semantic Change detection, as no gold standards are available to the community, which hinders progress. We present the results of the first shared task that addresses this gap by providing researchers with an evaluation framework and manually annotated, high-quality datasets for English, German, Latin, and Swedish. 33 teams submitted 186 systems, which were evaluated on two subtasks. | 翻訳日:2022-11-07 22:37:53 公開日:2020-08-28 |
# 音声の一貫した転写と翻訳 Consistent Transcription and Translation of Speech ( http://arxiv.org/abs/2007.12741v2 ) ライセンス: Link先を確認 | Matthias Sperber, Hendra Setiawan, Christian Gollan, Udhyakumar Nallasamy, Matthias Paulik | (参考訳) 従来の音声翻訳のパラダイムは、音声認識ステップで書き起こしを生成し、次に自動書き起こしを入力として翻訳ステップを実行する。
このパラダイムの様々な欠点に対処するために、最近の研究は、書き起こさずに翻訳できるエンドツーエンドの訓練可能な直接モデルを模索している。
しかし、書き起こしは実用アプリケーションでは必須の出力であり、しばしばユーザへの翻訳と並行して書き起こしを表示する。
我々は,この共通要件を明確化し,音声の同時書き起こしと翻訳の課題を探究する。
書き起こしと翻訳の精度は重要だが、高精度なシステムでさえ、ユーザー体験を劣化させる両方の出力の不整合に悩まされる。
従来のカスケードアプローチやエンドツーエンドモデルなど,いくつかのモデリングアプローチを比較し,一貫性を評価する手法を提案する。
直接モデルは関節転写/翻訳タスクには適していないが, 結合推論処理を特徴とするエンドツーエンドモデルは, 強い整合性を実現することができる。
さらに,一貫性を直接最適化する簡単な手法を導入し,一貫性,転写精度,翻訳精度のトレードオフを解析した。 The conventional paradigm in speech translation starts with a speech recognition step to generate transcripts, followed by a translation step with the automatic transcripts as input. To address various shortcomings of this paradigm, recent work explores end-to-end trainable direct models that translate without transcribing. However, transcripts can be an indispensable output in practical applications, which often display transcripts alongside the translations to users. We make this common requirement explicit and explore the task of jointly transcribing and translating speech. While high accuracy of transcript and translation are crucial, even highly accurate systems can suffer from inconsistencies between both outputs that degrade the user experience. We introduce a methodology to evaluate consistency and compare several modeling approaches, including the traditional cascaded approach and end-to-end models. We find that direct models are poorly suited to the joint transcription/translation task, but that end-to-end models that feature a coupled inference procedure are able to achieve strong consistency. We further introduce simple techniques for directly optimizing for consistency, and analyze the resulting trade-offs between consistency, transcription accuracy, and translation accuracy. | 翻訳日:2022-11-07 06:39:18 公開日:2020-08-28 |
# KBGN:ビジュアル対話における適応的視覚テキスト推論のための知識ブリッジグラフネットワーク KBGN: Knowledge-Bridge Graph Network for Adaptive Vision-Text Reasoning in Visual Dialogue ( http://arxiv.org/abs/2008.04858v2 ) ライセンス: Link先を確認 | Xiaoze Jiang, Siyi Du, Zengchang Qin, Yajing Sun, Jing Yu | (参考訳) ビジュアル対話は、ビジュアル(画像)とテキスト(ダイアログ履歴)の両方のコンテキストから暗黙の情報を抽出する必要がある困難なタスクである。
古典的なアプローチは、現在の質問、視覚知識、テキスト知識の統合にさらに注意を払って、相互モーダル情報間の異質な意味的ギャップを軽視している。
一方,連結操作は情報検索能力に限界があるクロスモーダル情報融合のデファクトスタンダードとなっている。
本稿では,視覚とテキストの知識間の交叉的意味関係を微粒度で橋渡しするためにグラフを用いた新しい知識橋グラフネットワーク(kbgn)モデルを提案する。
さらに、視覚対話の推論手がかりは、モーダル内実体とモーダル間ブリッジから明確に引き出すことができる。
VisDial v1.0 と VisDial-Q のデータセットによる実験結果から,我々のモデルは最先端の成果で既存モデルより優れていることが示された。 Visual dialogue is a challenging task that needs to extract implicit information from both visual (image) and textual (dialogue history) contexts. Classical approaches pay more attention to the integration of the current question, vision knowledge and text knowledge, despising the heterogeneous semantic gaps between the cross-modal information. In the meantime, the concatenation operation has become de-facto standard to the cross-modal information fusion, which has a limited ability in information retrieval. In this paper, we propose a novel Knowledge-Bridge Graph Network (KBGN) model by using graph to bridge the cross-modal semantic relations between vision and text knowledge in fine granularity, as well as retrieving required knowledge via an adaptive information selection mode. Moreover, the reasoning clues for visual dialogue can be clearly drawn from intra-modal entities and inter-modal bridges. Experimental results on VisDial v1.0 and VisDial-Q datasets demonstrate that our model outperforms existing models with state-of-the-art results. | 翻訳日:2022-10-31 11:53:18 公開日:2020-08-28 |
# Recommender システムに対する逆学習型インジェクションアタックの再検討 Revisiting Adversarially Learned Injection Attacks Against Recommender Systems ( http://arxiv.org/abs/2008.04876v2 ) ライセンス: Link先を確認 | Jiaxi Tang, Hongyi Wen, Ke Wang | (参考訳) レコメンダシステムは、現代の情報およびeコマースアプリケーションにおいて重要な役割を果たす。
レコメンデーションの妥当性と多様性の改善に研究が集中している一方で、最先端レコメンデーションモデルの潜在的なリスクは、その目的を達成するために偽のユーザーインタラクションを注入することで、悪意のあるサードパーティからの攻撃を受ける可能性がある。
本稿では,攻撃対象のモデルと潜在的に異なるが,攻撃対象のモデルと同じような特性を共有することで,攻撃対象のユーザである‘振る舞い’をローカルに学習する,逆学習型インジェクション攻撃問題を再考する。
文献上の既存の著作の多くは,(1)最適化問題を正確に解決しない,(2)攻撃に対する完全な知識を仮定する,(2)現実的な攻撃能力に対する理解が欠如している,という2つの大きな制限に苦しむことが判明した。
我々は、最適化問題としてフェイクユーザーを生成するための正確なソリューションが、はるかに大きな影響をもたらすことを実証する。
実世界のデータセットに対する我々の実験は、攻撃の伝達可能性とその制限を含む、攻撃の重要な特性を明らかにする。
これらの発見は、この既存の攻撃に対する有用な防御方法を刺激することができる。 Recommender systems play an important role in modern information and e-commerce applications. While increasing research is dedicated to improving the relevance and diversity of the recommendations, the potential risks of state-of-the-art recommendation models are under-explored, that is, these models could be subject to attacks from malicious third parties, through injecting fake user interactions to achieve their purposes. This paper revisits the adversarially-learned injection attack problem, where the injected fake user `behaviors' are learned locally by the attackers with their own model -- one that is potentially different from the model under attack, but shares similar properties to allow attack transfer. We found that most existing works in literature suffer from two major limitations: (1) they do not solve the optimization problem precisely, making the attack less harmful than it could be, (2) they assume perfect knowledge for the attack, causing the lack of understanding for realistic attack capabilities. We demonstrate that the exact solution for generating fake users as an optimization problem could lead to a much larger impact. Our experiments on a real-world dataset reveal important properties of the attack, including attack transferability and its limitations. These findings can inspire useful defensive methods against this possible existing attack. | 翻訳日:2022-10-31 11:02:35 公開日:2020-08-28 |
# BERTモデルに基づくソーシャルメディアにおけるヘイトスピーチ検出とRacial Bias緩和 Hate Speech Detection and Racial Bias Mitigation in Social Media based on BERT model ( http://arxiv.org/abs/2008.06460v2 ) ライセンス: Link先を確認 | Marzieh Mozafari, Reza Farahbakhsh, Noel Crespi | (参考訳) ヘイトフルで虐待的なコンテンツ識別タスクにおけるデータセットと訓練された分類器に関連するさまざまなバイアスは、最近多くの懸念を引き起こしている。
乱用言語検出における偏りのあるデータセットの問題は、より頻繁に対処されているが、訓練された分類器から生じる偏りは、まだ問題になっていない。
ここではまず,既存の事前学習された言語モデルbertに基づくヘイトスピーチ検出のためのトランスファー学習アプローチを紹介し,twitter上で人種差別,性差別,ヘイト,攻撃的コンテンツに注釈を付した2つの公開データセット上で提案モデルを評価する。
次に,ヘイトスピーチ検出タスクにおいて,事前学習したbertベースモデルの微調整時の学習セットにおけるバイアスの影響を軽減するバイアス緩和機構を導入する。
その目的のために,既存の正規化手法を用いてサンプルの再重み付けを行い,クラスラベルと高相関のトレーニングセットsn-gramの効果を低減し,事前学習したBERTモデルに新たな重み付けサンプルを付加する。
バイアス緩和メカニズムを評価するために、上記のデータセット上でトレーニングされた分類器を使用して、それぞれアフリカ系アメリカ人英語(AAE)と標準アメリカ英語(SAE)で書かれたツイートを示すTwitter、AAE、ホワイトアライングループの2つの新しいデータセットのラベルを予測する。
その結果、訓練された分類者の体系的な人種的偏見の存在が示され、AAEで書かれたツイートは、白人で書かれたツイートよりも、人種差別、セクシズム、憎悪、攻撃的なクラスに割り当てられる傾向がある。
しかし,分類器の人種バイアスは,偏見緩和機構が組み込まれた後に著しく減少する。
この研究は、ヘイトスピーチと乱用言語検出システムをデバイアスする第一歩を踏み出す可能性がある。 Disparate biases associated with datasets and trained classifiers in hateful and abusive content identification tasks have raised many concerns recently. Although the problem of biased datasets on abusive language detection has been addressed more frequently, biases arising from trained classifiers have not yet been a matter of concern. Here, we first introduce a transfer learning approach for hate speech detection based on an existing pre-trained language model called BERT and evaluate the proposed model on two publicly available datasets annotated for racism, sexism, hate or offensive content on Twitter. Next, we introduce a bias alleviation mechanism in hate speech detection task to mitigate the effect of bias in training set during the fine-tuning of our pre-trained BERT-based model. Toward that end, we use an existing regularization method to reweight input samples, thereby decreasing the effects of high correlated training set' s n-grams with class labels, and then fine-tune our pre-trained BERT-based model with the new re-weighted samples. To evaluate our bias alleviation mechanism, we employ a cross-domain approach in which we use the trained classifiers on the aforementioned datasets to predict the labels of two new datasets from Twitter, AAE-aligned and White-aligned groups, which indicate tweets written in African-American English (AAE) and Standard American English (SAE) respectively. The results show the existence of systematic racial bias in trained classifiers as they tend to assign tweets written in AAE from AAE-aligned group to negative classes such as racism, sexism, hate, and offensive more often than tweets written in SAE from White-aligned. However, the racial bias in our classifiers reduces significantly after our bias alleviation mechanism is incorporated. This work could institute the first step towards debiasing hate speech and abusive language detection systems. | 翻訳日:2022-10-30 17:02:43 公開日:2020-08-28 |
# 量子変分回路を用いた強化学習 Reinforcement Learning with Quantum Variational Circuits ( http://arxiv.org/abs/2008.07524v3 ) ライセンス: Link先を確認 | Owen Lockwood and Mei Si | (参考訳) 量子計算技術の発達は近年大きく進展しており、深層強化学習技術の進歩と並行している。
この研究は、強化学習問題を促進する量子コンピューティングの可能性を探るものである。
量子コンピューティングアプローチは、重ね合わせや絡み合いの量子現象を活用できるため、従来のアルゴリズムよりも時間と空間の複雑さが大幅に向上する可能性がある。
具体的には,量子機械学習の一形態である量子変分回路の利用について検討する。
量子変分回路のための古典データを符号化する手法を提示し、dqnとdouble dqnの純およびハイブリッド量子アルゴリズムをさらに検討する。
この結果から,ハイブリッド回路と純量子変動回路の両方が,より小さいパラメータ空間で強化学習タスクを解くことができることがわかった。
これらの比較は、openaiのジム環境であるcartpoleとblackjackで行われ、この研究の成功は、量子機械学習と深層強化学習の間の強力な未来関係を示している。 The development of quantum computational techniques has advanced greatly in recent years, parallel to the advancements in techniques for deep reinforcement learning. This work explores the potential for quantum computing to facilitate reinforcement learning problems. Quantum computing approaches offer important potential improvements in time and space complexity over traditional algorithms because of its ability to exploit the quantum phenomena of superposition and entanglement. Specifically, we investigate the use of quantum variational circuits, a form of quantum machine learning. We present our techniques for encoding classical data for a quantum variational circuit, we further explore pure and hybrid quantum algorithms for DQN and Double DQN. Our results indicate both hybrid and pure quantum variational circuit have the ability to solve reinforcement learning tasks with a smaller parameter space. These comparison are conducted with two OpenAI Gym environments: CartPole and Blackjack, The success of this work is indicative of a strong future relationship between quantum machine learning and deep reinforcement learning. | 翻訳日:2022-10-28 20:53:53 公開日:2020-08-28 |
# すべてを支配するために1つの重みのビットウィドス One Weight Bitwidth to Rule Them All ( http://arxiv.org/abs/2008.09916v2 ) ライセンス: Link先を確認 | Ting-Wu Chin, Pierce I-Jen Chuang, Vikas Chandra, Diana Marculescu | (参考訳) ディープコンブネットの重み量子化は画像分類やセマンティクスセグメンテーションなどのアプリケーションで有望な結果を示しており、メモリストレージが限られているアプリケーションでは特に重要である。
しかし、精度劣化のない量子化を目指す場合、異なるタスクは異なるビット幅で終わる可能性がある。
これにより、ソフトウェアとハードウェアのサポートが複雑化し、混合精度量子化を考えると複雑さが蓄積され、各層の重みが異なるビット幅を使用する。
我々の重要な洞察は、精度劣化のない最小ビット幅の最適化は必ずしも最適戦略ではないということである。
これは、モデルサイズが小さい場合、2ビット幅間の最適性を決定することができず、他方の方が精度が良いためである。
本研究では、幅乗算器を用いて同じモデルサイズに全て合わせることにより、ある重みビット幅が他より優れているかどうかを理解するための第一歩を踏み出します。
この条件下では,ネットワーク全体に対して単一ビット幅を用いることで,モデルサイズが同じ場合の精度劣化をゼロとする混合精度量子化よりも精度が向上することを示す。
特に,チャネル数が対象ハイパーパラメータとなると,ネットワーク全体の単一重みビット幅がモデル圧縮に優れた結果を示すことが示唆された。 Weight quantization for deep ConvNets has shown promising results for applications such as image classification and semantic segmentation and is especially important for applications where memory storage is limited. However, when aiming for quantization without accuracy degradation, different tasks may end up with different bitwidths. This creates complexity for software and hardware support and the complexity accumulates when one considers mixed-precision quantization, in which case each layer's weights use a different bitwidth. Our key insight is that optimizing for the least bitwidth subject to no accuracy degradation is not necessarily an optimal strategy. This is because one cannot decide optimality between two bitwidths if one has a smaller model size while the other has better accuracy. In this work, we take the first step to understand if some weight bitwidth is better than others by aligning all to the same model size using a width-multiplier. Under this setting, somewhat surprisingly, we show that using a single bitwidth for the whole network can achieve better accuracy compared to mixed-precision quantization targeting zero accuracy degradation when both have the same model size. In particular, our results suggest that when the number of channels becomes a target hyperparameter, a single weight bitwidth throughout the network shows superior results for model compression. | 翻訳日:2022-10-26 07:54:24 公開日:2020-08-28 |
# 計算創造性を示すシステムに対する量子ランダム性の影響 The Effects of Quantum Randomness on a System Exhibiting Computational Creativity ( http://arxiv.org/abs/2008.11545v2 ) ライセンス: Link先を確認 | Azlan Iqbal | (参考訳) 本研究では,計算の創造性を示すシステムにおいて,擬似ランダム数とは対照的に,量子数や「真」ランダム数を用いることの効果について実験を行った。
その結果, 生成過程における量子乱数の利用は, 生成する出力に正の効果をもたらさないことが明らかとなった。
興味深いことに、統計的外れ値が少なくなる時間の15%の量子乱数を使用する「スイートスポット」が存在する。
全体としては、そのようなシステムで量子乱数を使うことには少しの利点があるかもしれないし、計算の創造性を示す他のシステムにも当てはまるかもしれない。
しかし、それを行う利点は、量子乱数を得るオーバーヘッドに対して、組み込むのがより都合のよい擬似ランダム数生成器とは対照的に、考慮すべきである。 We present experimental results on the effects of using quantum or 'truly' random numbers, as opposed to pseudorandom numbers, in a system that exhibits computational creativity (given its ability to compose original chess problems). The results indicate that using quantum random numbers too often or too seldom in the composing process does not have any positive effect on the output generated. Interestingly, there is a 'sweet spot' of using quantum random numbers 15% of the time that results in fewer statistical outliers. Overall, it would appear that there may indeed be a slight advantage to using quantum random numbers in such a system and this may also be true in other systems that exhibit computational creativity. The benefits of doing so should, however, be weighed against the overhead of obtaining quantum random numbers in contrast to a pseudorandom number generator that is likely more convenient to incorporate. | 翻訳日:2022-10-26 07:36:24 公開日:2020-08-28 |
# PermuteAttack: マシンラーニングクレジットカードの非現実的説明 PermuteAttack: Counterfactual Explanation of Machine Learning Credit Scorecards ( http://arxiv.org/abs/2008.10138v2 ) ライセンス: Link先を確認 | Masoud Hashemi, Ali Fathi | (参考訳) 本稿では、金融における小売クレジットスコアリングに使用される機械学習(ML)モデルの検証と説明のための新しい方向性と方法論について述べる。
提案するフレームワークは,機械学習アルゴリズムの性能を圧倒的な複雑性に直面した証明の必要性が,従来のモデルアーキテクチャ選択や感度分析,ストレステストといった概念を再考する必要性を生じさせる,人工知能(AI)のセキュリティと敵MLの分野からモチベーションを引き出す。
我々の見解では、AIセキュリティドメインから切り離された場合の敵の摂動現象は純粋にアルゴリズム的なルーツを持ち、モデルリスク評価の範囲内にある。
本稿では,表データに対する反事実例に基づくモデル批判と説明の枠組みを提案する。
この文脈におけるあるインスタンスに対する反実例は、モデルによって異なる処理を行う推定データ分布からサンプリングされた合成生成されたデータポイントとして定義される。
反事実的な例は、モデルの振る舞いに関するブラックボックスのインスタンスレベルの説明と、モデルパフォーマンスが低下する入力空間の領域の研究に使うことができる。
逆例生成アルゴリズムは画像および自然言語処理(NLP)領域で広く研究されている。
しかし、ほとんどの財務データは表形式で作成され、このクラスのデータセットに既存の技術を適用して非現実的なサンプルを生成する。
本稿では,離散変数とカテゴリ変数を含む表データを扱うことができる実例生成手法を提案する。
提案手法は遺伝的アルゴリズムに基づく勾配なし最適化を用い,任意の分類モデルに適用できる。 This paper is a note on new directions and methodologies for validation and explanation of Machine Learning (ML) models employed for retail credit scoring in finance. Our proposed framework draws motivation from the field of Artificial Intelligence (AI) security and adversarial ML where the need for certifying the performance of the ML algorithms in the face of their overwhelming complexity poses a need for rethinking the traditional notions of model architecture selection, sensitivity analysis and stress testing. Our point of view is that the phenomenon of adversarial perturbations when detached from the AI security domain, has purely algorithmic roots and fall within the scope of model risk assessment. We propose a model criticism and explanation framework based on adversarially generated counterfactual examples for tabular data. A counterfactual example to a given instance in this context is defined as a synthetically generated data point sampled from the estimated data distribution which is treated differently by a model. The counterfactual examples can be used to provide a black-box instance-level explanation of the model behaviour as well as studying the regions in the input space where the model performance deteriorates. Adversarial example generating algorithms are extensively studied in the image and natural language processing (NLP) domains. However, most financial data come in tabular format and naive application of the existing techniques on this class of datasets generates unrealistic samples. In this paper, we propose a counterfactual example generation method capable of handling tabular data including discrete and categorical variables. Our proposed algorithm uses a gradient-free optimization based on genetic algorithms and therefore is applicable to any classification model. | 翻訳日:2022-10-25 09:06:05 公開日:2020-08-28 |
# apmsqueeze:adam-preconditioned momentum sgdアルゴリズム APMSqueeze: A Communication Efficient Adam-Preconditioned Momentum SGD Algorithm ( http://arxiv.org/abs/2008.11343v2 ) ライセンス: Link先を確認 | Hanlin Tang, Shaoduo Gan, Samyam Rajbhandari, Xiangru Lian, Ji Liu, Yuxiong He, Ce Zhang | (参考訳) AdamはBERTやImageNetといった多くの重要なタスクをトレーニングするための効率性と精度を保証する重要な最適化アルゴリズムである。
しかし、Adamは一般に情報圧縮技術とは互換性がない。
したがって、通信は通常Adamの並列化のボトルネックとなる。
本稿では, 勾配を圧縮する誤差補償法を用いて, 通信効率のよい {\bf A}DAM {\bf p} 条件付き SGD アルゴリズム-APMSqueeze- を提案する。
提案アルゴリズムは,エポックスの観点からAdamと同様の収束効率を実現するが,エポック毎の実行時間を著しく短縮する。
エンドツーエンドのパフォーマンス(フル精度のプレコンディションステップを含む)に関して、APMSqueezeは、ネットワーク帯域幅に応じて最大2-10\times$スピードアップを提供することができる。
また,収束と効率に関する理論的解析も行う。 Adam is the important optimization algorithm to guarantee efficiency and accuracy for training many important tasks such as BERT and ImageNet. However, Adam is generally not compatible with information (gradient) compression technology. Therefore, the communication usually becomes the bottleneck for parallelizing Adam. In this paper, we propose a communication efficient {\bf A}DAM {\bf p}reconditioned {\bf M}omentum SGD algorithm-- named APMSqueeze-- through an error compensated method compressing gradients. The proposed algorithm achieves a similar convergence efficiency to Adam in term of epochs, but significantly reduces the running time per epoch. In terms of end-to-end performance (including the full-precision pre-condition step), APMSqueeze is able to provide {sometimes by up to $2-10\times$ speed-up depending on network bandwidth.} We also conduct theoretical analysis on the convergence and efficiency. | 翻訳日:2022-10-24 21:20:39 公開日:2020-08-28 |
# 一般ユーザへのマシン生成解釈はどの程度有用か?
誤予測ラベルの誘導に関する人間による評価 How Useful Are the Machine-Generated Interpretations to General Users? A Human Evaluation on Guessing the Incorrectly Predicted Labels ( http://arxiv.org/abs/2008.11721v2 ) ライセンス: Link先を確認 | Hua Shen and Ting-Hao Kenneth Huang | (参考訳) 自動化システムがミスを犯す理由をユーザに説明することは重要で難しい。
研究者はディープニューラルネットワークモデルの解釈を自動的に生成する方法を提案している。
しかし、これらの解釈が、ユーザーがなぜエラーを犯しているのかを理解するのに役立つかどうかは不明だ。
もし解釈が、基盤となるディープニューラルネットワークモデルがどのように機能するかをユーザに効果的に説明すれば、解釈を提示された人々は、そうでない者よりもモデルのアウトプットを予測するのがよいはずだ。
本稿では,画像分類器が生成した誤予測ラベルの理解を支援するために,機械による視覚的解釈を示すか否かについて検討する。
我々は、画像と正しいラベルを150人のオンラインクラウドワーカーに提示し、不正に予測されたラベルを機械生成の視覚的解釈を示さずに選択するよう依頼した。
その結果、視覚的解釈の表示は増加せず、むしろ減少し、平均推定精度はおよそ10%向上した。 Explaining to users why automated systems make certain mistakes is important and challenging. Researchers have proposed ways to automatically produce interpretations for deep neural network models. However, it is unclear how useful these interpretations are in helping users figure out why they are getting an error. If an interpretation effectively explains to users how the underlying deep neural network model works, people who were presented with the interpretation should be better at predicting the model's outputs than those who were not. This paper presents an investigation on whether or not showing machine-generated visual interpretations helps users understand the incorrectly predicted labels produced by image classifiers. We showed the images and the correct labels to 150 online crowd workers and asked them to select the incorrectly predicted labels with or without showing them the machine-generated visual interpretations. The results demonstrated that displaying the visual interpretations did not increase, but rather decreased, the average guessing accuracy by roughly 10%. | 翻訳日:2022-10-24 20:44:33 公開日:2020-08-28 |
# 拡張現実・混合・仮想現実の自然・環境への応用に関する調査研究 A survey on applications of augmented, mixed and virtual reality for nature and environment ( http://arxiv.org/abs/2008.12024v2 ) ライセンス: Link先を確認 | Jason Rambach, Gergana Lilligreen, Alexander Sch\"afer, Ramya Bankanal, Alexander Wiebel, Didier Stricker | (参考訳) 拡張現実(AR)、仮想現実(VR)、複合現実(MR)は、彼らが提供できるエンゲージメントとエンリッチな体験のために、大きな潜在能力を持つ技術である。
医療、製造業、エンターテイメントなどの多種多様な分野での利用が急速に増加している。
しかし、ar、vr、mrが環境応用の分野で提供する可能性はまだ広く検討されていない。
本稿では,環境に有利なAR/VR/MRアプリケーションを発見・分類したり,環境問題に対する意識を高めるための調査の結果を示す。
我々は、いくつかのオンラインパブリッシュアクセスプラットフォームを徹底的に検索し、AR/VR/MR分野の主要なカンファレンスの過去の手続きを行った。
識別された関連論文は、新規性、技術的健全性、影響およびトピック関連性に基づいてフィルタリングされ、異なるカテゴリに分類された。
選択した論文を参考に,各カテゴリーの応用が環境保護,保全,感性化にどのように貢献しているかを論じる。
さらに、既存のAR/VR/MRの実現技術の範囲内で、これらのアプローチと将来の方向性について分析する。 Augmented reality (AR), virtual reality (VR) and mixed reality (MR) are technologies of great potential due to the engaging and enriching experiences they are capable of providing. Their use is rapidly increasing in diverse fields such as medicine, manufacturing or entertainment. However, the possibilities that AR, VR and MR offer in the area of environmental applications are not yet widely explored. In this paper we present the outcome of a survey meant to discover and classify existing AR/VR/MR applications that can benefit the environment or increase awareness on environmental issues. We performed an exhaustive search over several online publication access platforms and past proceedings of major conferences in the fields of AR/VR/MR. Identified relevant papers were filtered based on novelty, technical soundness, impact and topic relevance, and classified into different categories. Referring to the selected papers, we discuss how the applications of each category are contributing to environmental protection, preservation and sensitization purposes. We further analyse these approaches as well as possible future directions in the scope of existing and upcoming AR/VR/MR enabling technologies. | 翻訳日:2022-10-24 08:46:51 公開日:2020-08-28 |
# eコマースにおけるレビュー駆動質問応答のための意見認識型回答生成 Opinion-aware Answer Generation for Review-driven Question Answering in E-Commerce ( http://arxiv.org/abs/2008.11972v2 ) ライセンス: Link先を確認 | Yang Deng, Wenxuan Zhang, Wai Lam | (参考訳) 製品関連質問応答(QA)は、Eコマースにおいて重要であるが難しい課題である。
これは、さまざまな製品レビューに基づいたユーザ投稿された質問に対する即時応答の提供を目的とした、自動レビュー駆動のQAに対する大きな需要につながります。
それにもかかわらず、製品レビューにおける個人的意見に関する豊富な情報は、これらの製品固有の疑問に答えるために不可欠であり、現在の世代ベースのレビュー駆動QA研究では利用されていない。
意見認識型回答生成を促進するために、レビューから意見情報を利用する場合、主な課題が2つある。
(i)質問とレビューの間の意見・相互関連情報を共同でモデル化し、回答生成のための重要な情報を取得すること。
(ii)与えられた質問に対する共通の意見を明らかにするために、多様な意見情報を集約すること。
本稿では,一貫したモデルで回答生成と意見マイニングタスクを共同で学習することで,意見認識型回答生成に取り組む。
意見マイニングタスクから得られた重要な意見情報を,回答生成プロセスに抽出・集約する2種類の意見融合戦略,すなわち静的および動的融合を提案する。
次に、製品関連質問に対する意見認識回答を生成するために、多視点ポインター生成ネットワークを用いる。
実験の結果,実世界のEコマースQAデータセットにおいて,本手法が優れた性能を達成し,意見と情報に富んだ回答を効果的に生成できることが示唆された。 Product-related question answering (QA) is an important but challenging task in E-Commerce. It leads to a great demand on automatic review-driven QA, which aims at providing instant responses towards user-posted questions based on diverse product reviews. Nevertheless, the rich information about personal opinions in product reviews, which is essential to answer those product-specific questions, is underutilized in current generation-based review-driven QA studies. There are two main challenges when exploiting the opinion information from the reviews to facilitate the opinion-aware answer generation: (i) jointly modeling opinionated and interrelated information between the question and reviews to capture important information for answer generation, (ii) aggregating diverse opinion information to uncover the common opinion towards the given question. In this paper, we tackle opinion-aware answer generation by jointly learning answer generation and opinion mining tasks with a unified model. Two kinds of opinion fusion strategies, namely, static and dynamic fusion, are proposed to distill and aggregate important opinion information learned from the opinion mining task into the answer generation process. Then a multi-view pointer-generator network is employed to generate opinion-aware answers for a given product-related question. Experimental results show that our method achieves superior performance in real-world E-Commerce QA datasets, and effectively generate opinionated and informative answers. | 翻訳日:2022-10-24 08:10:11 公開日:2020-08-28 |
# 連携学習における協調フェアネス Collaborative Fairness in Federated Learning ( http://arxiv.org/abs/2008.12161v2 ) ライセンス: Link先を確認 | Lingjuan Lyu, Xinyi Xu, and Qian Wang | (参考訳) 現在のディープラーニングパラダイムでは、ローカルトレーニングやスタンドアローンフレームワークが過剰フィッティングを招き、汎用性が低下する傾向がある。
この問題は、パラメータサーバを利用して個々の参加者からモデル更新を集約する分散学習(FL)によって解決できる。
しかしながら、既存のDistributedあるいはFLフレームワークのほとんどは、参加の重要な側面であるコラボレーティブフェアネスを見落としている。
特に、すべての参加者は、貢献に関係なく、同じまたは類似のモデルを受け取ることができる。
この問題に対処するため,FLにおける協調的公正性について検討し,評価を利用して参加者に異なるモデルに収束させ,予測性能を損なうことなく公正性を実現する新しい協調的公正学習(CFFL)フレームワークを提案する。
ベンチマークデータセットに関する大規模な実験は、CFFLが高い公正性を達成し、分散フレームワークに匹敵する精度を提供し、Standaloneフレームワークを上回っていることを示している。 In current deep learning paradigms, local training or the Standalone framework tends to result in overfitting and thus poor generalizability. This problem can be addressed by Distributed or Federated Learning (FL) that leverages a parameter server to aggregate model updates from individual participants. However, most existing Distributed or FL frameworks have overlooked an important aspect of participation: collaborative fairness. In particular, all participants can receive the same or similar models, regardless of their contributions. To address this issue, we investigate the collaborative fairness in FL, and propose a novel Collaborative Fair Federated Learning (CFFL) framework which utilizes reputation to enforce participants to converge to different models, thus achieving fairness without compromising the predictive performance. Extensive experiments on benchmark datasets demonstrate that CFFL achieves high fairness, delivers comparable accuracy to the Distributed framework, and outperforms the Standalone framework. | 翻訳日:2022-10-24 07:25:02 公開日:2020-08-28 |
# Learn2learn: メタ学習研究のためのライブラリ learn2learn: A Library for Meta-Learning Research ( http://arxiv.org/abs/2008.12284v2 ) ライセンス: Link先を確認 | S\'ebastien M. R. Arnold, Praateek Mahajan, Debajyoti Datta, Ian Bunner, Konstantinos Saitas Zarkias | (参考訳) メタラーニング研究者は経験的作業において、プロトタイピングと再現性という2つの根本的な問題に直面している。
現代のメタ学習手法は、機械学習フレームワークの非伝統的な機能に依存しているため、研究者たちは新しいアルゴリズムやタスクのプロトタイピングで間違いを犯しやすい。
結果として、既存の結果の再現は退屈な努力となり、標準化された実装とベンチマークの欠如によって悪化する状況になる。
その結果、研究者は新しいアイデアを理解し開発するのではなく、ソフトウェアの実装に多くの時間を費やした。
この原稿は、プロトタイピングと再現性の問題を解決することに焦点を当てたメタラーニング研究のためのライブラリであるLearner2learnを紹介する。
learn2learnは、幅広いメタラーニング技術(メタディフレッシュ、メタ強化学習、数ショット学習など)に共通する低レベルのルーチンを提供し、その上にアルゴリズムとベンチマークの標準化されたインターフェースを構築する。
learn2learnを無償かつオープンソースライセンスでリリースすることで、メタ学習研究のための標準化されたソフトウェアに関するコミュニティを育成したいと思っています。 Meta-learning researchers face two fundamental issues in their empirical work: prototyping and reproducibility. Researchers are prone to make mistakes when prototyping new algorithms and tasks because modern meta-learning methods rely on unconventional functionalities of machine learning frameworks. In turn, reproducing existing results becomes a tedious endeavour -- a situation exacerbated by the lack of standardized implementations and benchmarks. As a result, researchers spend inordinate amounts of time on implementing software rather than understanding and developing new ideas. This manuscript introduces learn2learn, a library for meta-learning research focused on solving those prototyping and reproducibility issues. learn2learn provides low-level routines common across a wide-range of meta-learning techniques (e.g. meta-descent, meta-reinforcement learning, few-shot learning), and builds standardized interfaces to algorithms and benchmarks on top of them. In releasing learn2learn under a free and open source license, we hope to foster a community around standardized software for meta-learning research. | 翻訳日:2022-10-24 07:10:35 公開日:2020-08-28 |
# url埋め込みに基づくディスプレイ広告における変換予測 Predicting conversions in display advertising based on URL embeddings ( http://arxiv.org/abs/2008.12003v2 ) ライセンス: Link先を確認 | Yang Qiu, Nikolaos Tziortziotis, Martial Hue, Michalis Vazirgiannis | (参考訳) オンラインディスプレイ広告は、広告購入プロセスの自動化により、近年急速に成長している。
リアルタイム入札(rtb)は、広告主とパブリッシャー間の広告インプレッションのリアルタイムオークションによる自動取引を可能にする。
キャンペーンの有効性を高めるため、広告主は近い将来、変換される可能性の高いユーザー(購入、登録、ウェブサイト訪問など)に広告を配信する必要がある。
本研究では,訪問urlの履歴を考慮に入れて,ユーザ変換の確率を推定するための異なるモデルを紹介し,検討する。
自然言語処理にヒントを得て,意味的に意味のあるURL表現を計算するために,3つのURL埋め込みモデルを導入する。
提案した表現モデルと変換予測モデルの有効性を示すため,広告プラットフォームから収集した実ログイベントについて実験を行った。 Online display advertising is growing rapidly in recent years thanks to the automation of the ad buying process. Real-time bidding (RTB) allows the automated trading of ad impressions between advertisers and publishers through real-time auctions. In order to increase the effectiveness of their campaigns, advertisers should deliver ads to the users who are highly likely to be converted (i.e., purchase, registration, website visit, etc.) in the near future. In this study, we introduce and examine different models for estimating the probability of a user converting, given their history of visited URLs. Inspired by natural language processing, we introduce three URL embedding models to compute semantically meaningful URL representations. To demonstrate the effectiveness of the different proposed representation and conversion prediction models, we have conducted experiments on real logged events collected from an advertising platform. | 翻訳日:2022-10-24 07:00:13 公開日:2020-08-28 |
# Denoising Convolutional Autoencoders を用いたPCB欠陥検出 PCB Defect Detection Using Denoising Convolutional Autoencoders ( http://arxiv.org/abs/2008.12589v1 ) ライセンス: Link先を確認 | Saeed Khalilian, Yeganeh Hallaj, Arian Balouchestani, Hossein Karshenas, Amir Mohammadi | (参考訳) プリント回路基板(pcb)は電子製品製造において最も重要な段階の一つである。
PCBの小さな欠陥は最終製品に重大な欠陥を引き起こす可能性がある。
したがって、PCBのすべての欠陥を検出し、それらを見つけることが不可欠である。
本稿では,不良pcbの検出と欠陥の同定のための畳み込みオートエンコーダのデノイジングに基づく手法を提案する。
denoising autoencoderは、腐敗した画像を撮り、無傷の画像を復元しようとする。
私たちは、欠陥PCBでモデルをトレーニングし、欠陥部分の修復を強制しました。
私たちのモデルは、あらゆる種類の欠陥を検出して発見するだけでなく、修復することもできます。
入力から修理された出力を減じることで、欠陥部が配置される。
実験結果から,本モデルが不良pcbを高い精度(97.5%)で検出できることが判明した。 Printed Circuit boards (PCBs) are one of the most important stages in making electronic products. A small defect in PCBs can cause significant flaws in the final product. Hence, detecting all defects in PCBs and locating them is essential. In this paper, we propose an approach based on denoising convolutional autoencoders for detecting defective PCBs and to locate the defects. Denoising autoencoders take a corrupted image and try to recover the intact image. We trained our model with defective PCBs and forced it to repair the defective parts. Our model not only detects all kinds of defects and locates them, but it can also repair them as well. By subtracting the repaired output from the input, the defective parts are located. The experimental results indicate that our model detects the defective PCBs with high accuracy (97.5%) compare to state of the art works. | 翻訳日:2022-10-24 02:42:14 公開日:2020-08-28 |
# 回転における従来の周波数・時間領域特徴の伝達学習について On Transfer Learning of Traditional Frequency and Time Domain Features in Turning ( http://arxiv.org/abs/2008.12691v1 ) ライセンス: Link先を確認 | Melih C. Yesilli, Firas A. Khasawneh | (参考訳) 個別の製造プロセスにおけるおしゃべり予測と診断に機械学習ツールを活用することへの関心が高まっている。
チャットタを研究する上で最も一般的な機能は、Fast Fourier Transform (FFT)、Power Spectral Density (PSD)、Auto-correlation Function (ACF)といった従来の信号処理ツールである。
本研究では,これらのツールを教師付き学習環境に使用して,回転実験から得られた加速度計信号のチャタを同定する。
切削速度と切削深さの異なる4種類のツールオーバーハング長を用いて実験を行った。
そして、結果の信号を調べ、それをチャットターかチャットターフリーかのどちらかにタグ付けします。
タグ付き信号は、分類器の訓練に使用される。
分類法としては、SVM(Support Vector Machine)、LR(Logistic Regression)、RF(Random Forest)、GB(Gradient Boost)などがある。
その結果、フーリエスペクトルから抽出された特徴は、分類器を訓練し、同じ切断構成からデータをテストする際に最も有益であり、精度は最大で %96 であることがわかった。
しかし、異なる構造固有周波数を持つ2つの異なる構成のトレーニングとテストを行うと、精度は大幅に低下する。
したがって、これらの伝統的な特徴は特定のプロセスに高度に調整できるが、伝達学習能力は限られている。
また,本研究の結果を,Wavelet Packet Transform (WPT) とEnsemble Empirical Mode Decomposition (EEMD) の2つの手法と比較した。
後者の2つの手法、特にEEMDは、我々のデータセットに対してより良い転送学習能力を示す。 There has been an increasing interest in leveraging machine learning tools for chatter prediction and diagnosis in discrete manufacturing processes. Some of the most common features for studying chatter include traditional signal processing tools such as Fast Fourier Transform (FFT), Power Spectral Density (PSD), and the Auto-correlation Function (ACF). In this study, we use these tools in a supervised learning setting to identify chatter in accelerometer signals obtained from a turning experiment. The experiment is performed using four different tool overhang lengths with varying cutting speed and the depth of cut. We then examine the resulting signals and tag them as either chatter or chatter-free. The tagged signals are then used to train a classifier. The classification methods include the most common algorithms: Support Vector Machine (SVM), Logistic Regression (LR), Random Forest (RF), and Gradient Boost (GB). Our results show that features extracted from the Fourier spectrum are the most informative when training a classifier and testing on data from the same cutting configuration yielding accuracy as high as %96. However, the accuracy drops significantly when training and testing on two different configurations with different structural eigenfrequencies. Thus, we conclude that while these traditional features can be highly tuned to a certain process, their transfer learning ability is limited. We also compare our results against two other methods with rising popularity in the literature: Wavelet Packet Transform (WPT) and Ensemble Empirical Mode Decomposition (EEMD). The latter two methods, especially EEMD, show better transfer learning capabilities for our dataset. | 翻訳日:2022-10-24 02:42:04 公開日:2020-08-28 |
# PreMIER:電子カルテからの医療予感に対するパーソナライズされた勧告 PREMIER: Personalized REcommendation for Medical prescrIptions from Electronic Records ( http://arxiv.org/abs/2008.13569v1 ) ライセンス: Link先を確認 | Suman Bhoi, Lee Mong Li, Wynne Hsu | (参考訳) 電子健康記録(Electronic Health Records, EHR)が広く採用され、患者の歴史、診断、処方薬、検査に膨大な量のデータが蓄積されている。
推奨技術の進歩は、医師が処方薬をパーソナライズするのにこの情報を利用する可能性がある。
そこで本研究では,eprの情報を取り入れた2段階の注意に基づくパーソナライズド医薬品推薦システムpremierを設計した。
本システムでは,患者に対する副作用を最小限に抑えるために,薬物間の相互作用を考慮に入れる。
本システムでは,様々な注意重みを活用し,推奨薬に関する情報源からの貢献度を算出した。
mimic-iiiとプロプライエタリな外来データセットによる実験の結果、premierは、精度と薬物-薬物相互作用の最良のトレードオフを達成しつつ、最先端の医薬品推奨システムよりも優れています。
また,premier が提供した正当性が臨床実践に適していることを示す2つのケーススタディも提示された。 The broad adoption of Electronic Health Records (EHR) has led to vast amounts of data being accumulated on a patient's history, diagnosis, prescriptions, and lab tests. Advances in recommender technologies have the potential to utilize this information to help doctors personalize the prescribed medications. In this work, we design a two-stage attention-based personalized medication recommender system called PREMIER which incorporates information from the EHR to suggest a set of medications. Our system takes into account the interactions among drugs in order to minimize the adverse effects for the patient. We utilize the various attention weights in the system to compute the contributions from the information sources for the recommended medications. Experiment results on MIMIC-III and a proprietary outpatient dataset show that PREMIER outperforms state-of-the-art medication recommendation systems while achieving the best tradeoff between accuracy and drug-drug interaction. Two case studies are also presented demonstrating that the justifications provided by PREMIER are appropriate and aligned to clinical practices. | 翻訳日:2022-10-24 02:41:27 公開日:2020-08-28 |
# 話題、感情、影響分析:ソーシャルメディア上でのcovid-19情報検索 Topic, Sentiment and Impact Analysis: COVID19 Information Seeking on Social Media ( http://arxiv.org/abs/2008.12435v1 ) ライセンス: Link先を確認 | Md Abul Bashar, Richi Nayak, Thirunavukarasu Balasubramaniam | (参考訳) 人々が異常なことに気づくと、ソーシャルメディアでそれを議論する。
彼らは感情の痕跡をテキスト表現で残している。
時間と空間にわたるソーシャルメディアデータの体系的な収集、分析、解釈は、局所的なアウトブレイク、メンタルヘルス、社会問題に関する洞察を与える。
このようなタイムリーな洞察は、適切な効率的なレスポンスで戦略やリソースを開発するのに役立ちます。
この研究は、COVID19に関連するオーストラリアの球面の大規模な時空間ツイートデータセットを分析した。
この手法にはボリューム分析、ダイナミックトピックモデリング、感情検出、セマンティックブランドスコアが含まれており、covid-19パンデミックの流行や、オーストラリア各州や都市での公的な議論についての洞察を得ることができた。
得られた知見は、政府報告事例のような独立に観察された現象と比較される。 When people notice something unusual, they discuss it on social media. They leave traces of their emotions via text expressions. A systematic collection, analysis, and interpretation of social media data across time and space can give insights on local outbreaks, mental health, and social issues. Such timely insights can help in developing strategies and resources with an appropriate and efficient response. This study analysed a large Spatio-temporal tweet dataset of the Australian sphere related to COVID19. The methodology included a volume analysis, dynamic topic modelling, sentiment detection, and semantic brand score to obtain an insight on the COVID19 pandemic outbreak and public discussion in different states and cities of Australia over time. The obtained insights are compared with independently observed phenomena such as government reported instances. | 翻訳日:2022-10-24 02:41:06 公開日:2020-08-28 |
# 変異がタンパク質結合親和性に及ぼす影響をモデル化するためのグラフニューラルネットワークの事前学習 Pre-training of Graph Neural Network for Modeling Effects of Mutations on Protein-Protein Binding Affinity ( http://arxiv.org/abs/2008.12473v1 ) ライセンス: Link先を確認 | Xianggen Liu, Yunan Luo, Sen Song and Jian Peng | (参考訳) 変異が結合親和性に与える影響をモデル化することは、タンパク質工学と薬物設計において重要な役割を果たす。
本研究では,グラフニューラルネットワーク(GNN)が提供する特徴に基づいて,突然変異に対する結合親和性の変化を予測するための,グラフPPIという新しいディープラーニングベースのフレームワークを開発する。
特にgraphppiは、gnnに教師なしの方法で結合親和性に対する突然変異の影響を予測させる特徴を捉えるよう強制するために、よく設計された事前学習スキームを採用し、これらのグラフィカルな特徴を勾配ブーストツリーと統合して予測を行う。
実験の結果、注釈付き信号がなければ、GraphPPIはタンパク質構造の有意義なパターンを捉えることができることがわかった。
また、GraphPPIは5つのベンチマークデータセット上のシングルポイントとマルチポイントの突然変異に対するバインディング親和性の変化を予測することで、最先端のパフォーマンスを新たに達成した。
さらに詳細な分析により、変異がsars-cov-2とその中和抗体の結合親和性に及ぼす影響を正確に推定できることを示した。
これらの結果は、タンパク質設計の研究において、強力で有用な計算ツールとしてGraphPPIを確立した。 Modeling the effects of mutations on the binding affinity plays a crucial role in protein engineering and drug design. In this study, we develop a novel deep learning based framework, named GraphPPI, to predict the binding affinity changes upon mutations based on the features provided by a graph neural network (GNN). In particular, GraphPPI first employs a well-designed pre-training scheme to enforce the GNN to capture the features that are predictive of the effects of mutations on binding affinity in an unsupervised manner and then integrates these graphical features with gradient-boosting trees to perform the prediction. Experiments showed that, without any annotated signals, GraphPPI can capture meaningful patterns of the protein structures. Also, GraphPPI achieved new state-of-the-art performance in predicting the binding affinity changes upon both single- and multi-point mutations on five benchmark datasets. In-depth analyses also showed GraphPPI can accurately estimate the effects of mutations on the binding affinity between SARS-CoV-2 and its neutralizing antibodies. These results have established GraphPPI as a powerful and useful computational tool in the studies of protein design. | 翻訳日:2022-10-24 02:40:53 公開日:2020-08-28 |
# 探索・救助のための協調型多ロボットシステム:協調と知覚 Collaborative Multi-Robot Systems for Search and Rescue: Coordination and Perception ( http://arxiv.org/abs/2008.12610v1 ) ライセンス: Link先を確認 | Jorge Pe\~na Queralta, Jussi Taipalmaa, Bilge Can Pullinen, Victor Kathan Sarker, Tuan Nguyen Gia, Hannu Tenhunen, Moncef Gabbouj, Jenni Raitoharju, Tomi Westerlund | (参考訳) 近年、自律的または遠隔操作型ロボットは、民間応用においてますます重要な役割を担っている。
ロボットが人間のオペレーターを支援できる異なるシビルドメイン全体において、より影響力を持つことができる領域の1つは、捜索救助(SAR)活動である。
特に、マルチロボットシステムは、犠牲者の迅速な探索、環境の初期評価とマッピング、SAR運用のリアルタイム監視と監視、緊急通信ネットワークの確立などにより、SAR職員の効率を大幅に向上させる可能性がある。
SAR操作は様々な環境や状況を含むため、異質で協調的なマルチロボットシステムが最も有利である。
本稿では,ロボット同士の協調を可能にする手法と,マシンビジョンとマルチエージェントアクティブな知覚による高度な認識に着目し,アルゴリズムの観点から,既存のマルチロボットSARサポートのアプローチをレビューし,分析する。
さらに、これらのアルゴリズムは、さまざまな種類のロボット(地上、空中、地表、水中)が異なるSAR環境(海洋、都市、荒野、その他の災害後のシナリオ)で遭遇する様々な課題と制約の文脈に置かれる。
これは私たちの知る限りでは、異なる環境にまたがる異種sarロボットについての最初のレビューであり、制御機構と機械知覚という2つの補足的な視点を与えている。
我々は,最先端技術に関するレビューに基づいて,オープンリサーチの主要な課題を議論し,マルチロボットsarシステムの実世界性能を向上させる可能性を持つ現在のアプローチに関する知見を概説する。 Autonomous or teleoperated robots have been playing increasingly important roles in civil applications in recent years. Across the different civil domains where robots can support human operators, one of the areas where they can have more impact is in search and rescue (SAR) operations. In particular, multi-robot systems have the potential to significantly improve the efficiency of SAR personnel with faster search of victims, initial assessment and mapping of the environment, real-time monitoring and surveillance of SAR operations, or establishing emergency communication networks, among other possibilities. SAR operations encompass a wide variety of environments and situations, and therefore heterogeneous and collaborative multi-robot systems can provide the most advantages. In this paper, we review and analyze the existing approaches to multi-robot SAR support, from an algorithmic perspective and putting an emphasis on the methods enabling collaboration among the robots as well as advanced perception through machine vision and multi-agent active perception. Furthermore, we put these algorithms in the context of the different challenges and constraints that various types of robots (ground, aerial, surface or underwater) encounter in different SAR environments (maritime, urban, wilderness or other post-disaster scenarios). This is, to the best of our knowledge, the first review considering heterogeneous SAR robots across different environments, while giving two complimentary points of view: control mechanisms and machine perception. Based on our review of the state-of-the-art, we discuss the main open research questions, and outline our insights on the current approaches that have potential to improve the real-world performance of multi-robot SAR systems. | 翻訳日:2022-10-24 02:40:32 公開日:2020-08-28 |
# グラフ正規化テンソル補完のための交互最小化アルゴリズム Alternating minimization algorithms for graph regularized tensor completion ( http://arxiv.org/abs/2008.12876v1 ) ライセンス: Link先を確認 | Yu Guan, Shuyu Dong, P.-A. Absil, Fran\c{c}ois Glineur | (参考訳) 不完全な観測からテンソルを回復することを目的とした低ランクテンソル完備化(LRTC)問題を考える。
LRTCは信号処理、コンピュータビジョン、機械学習、神経科学など多くの応用において重要な役割を果たしている。
広く使われているアプローチは、テンソルの多重線型階数の凸緩和に基づくテンソル完備化データフィッティング項と正則化器とを組み合わせることである。
データフィッティング関数に対しては、カノニカル・ポリアディクス(CP)分解を用いてテンソル変数をモデル化し、低ランク促進正規化関数に対しては、行列展開の行間の相関を利用するグラフラプラシア関数を考える。
lrtcモデルを解くために,効率的な交互最小化アルゴリズムを提案する。
さらに、Kurdyka-{\L}ojasiewicz特性に基づいて、提案アルゴリズムによって生成されたシーケンスが、対象関数の臨界点にグローバルに収束することを示す。
また、LRTCモデルに対しても乗算器アルゴリズムの交互方向法を開発した。
合成データと実データに関する広範な数値実験は,提案手法が効率的かつ効率的であることを示す。 We consider a low-rank tensor completion (LRTC) problem which aims to recover a tensor from incomplete observations. LRTC plays an important role in many applications such as signal processing, computer vision, machine learning, and neuroscience. A widely used approach is to combine the tensor completion data fitting term with a regularizer based on a convex relaxation of the multilinear ranks of the tensor. For the data fitting function, we model the tensor variable by using the Canonical Polyadic (CP) decomposition and for the low-rank promoting regularization function, we consider a graph Laplacian-based function which exploits correlations between the rows of the matrix unfoldings. For solving our LRTC model, we propose an efficient alternating minimization algorithm. Furthermore, based on the Kurdyka-{\L}ojasiewicz property, we show that the sequence generated by the proposed algorithm globally converges to a critical point of the objective function. Besides, an alternating direction method of multipliers algorithm is also developed for the LRTC model. Extensive numerical experiments on synthetic and real data indicate that the proposed algorithms are effective and efficient. | 翻訳日:2022-10-24 02:40:03 公開日:2020-08-28 |
# ソースカメラ識別タスクにおけるPNUの信頼性について On the Reliability of the PNU for Source Camera Identification Tasks ( http://arxiv.org/abs/2008.12700v1 ) ライセンス: Link先を確認 | Andrea Bruno, Giuseppe Cattaneo and Paola Capasso | (参考訳) PNUはSCIを実行するための必須かつ信頼性の高いツールであり、その間、法医学分野におけるこのタスクの標準デファクトとなった。
本稿では,デジタルカメラ画像におけるpnuトレースのキャンセル,修正,置換を目的とした戦略が存在するが,撮影に使用するセンサが生成するノイズの残留トレースを,実験手法により検出することが可能であることを示す。
さらに、ターゲット画像に異なるカメラのPNUを注入し、元のカメラに追跡することができるが、新しいカメラがターゲット画像を取得するのに使用される元のカメラと同じモデルであるという条件下でのみであることを示す。
両方のカメラは我々の手元に収まらなければならない。
完全性のために,我々は2つの実験を行い,一般的な公開参照データセットであるCASIA TIDEを使わずに,統計的アーティファクトを提示しないデータセットを導入することを好んだ。
スマートフォンの小さなデータセットに関する予備実験では、異なるデバイスからPNUを注入することで、ソースカメラを正しく識別することは不可能であることが示された。
2つ目の実験では、同じモデルdslrで撮影した画像の大規模なデータセットを構築しました。
我々は、各画像の復号化バージョンを抽出し、各画像にデータセット内の全カメラのRNを注入し、各カメラのRPと比較した。
実験の結果は明らかに、鑑別画像と注入画像のいずれかにおいて、元のカメラPNUの残像を見つけることができることを示している。
実験の結果は、理論上、画像から \ac{PNU} を取り除いたり、置き換えたりできるとしても、このプロセスは容易に、検出でき、いくつかの厳しい条件下では可能であり、この種の攻撃下での \ac{PNU} の堅牢性を確認する。 The PNU is an essential and reliable tool to perform SCI and, during the years, became a standard de-facto for this task in the forensic field. In this paper, we show that, although strategies exist that aim to cancel, modify, replace the PNU traces in a digital camera image, it is still possible, through our experimental method, to find residual traces of the noise produced by the sensor used to shoot the photo. Furthermore, we show that is possible to inject the PNU of a different camera in a target image and trace it back to the source camera, but only under the condition that the new camera is of the same model of the original one used to take the target image. Both cameras must fall within our availability. For completeness, we carried out 2 experiments and, rather than using the popular public reference dataset, CASIA TIDE, we preferred to introduce a dataset that does not present any kind of statistical artifacts. A preliminary experiment on a small dataset of smartphones showed that the injection of PNU from a different device makes it impossible to identify the source camera correctly. For a second experiment, we built a large dataset of images taken with the same model DSLR. We extracted a denoised version of each image, injected each one with the RN of all the cameras in the dataset and compared all with a RP from each camera. The results of the experiments, clearly, show that either in the denoised images and the injected ones is possible to find residual traces of the original camera PNU. The combined results of the experiments show that, even in theory is possible to remove or replace the \ac{PNU} from an image, this process can be, easily, detected and is possible, under some hard conditions, confirming the robustness of the \ac{PNU} under this type of attacks. | 翻訳日:2022-10-24 02:34:01 公開日:2020-08-28 |
# 電力システムのデータ駆動型セキュリティ評価 Data-Driven Security Assessment of the Electric Power System ( http://arxiv.org/abs/2008.12429v1 ) ライセンス: Link先を確認 | Seyedali Meghdadi, Guido Tack, Ariel Liebman | (参考訳) 新たな低排出エネルギーの将来への転換は、再生可能エネルギーの浸透が著しく増加し、化石燃料発電所の老朽化によるシステム慣性が低下することによる、発生と負荷のタイプの変化をもたらす。
これにより、電力網の計画と運用の技術的課題が増大する。
本研究では,従来の機械学習ツールを用いた短期計画のためのシステムセキュリティを考慮した新しい分解手法を提案する。
この研究の直接的な価値は、教師付き学習ツールを使用して第1のスイング過渡安定状態を評価するための拡張性と計算効率のよいガイドラインを提供することである。
トレーニングデータセットに適合する最終モデルの偏りのない評価を行うため,提案手法を未確認テストセットで検討した。
このテストでは、安定かつ不安定なケースを0.57%の誤差で正確に区別し、6.8%の誤差と0.0145以下の絶対誤差で不安定な時期を予測するのに高い精度を示した。 The transition to a new low emission energy future results in a changing mix of generation and load types due to significant growth in renewable energy penetration and reduction in system inertia due to the exit of ageing fossil fuel power plants. This increases technical challenges for electrical grid planning and operation. This study introduces a new decomposition approach to account for the system security for short term planning using conventional machine learning tools. The immediate value of this work is that it provides extendable and computationally efficient guidelines for using supervised learning tools to assess first swing transient stability status. To provide an unbiased evaluation of the final model fit on the training dataset, the proposed approach was examined on a previously unseen test set. It distinguished stable and unstable cases in the test set accurately, with only 0.57% error, and showed a high precision in predicting the time of instability, with 6.8% error and mean absolute error as small as 0.0145. | 翻訳日:2022-10-24 02:33:04 公開日:2020-08-28 |
# 機械学習はマクロ経済予測にどのように役立つか? How is Machine Learning Useful for Macroeconomic Forecasting? ( http://arxiv.org/abs/2008.12477v1 ) ライセンス: Link先を確認 | Philippe Goulet Coulombe, Maxime Leroux, Dalibor Stevanovic, St\'ephane Surprenant | (参考訳) Is Machine Learning Useful for Macroeconomic Forecasting?”を追加することで、“Is Machine Learning Useful for Macroeconomic Forecasting?
現在の予測文献は、特に成功したアルゴリズムで特定の変数と水平線をマッチングすることに焦点を当てている。
対照的に、標準的なマクロ計量法よりもMLゲインを駆動する基礎的特徴の有用性について検討する。
我々は,いわゆる4つの特徴(非線形性,正規化,クロスバリデーション,代替損失関数)を区別し,データリッチ環境とデータポーア環境での挙動について検討した。
そこで我々は、関心の「処理」効果を識別できる実験を設計する。
結論として
(i)非線形性はマクロ経済予測の真のゲームチェンジャーである。
(ii) 標準因子モデルが最高の正規化のままである。
(iii)K折りクロスバリデーションはベストプラクティスであり、
(iv)$L_2$は$\bar \epsilon$-insensitive in-sample lossよりも好まれる。
非線形手法の予測利得は, マクロ経済の不確実性, 金融ストレス, 住宅バブルバーストと関連している。
これは機械学習が不確実性や金銭的摩擦の文脈で発生する重要な非線形性を主に捉え、マクロ経済予測に有用であることを示唆している。 We move beyond "Is Machine Learning Useful for Macroeconomic Forecasting?" by adding the "how". The current forecasting literature has focused on matching specific variables and horizons with a particularly successful algorithm. In contrast, we study the usefulness of the underlying features driving ML gains over standard macroeconometric methods. We distinguish four so-called features (nonlinearities, regularization, cross-validation and alternative loss function) and study their behavior in both the data-rich and data-poor environments. To do so, we design experiments that allow to identify the "treatment" effects of interest. We conclude that (i) nonlinearity is the true game changer for macroeconomic prediction, (ii) the standard factor model remains the best regularization, (iii) K-fold cross-validation is the best practice and (iv) the $L_2$ is preferred to the $\bar \epsilon$-insensitive in-sample loss. The forecasting gains of nonlinear techniques are associated with high macroeconomic uncertainty, financial stress and housing bubble bursts. This suggests that Machine Learning is useful for macroeconomic forecasting by mostly capturing important nonlinearities that arise in the context of uncertainty and financial frictions. | 翻訳日:2022-10-24 02:31:59 公開日:2020-08-28 |
# メタ強化学習に基づく自動運転車の車線変更戦略 Meta Reinforcement Learning-Based Lane Change Strategy for Autonomous Vehicles ( http://arxiv.org/abs/2008.12451v1 ) ライセンス: Link先を確認 | Fei Ye, Pin Wang, Ching-Yao Chan and Jiucai Zhang | (参考訳) 教師付き学習と強化学習の最近の進歩は、関連する方法論を自動運転に適用する新たな機会となった。
しかし、動的に変化する環境での自動走行を実現するための課題は依然として残っている。
模倣学習のような教師付き学習アルゴリズムは、大量のラベル付きデータをトレーニングすることで、新しい環境に一般化することができるが、新しい環境ごとに十分なデータを得るには、しばしば非実用的または費用がかかる。
強化学習手法は、エージェントを試行錯誤の方法でトレーニングすることで、このデータ依存問題を緩和することができるが、新しい環境に適応する際には、ポリシーをスクラッチから再トレーニングする必要がある。
本稿では,異なる交通渋滞レベルとして定式化された異なる交通環境における自動車線変更操作を実現するため,エージェントの一般化能力を向上させるメタ強化学習(MRL)手法を提案する。
具体的には、交通密度を緩やかにするために光でモデルを訓練し、新しい重交通密度条件でテストする。
衝突速度と成功率の両方を用いて,提案モデルの安全性と有効性を定量化する。
ベンチマークモデルは,提案するモデルと同じネットワーク構造とトレーニングタスクを用いて公平な比較を行うプリトレーニング手法に基づいて開発された。
シミュレーションの結果,提案手法は,新しい交通密度の環境に一般化された場合,ベンチマークモデルよりも最大20%高い成功率が得られることがわかった。
また、衝突速度はベンチマークモデルより最大18%低減される。
最後に,提案モデルは,新しい環境に適応したより安定で効率的な一般化能力を示し,勾配更新のほんの数ステップで100%成功率と0%の衝突率を達成できることを示した。 Recent advances in supervised learning and reinforcement learning have provided new opportunities to apply related methodologies to automated driving. However, there are still challenges to achieve automated driving maneuvers in dynamically changing environments. Supervised learning algorithms such as imitation learning can generalize to new environments by training on a large amount of labeled data, however, it can be often impractical or cost-prohibitive to obtain sufficient data for each new environment. Although reinforcement learning methods can mitigate this data-dependency issue by training the agent in a trial-and-error way, they still need to re-train policies from scratch when adapting to new environments. In this paper, we thus propose a meta reinforcement learning (MRL) method to improve the agent's generalization capabilities to make automated lane-changing maneuvers at different traffic environments, which are formulated as different traffic congestion levels. Specifically, we train the model at light to moderate traffic densities and test it at a new heavy traffic density condition. We use both collision rate and success rate to quantify the safety and effectiveness of the proposed model. A benchmark model is developed based on a pretraining method, which uses the same network structure and training tasks as our proposed model for fair comparison. The simulation results shows that the proposed method achieves an overall success rate up to 20% higher than the benchmark model when it is generalized to the new environment of heavy traffic density. The collision rate is also reduced by up to 18% than the benchmark model. Finally, the proposed model shows more stable and efficient generalization capabilities adapting to the new environment, and it can achieve 100% successful rate and 0% collision rate with only a few steps of gradient updates. | 翻訳日:2022-10-24 02:31:13 公開日:2020-08-28 |
# 機械学習を用いたブロックチェーン型ソーシャルメディアプラットフォーム上でのボット検出 Posting Bot Detection on Blockchain-based Social Media Platform using Machine Learning Techniques ( http://arxiv.org/abs/2008.12471v1 ) ライセンス: Link先を確認 | Taehyun Kim, Hyomin Shin, Hyung Ju Hwang, Seungwon Jeong | (参考訳) Steemitはブロックチェーンベースのソーシャルメディアプラットフォームで、投稿が無効になった場合、著者がSTEEMやSBD(Steem Blockchain Dollars)と呼ばれる暗号通貨の形で報酬を受け取ることができる。
興味深いことに、キュレーター(または有権者)は他人のポストに投票することで報酬を得ることができる。
報酬はキュレーターのSTEEMの持分に比例する。
このプロセスを通じて、Steemitは、"良い"コンテンツが分散された方法で自動的に発見され、PoB(Proof-of-Brain)と呼ばれることを望んでいる。
しかし、多くのボットアカウントが自動的に投稿して報酬を得るようプログラムされており、実際の人間が良いコンテンツを作るのを妨げている。
このタイプのボットをポストボットと呼んでいます。
facebookやtwitterなど、従来の集中型ソーシャルメディアプラットフォーム上でボットを研究した論文はたくさんありますが、ブロックチェーンベースのソーシャルメディアプラットフォームでボットを投稿する研究は、当社が初めてです。
通常のソーシャルメディアプラットフォームのボット検出と比較して、私たちが作った機能は、投稿の数や長さを制限せずにボットを投稿できるという利点があります。
ブログデータや返信間の距離をクラスタリングすることで,投稿の特徴を抽出することができる。
これらの特徴は、過去のソーシャルメディア研究で使用されていない単語と記事(MAC-CDFA)間のクラスタリング距離から得られる最小平均クラスタから得られる。
リッチな特徴に基づいて,分類タスクの質を高めた。
f1-scoresを比較すると、私たちが作った機能は、facebookやtwitterのボット検出機能よりも優れています。 Steemit is a blockchain-based social media platform, where authors can get author rewards in the form of cryptocurrencies called STEEM and SBD (Steem Blockchain Dollars) if their posts are upvoted. Interestingly, curators (or voters) can also get rewards by voting others' posts, which is called a curation reward. A reward is proportional to a curator's STEEM stakes. Throughout this process, Steemit hopes "good" content will be automatically discovered by users in a decentralized way, which is known as the Proof-of-Brain (PoB). However, there are many bot accounts programmed to post automatically and get rewards, which discourages real human users from creating good content. We call this type of bot a posting bot. While there are many papers that studied bots on traditional centralized social media platforms such as Facebook and Twitter, we are the first to study posting bots on a blockchain-based social media platform. Compared with the bot detection on the usual social media platforms, the features we created have an advantage that posting bots can be detected without limiting the number or length of posts. We can extract the features of posts by clustering distances between blog data or replies. These features are obtained from the Minimum Average Cluster from Clustering Distance between Frequent words and Articles (MAC-CDFA), which is not used in any of the previous social media research. Based on the enriched features, we enhanced the quality of classification tasks. Comparing the F1-scores, the features we created outperformed the features used for bot detection on Facebook and Twitter. | 翻訳日:2022-10-24 02:30:45 公開日:2020-08-28 |
# 異種進化を用いたクラッタ環境における群れの羊飼い経路計画 Path Planning for Shepherding a Swarm in a Cluttered Environment using Differential Evolution ( http://arxiv.org/abs/2008.12639v1 ) ライセンス: Link先を確認 | Saber Elsayed, Hemant Singh, Essam Debie, Anthony Perry, Benjamin Campbell, Robert Hunjet, Hussein Abbass | (参考訳) 羊飼いは、あるエージェント群 (\emph{sheep}) を別のエージェント (\emph{sheepdog}) によって目標に向かって放牧することを伴う。
この振る舞いをモデル化する複数のアプローチが文献に記録されている。
本稿では,よく知られた羊飼いアプローチの修正を行い,シミュレーションにより,この修正が羊飼いの有効性を向上させることを示す。
そして、障害から生じる複雑さを考慮に入れれば、経路計画アプローチはこのモデルをさらに強化できると論じる。
この仮説を検証するために,2次元環境におけるエージェント群を羊飼いするための2段階の進化的経路計画アルゴリズムを提案する。
最初の段階では、アルゴリズムは羊飼いが最初の場所から羊の後方の戦略的運転場所へ移動する最良の道を見つけようとする。
第2段階では、羊の経路を計算し、最適化する。
これは、羊飼いが狙うシーケンシャルなサブゴールとして、そのパス上で \emph{way points} を使用することで実現している。
提案アルゴリズムは,さらなる改良を施したシミュレーションにより,障害物層環境下で評価する。 Shepherding involves herding a swarm of agents (\emph{sheep}) by another a control agent (\emph{sheepdog}) towards a goal. Multiple approaches have been documented in the literature to model this behaviour. In this paper, we present a modification to a well-known shepherding approach, and show, via simulation, that this modification improves shepherding efficacy. We then argue that given complexity arising from obstacles laden environments, path planning approaches could further enhance this model. To validate this hypothesis, we present a 2-stage evolutionary-based path planning algorithm for shepherding a swarm of agents in 2D environments. In the first stage, the algorithm attempts to find the best path for the sheepdog to move from its initial location to a strategic driving location behind the sheep. In the second stage, it calculates and optimises a path for the sheep. It does so by using \emph{way points} on that path as the sequential sub-goals for the sheepdog to aim towards. The proposed algorithm is evaluated in obstacle laden environments via simulation with further improvements achieved. | 翻訳日:2022-10-24 02:24:04 公開日:2020-08-28 |
# 強化学習による実世界の映像適応 Real-world Video Adaptation with Reinforcement Learning ( http://arxiv.org/abs/2008.12858v1 ) ライセンス: Link先を確認 | Hongzi Mao, Shannon Chen, Drew Dimmery, Shaun Singh, Drew Blaisdell, Yuandong Tian, Mohammad Alizadeh, Eytan Bakshy | (参考訳) クライアント側ビデオプレーヤーは、ユーザ品質のエクスペリエンス(QoE)を最適化するためにアダプティブビットレート(ABR)アルゴリズムを使用する。
facebook の web ベースのビデオストリーミングプラットフォームで最近提案された rl ベースの abr メソッドを評価した。
実世界のabrには、市販のrlアルゴリズム以上のカスタマイズ設計を必要とするいくつかの課題が含まれている -- 任意のビットレートエンコーディングを持つビデオをサポートするスケーラブルなニューラルネットワークアーキテクチャを実装し、ネットワーク条件の確率性に起因する分散に対処するためのトレーニング方法を設計し、競合するqoe目標を最適化するために制限付きベイズ最適化を利用する。
3000万以上のビデオストリーミングセッションを持つ1週間の全世界展開において、我々のRLアプローチは、既存の人間工学的ABRアルゴリズムよりも優れています。 Client-side video players employ adaptive bitrate (ABR) algorithms to optimize user quality of experience (QoE). We evaluate recently proposed RL-based ABR methods in Facebook's web-based video streaming platform. Real-world ABR contains several challenges that requires customized designs beyond off-the-shelf RL algorithms -- we implement a scalable neural network architecture that supports videos with arbitrary bitrate encodings; we design a training method to cope with the variance resulting from the stochasticity in network conditions; and we leverage constrained Bayesian optimization for reward shaping in order to optimize the conflicting QoE objectives. In a week-long worldwide deployment with more than 30 million video streaming sessions, our RL approach outperforms the existing human-engineered ABR algorithms. | 翻訳日:2022-10-24 02:22:55 公開日:2020-08-28 |
# 符号制約付き階層型マーケティングミックスモデル Hierarchical Marketing Mix Models with Sign Constraints ( http://arxiv.org/abs/2008.12802v1 ) ライセンス: Link先を確認 | Hao Chen, Minguang Zhang, Lanshan Han, Alvin Lim | (参考訳) マーケティングミックスモデル(mmms)は、プロモーションやメディア広告などの様々なマーケティング活動の有効性を測定する統計モデルである。
本研究では,特定のマーケティング活動の階層構造とキャリーオーバー,形状,スケール効果を捉えた総合的なマーケティングミックスモデルを提案する。
多段階プロセスでパラメータを推定する実践的な一般的なアプローチとは対照的に、提案手法は制約付き最大公約法を用いて未知のパラメータ/係数を同時に推定し、ハミルトンモンテカルロアルゴリズムで解いた。
そこで本研究では,提案手法を用いた実データについて述べる。 Marketing mix models (MMMs) are statistical models for measuring the effectiveness of various marketing activities such as promotion, media advertisement, etc. In this research, we propose a comprehensive marketing mix model that captures the hierarchical structure and the carryover, shape and scale effects of certain marketing activities, as well as sign restrictions on certain coefficients that are consistent with common business sense. In contrast to commonly adopted approaches in practice, which estimate parameters in a multi-stage process, the proposed approach estimates all the unknown parameters/coefficients simultaneously using a constrained maximum likelihood approach and solved with the Hamiltonian Monte Carlo algorithm. We present results on real datasets to illustrate the use of the proposed solution algorithm. | 翻訳日:2022-10-24 02:22:40 公開日:2020-08-28 |
# 深層学習を用いた体外受精後のヒト胚盤胞分類 Human Blastocyst Classification after In Vitro Fertilization Using Deep Learning ( http://arxiv.org/abs/2008.12480v1 ) ライセンス: Link先を確認 | Ali Akbar Septiandri, Ade Jamal, Pritta Ameilia Iffanolida, Oki Riayati, Budi Wiweko | (参考訳) 体外受精後の胚品質評価は、主に胚学者によって視覚的に行われる。
しかしながら、評価者間の変動性は、ivfの低成功率の主な原因の1つである。
本研究の目的は,ディープラーニングモデルに基づく胚自動評価法の開発である。
本研究は、1226個の胚の合計1084枚の画像を含む。
画像は受精後3日目に逆顕微鏡で撮影された。
画像は、胚の大きさと分裂度に基づいて、胚を1級から5級に区別するveeck基準に基づいてラベル付けされた。
モデル性能を評価するために,訓練した胚学者による評価結果と比較した。
データセット上でトレーニング済みのresnet50を微調整する最良のモデルは、91.79%の精度になります。
提示されたモデルは、ポイント・オブ・ケア設定で自動胚評価法として開発することができる。 Embryo quality assessment after in vitro fertilization (IVF) is primarily done visually by embryologists. Variability among assessors, however, remains one of the main causes of the low success rate of IVF. This study aims to develop an automated embryo assessment based on a deep learning model. This study includes a total of 1084 images from 1226 embryos. The images were captured by an inverted microscope at day 3 after fertilization. The images were labelled based on Veeck criteria that differentiate embryos to grade 1 to 5 based on the size of the blastomere and the grade of fragmentation. Our deep learning grading results were compared to the grading results from trained embryologists to evaluate the model performance. Our best model from fine-tuning a pre-trained ResNet50 on the dataset results in 91.79% accuracy. The model presented could be developed into an automated embryo assessment method in point-of-care settings. | 翻訳日:2022-10-24 02:22:12 公開日:2020-08-28 |
# DALE : 暗黒領域を意識した低照度画像強調 DALE : Dark Region-Aware Low-light Image Enhancement ( http://arxiv.org/abs/2008.12493v1 ) ライセンス: Link先を確認 | Dokyeong Kwon, Guisik Kim, Junseok Kwon | (参考訳) 本稿では,暗黒領域認識低光画像強調(DALE)と呼ばれる,暗黒領域を視覚的注意モジュールによって正確に認識し,その明るさを集中的に向上する,新しい低光画像強調手法を提案する。
複雑な処理を伴わずに超画素を用いて視覚的注意を効率的に推定することができる。
これにより、元の画像の色、トーン、明るさを保存でき、画像の通常照らされた領域が飽和したり歪んだりするのを防ぐことができる。
実験の結果,提案手法は暗黒領域を視覚的に正確に識別し,定性的かつ定量的に最先端の手法を上回っていることがわかった。 In this paper, we present a novel low-light image enhancement method called dark region-aware low-light image enhancement (DALE), where dark regions are accurately recognized by the proposed visual attention module and their brightness are intensively enhanced. Our method can estimate the visual attention in an efficient manner using super-pixels without any complicated process. Thus, the method can preserve the color, tone, and brightness of original images and prevents normally illuminated areas of the images from being saturated and distorted. Experimental results show that our method accurately identifies dark regions via the proposed visual attention, and qualitatively and quantitatively outperforms state-of-the-art methods. | 翻訳日:2022-10-24 02:21:58 公開日:2020-08-28 |
# 画像復元のための非局所適応方向誘導構造テンソル総変動 Nonlocal Adaptive Direction-Guided Structure Tensor Total Variation For Image Recovery ( http://arxiv.org/abs/2008.12505v1 ) ライセンス: Link先を確認 | Ezgi Demircan-Tureyen, Mustafa E. Kamasak | (参考訳) 変動画像回復における一般的な戦略は、エネルギー汎関数を設計する際に非局所自己相似性(NSS)特性を利用することである。
そのような貢献の1つは非局所構造テンソル総変量(NLSTV)であり、この研究の中心にある。
本論文は,NLSTVの規格化期間を指向性プリミティブを用いて促進することを目的とする。
より具体的には、NLSTVは各画像ポイントにおいて、最小局所変動を持つと仮定される方向の感度を高めるために利用される。
実際に難しいのは、この方向情報を破損した画像から捉えることだ。
そこで本研究では,異方性ガウス核を用いて,後年提案モデルで使用される方向特徴を推定する手法を提案する。
実験により,NLSTVモデルと他の2つの競合するローカルモデルよりも,視覚的および定量的評価の点から,我々の2段階フレームワーク全体がより良い結果が得られることを確認した。 A common strategy in variational image recovery is utilizing the nonlocal self-similarity (NSS) property, when designing energy functionals. One such contribution is nonlocal structure tensor total variation (NLSTV), which lies at the core of this study. This paper is concerned with boosting the NLSTV regularization term through the use of directional priors. More specifically, NLSTV is leveraged so that, at each image point, it gains more sensitivity in the direction that is presumed to have the minimum local variation. The actual difficulty here is capturing this directional information from the corrupted image. In this regard, we propose a method that employs anisotropic Gaussian kernels to estimate directional features to be later used by our proposed model. The experiments validate that our entire two-stage framework achieves better results than the NLSTV model and two other competing local models, in terms of visual and quantitative evaluation. | 翻訳日:2022-10-24 02:21:46 公開日:2020-08-28 |
# リモートセンシング画像における極性テンプレートマスクを用いた高速単発船舶インスタンスセグメンテーション Fast Single-shot Ship Instance Segmentation Based on Polar Template Mask in Remote Sensing Images ( http://arxiv.org/abs/2008.12447v1 ) ライセンス: Link先を確認 | Zhenhang Huang, Shihao Sun, Ruirui Li | (参考訳) リモートセンシング画像におけるオブジェクト検出とインスタンスセグメンテーションは、シーンとターゲットの複雑さのため、基本的かつ困難なタスクである。
最新の手法では、インスタンスセグメンテーションの効率と精度の両方を考慮に入れようとした。
そこで本論文では,この2つを改善するために,概念的に単純で単純で,かつ低精度な単発畳み込みニューラルネットワーク構造を提案する。
SSS-Netと呼ばれる本手法は, 物体の中心の位置と, 非一様角度間隔のシルエットサンプリング点との距離に基づいて目標を検出し, マスク生成におけるラインのバランスの取れたサンプリングを実現する。
さらに、極座標の輪郭テンプレートに基づく非一様極性テンプレートIoUを提案する。
Airbus Ship Detection ChallengeデータセットとISAIDshipsデータセットの両方の実験によると、SSS-Netは、船のインスタンスセグメンテーションの精度と速度において、強力な競争力を持っている。 Object detection and instance segmentation in remote sensing images is a fundamental and challenging task, due to the complexity of scenes and targets. The latest methods tried to take into account both the efficiency and the accuracy of instance segmentation. In order to improve both of them, in this paper, we propose a single-shot convolutional neural network structure, which is conceptually simple and straightforward, and meanwhile makes up for the problem of low accuracy of single-shot networks. Our method, termed with SSS-Net, detects targets based on the location of the object's center and the distances between the center and the points on the silhouette sampling with non-uniform angle intervals, thereby achieving abalanced sampling of lines in mask generation. In addition, we propose a non-uniform polar template IoU based on the contour template in polar coordinates. Experiments on both the Airbus Ship Detection Challenge dataset and the ISAIDships dataset show that SSS-Net has strong competitiveness in precision and speed for ship instance segmentation. | 翻訳日:2022-10-24 02:15:24 公開日:2020-08-28 |
# 空からのカウント: リモートセンシング対象カウントのための大規模データセットとベンチマーク手法 Counting from Sky: A Large-scale Dataset for Remote Sensing Object Counting and A Benchmark Method ( http://arxiv.org/abs/2008.12470v1 ) ライセンス: Link先を確認 | Guangshuai Gao and Qingjie Liu and Yunhong Wang | (参考訳) 与えられた画像からオブジェクトの数を推定することを目的としたオブジェクトカウントは、重要かつ困難な計算タスクである。
この問題に取り組み、大きな進歩を遂げてきたが、リモートセンシング画像からの地上物体の数を数えることはほとんど研究されていない。
本稿では,リモートセンシング画像から高密度物体を数えることに興味がある。
自然界における対象数と比較すると,この課題は,大規模変動,複雑な乱雑な背景,配向の任意性といった要因において困難である。
さらに重要なことに、データの不足はこの分野の研究の発展を厳しく制限している。
これらの問題に対処するために,我々はまず,建物,港内の混み合った船,大型車,駐車場内の小車という,4つの重要な地理的物体を含むリモートセンシング画像を用いた大規模オブジェクトカウントデータセットを構築した。
次に,入力画像の密度マップを生成する新たなニューラルネットワークを設計することで,データセットのベンチマークを行う。
提案するネットワークはアテンションモジュール,スケールピラミッドモジュール,変形可能な畳み込みモジュールの3つの部分から構成され,上記の課題を克服する。
提案したデータセットと1つの群集カウントダットセットを用いて大規模な実験を行い,提案したデータセットの課題と,最先端手法と比較した手法の優位性と有効性を示した。 Object counting, whose aim is to estimate the number of objects from a given image, is an important and challenging computation task. Significant efforts have been devoted to addressing this problem and achieved great progress, yet counting the number of ground objects from remote sensing images is barely studied. In this paper, we are interested in counting dense objects from remote sensing images. Compared with object counting in a natural scene, this task is challenging in the following factors: large scale variation, complex cluttered background, and orientation arbitrariness. More importantly, the scarcity of data severely limits the development of research in this field. To address these issues, we first construct a large-scale object counting dataset with remote sensing images, which contains four important geographic objects: buildings, crowded ships in harbors, large-vehicles and small-vehicles in parking lots. We then benchmark the dataset by designing a novel neural network that can generate a density map of an input image. The proposed network consists of three parts namely attention module, scale pyramid module and deformable convolution module to attack the aforementioned challenging factors. Extensive experiments are performed on the proposed dataset and one crowd counting datset, which demonstrate the challenges of the proposed dataset and the superiority and effectiveness of our method compared with state-of-the-art methods. | 翻訳日:2022-10-24 02:15:04 公開日:2020-08-28 |
# 全方位画像に対する歪み適応型グレープパンチカウント Distortion-Adaptive Grape Bunch Counting for Omnidirectional Images ( http://arxiv.org/abs/2008.12511v1 ) ライセンス: Link先を確認 | Ryota Akai, Yuzuko Utsumi, Yuka Miwa, Masakazu Iwamura, Koichi Kise | (参考訳) 本稿では,全方位画像に対する最初のオブジェクトカウント手法を提案する。
従来の物体計数法は全方位画像の歪みを処理できないため,立体投影法を用いて処理することを提案する。
しかし、立体投影で得られた画像はいまだ歪んでいる。
したがって、この歪みを管理するために2つの方法を提案する。
1つは、全方位画像の立体投影のために設計された新しいデータ拡張手法である。
もう1つは歪み適応ガウス核であり、立体射影の歪みを考慮しつつ密度写像基底真理を生成する。
グレープ束の計数を事例として,全方位画像からなるオリジナルグレープバンチ画像データセットを構築し,提案手法の評価実験を行った。
その結果,本手法は従来の手法の直接的適用よりも優れた性能を示し,平均絶対誤差を14.7%,平均二乗誤差を10.5%改善した。 This paper proposes the first object counting method for omnidirectional images. Because conventional object counting methods cannot handle the distortion of omnidirectional images, we propose to process them using stereographic projection, which enables conventional methods to obtain a good approximation of the density function. However, the images obtained by stereographic projection are still distorted. Hence, to manage this distortion, we propose two methods. One is a new data augmentation method designed for the stereographic projection of omnidirectional images. The other is a distortion-adaptive Gaussian kernel that generates a density map ground truth while taking into account the distortion of stereographic projection. Using the counting of grape bunches as a case study, we constructed an original grape-bunch image dataset consisting of omnidirectional images and conducted experiments to evaluate the proposed method. The results show that the proposed method performs better than a direct application of the conventional method, improving mean absolute error by 14.7% and mean squared error by 10.5%. | 翻訳日:2022-10-24 02:14:40 公開日:2020-08-28 |
# PV-RCNN:Waymo Open Dataset Challengesの3D検出/3D追跡/ドメイン適応のためのLiDAR専用ソリューション PV-RCNN: The Top-Performing LiDAR-only Solutions for 3D Detection / 3D Tracking / Domain Adaptation of Waymo Open Dataset Challenges ( http://arxiv.org/abs/2008.12599v1 ) ライセンス: Link先を確認 | Shaoshuai Shi, Chaoxu Guo, Jihan Yang, Hongsheng Li | (参考訳) 本稿では,waymo open dataset challenge 2020において,3d検出,3dトラッキング,ドメイン適応のためのトップパフォーマンスlidarソリューションを提案する。
この競合に対する解決策は、最近提案されたPV-RCNN 3Dオブジェクト検出フレームワークに基づいている。
PV-RCNNには,時間情報の導入,動的ボキセル化,適応型トレーニングサンプル選択,RoI特徴の分類など,いくつかのバリエーションが検討されている。
非最大圧縮とボックス投票による単純なモデルアンサンブル戦略を用いて最終結果を生成する。
Waymo Open Dataset Challengesの3つのトラックにおいて,LiDARポイントクラウドデータのみを使用することで,LiDARのみの手法の中では最終的に第1位,マルチモーダルメソッドでは第2位となった。
私たちのソリューションはhttps://github.com/open-mmlab/OpenPCDetで公開されます。 In this technical report, we present the top-performing LiDAR-only solutions for 3D detection, 3D tracking and domain adaptation three tracks in Waymo Open Dataset Challenges 2020. Our solutions for the competition are built upon our recent proposed PV-RCNN 3D object detection framework. Several variants of our PV-RCNN are explored, including temporal information incorporation, dynamic voxelization, adaptive training sample selection, classification with RoI features, etc. A simple model ensemble strategy with non-maximum-suppression and box voting is adopted to generate the final results. By using only LiDAR point cloud data, our models finally achieve the 1st place among all LiDAR-only methods, and the 2nd place among all multi-modal methods, on the 3D Detection, 3D Tracking and Domain Adaptation three tracks of Waymo Open Dataset Challenges. Our solutions will be available at https://github.com/open-mmlab/OpenPCDet | 翻訳日:2022-10-24 02:14:25 公開日:2020-08-28 |
# 皮膚病変の分画が皮膚内視鏡画像分類の性能に及ぼす影響 The Effects of Skin Lesion Segmentation on the Performance of Dermatoscopic Image Classification ( http://arxiv.org/abs/2008.12602v1 ) ライセンス: Link先を確認 | Amirreza Mahbod, Philipp Tschandl, Georg Langs, Rupert Ecker, Isabella Ellinger | (参考訳) 悪性黒色腫(MM)は最も多い皮膚癌の1つである。
皮膚内視鏡像の解析は,MMおよび他の色素性皮膚病変の早期発見において重要な役割を担っている。
深層学習に基づくアプローチ,特に畳み込みニューラルネットワークは皮膚皮膚病変の画像に対して優れた分類とセグメンテーション性能を示した。
これらのモデルは手作りの機能を必要としないエンドツーエンドで訓練することができる。
しかし,病巣分割情報の利用が分類性能に及ぼす影響は未解決のままである。
本研究では,皮膚病変セグメンテーションマスクの使用が皮膚内視鏡画像分類の性能に及ぼす影響について検討した。
そこで,まず,セグメンテーションマスクを用いずに参照モデルとしてベースライン分類器を開発した。
次に,手動または自動でセグメンテーションマスクを異なるシナリオのトレーニングとテストのフェーズで使用し,分類性能について検討した。
2つのバイナリ分類タスク(mm vs. all と seborrheic keratosis (sk) と all を含む isic 2017 challenge データセットで評価し,受信者の特性曲線スコアの導出領域に基づいて4つの主な結果を得た。
私たちの結果は
1) セグメンテーションマスクを用いた場合, MM分類性能は改善しなかった。
2)SK分類性能は,1つのシナリオ(拡張収穫用セグメンテーションマスク)において有意に向上した。
3)セグメンテーションマスクによる背景情報の削除は,全体の分類性能を著しく低下させた。
4) 適切なシナリオ(拡張収穫用セグメンテーション)を使用する場合, 手動または自動生成セグメンテーションマスクを使用する場合の有意差は認められなかった。 Malignant melanoma (MM) is one of the deadliest types of skin cancer. Analysing dermatoscopic images plays an important role in the early detection of MM and other pigmented skin lesions. Among different computer-based methods, deep learning-based approaches and in particular convolutional neural networks have shown excellent classification and segmentation performances for dermatoscopic skin lesion images. These models can be trained end-to-end without requiring any hand-crafted features. However, the effect of using lesion segmentation information on classification performance has remained an open question. In this study, we explicitly investigated the impact of using skin lesion segmentation masks on the performance of dermatoscopic image classification. To do this, first, we developed a baseline classifier as the reference model without using any segmentation masks. Then, we used either manually or automatically created segmentation masks in both training and test phases in different scenarios and investigated the classification performances. Evaluated on the ISIC 2017 challenge dataset which contained two binary classification tasks (i.e. MM vs. all and seborrheic keratosis (SK) vs. all) and based on the derived area under the receiver operating characteristic curve scores, we observed four main outcomes. Our results show that 1) using segmentation masks did not significantly improve the MM classification performance in any scenario, 2) in one of the scenarios (using segmentation masks for dilated cropping), SK classification performance was significantly improved, 3) removing all background information by the segmentation masks significantly degraded the overall classification performance, and 4) in case of using the appropriate scenario (using segmentation for dilated cropping), there is no significant difference of using manually or automatically created segmentation masks. | 翻訳日:2022-10-24 02:14:07 公開日:2020-08-28 |
# 自動ICD-O形態解析のための階層的深層学習分類法 Hierarchical Deep Learning Classification of Unstructured Pathology Reports to Automate ICD-O Morphology Grading ( http://arxiv.org/abs/2009.00542v1 ) ライセンス: Link先を確認 | Waheeda Saib, Tapiwa Chiwewe, Elvira Singh | (参考訳) がんの影響を理解し、公衆衛生資源計画に通知し、特に世界の平均よりも遅れているサハラ以南のアフリカでがん対策を実施するには、タイムリーながん報告データが必要である。
腫瘍特異データを含む非構造的病理報告は、がん登録所が収集する主要な情報源である。
国際腫瘍学分類(ICD-O)コードを用いた手動処理と病理報告のラベル付けにより、がん登録に雇用された人間のコーダーによるがん報告は大幅に遅れている。
畳み込みニューラルネットワークモデルを用いて,9つのクラスにまたがるICD-O形態素コードを用いた1813名の乳がん病理報告を自動分類する階層型ディープラーニング分類法を提案する。
階層的深層学習分類法は,同一報告のicd-o形態分類のためのフラットマルチクラスcnnモデルと比較して,性能の向上が期待できる。 Timely cancer reporting data are required in order to understand the impact of cancer, inform public health resource planning and implement cancer policy especially in Sub Saharan Africa where the reporting lag is behind world averages. Unstructured pathology reports, which contain tumor specific data, are the main source of information collected by cancer registries. Due to manual processing and labelling of pathology reports using the International Classification of Disease for oncology (ICD-O) codes, by human coders employed by cancer registries, has led to a considerable lag in cancer reporting. We present a hierarchical deep learning classification method that employs convolutional neural network models to automate the classification of 1813 anonymized breast cancer pathology reports with applicable ICD-O morphology codes across 9 classes. We demonstrate that the hierarchical deep learning classification method improves on performance in comparison to a flat multiclass CNN model for ICD-O morphology classification of the same reports. | 翻訳日:2022-10-24 02:13:01 公開日:2020-08-28 |
# 水中視覚解析のためのアルゴリズム評価のための現実的な魚介類データセット A Realistic Fish-Habitat Dataset to Evaluate Algorithms for Underwater Visual Analysis ( http://arxiv.org/abs/2008.12603v1 ) ライセンス: Link先を確認 | Alzayat Saleh, Issam H. Laradji, Dmitry A. Konovalov, Michael Bradley, David Vazquez, and Marcus Sheaves | (参考訳) 複雑な魚の生息環境の視覚的分析は、人間の消費と環境保護のための持続可能な漁業への重要なステップである。
ディープラーニング手法は、大規模なデータセットでトレーニングされた場合、シーン分析に非常に有望である。
しかし,現在の魚類分析用データセットは,水中魚類生息域の複雑さを捉えない制約のある平らな環境における分類作業に注目する傾向にある。
この制限に対処するため、DeepFishは大規模データセットを備えたベンチマークスイートとして、複数のコンピュータビジョンタスクのためのメソッドのトレーニングとテストを行う。
このデータセットは、熱帯オーストラリアの海洋環境の20の緑の生息地から、約4万枚の画像から成り立っている。
データセットはもともと分類ラベルのみを含んでいた。
そこで我々はポイントレベルラベルとセグメンテーションラベルを収集し,より包括的な魚分析ベンチマークを行った。
これらのラベルにより、モデルが魚の数を自動で監視し、位置を特定し、サイズを見積もることができる。
実験では,データセット特性の詳細な解析と,ベンチマークに基づく最先端手法の性能評価を行った。
ImageNetで事前トレーニングされたモデルは、このベンチマークで成功したが、改善の余地はまだ残っている。
したがって、このベンチマークは水中コンピュータビジョンのこの挑戦的な領域におけるさらなる発展を動機付けるためのテストベッドとして機能する。
コードは、https://github.com/alzayats/deepfishで入手できる。 Visual analysis of complex fish habitats is an important step towards sustainable fisheries for human consumption and environmental protection. Deep Learning methods have shown great promise for scene analysis when trained on large-scale datasets. However, current datasets for fish analysis tend to focus on the classification task within constrained, plain environments which do not capture the complexity of underwater fish habitats. To address this limitation, we present DeepFish as a benchmark suite with a large-scale dataset to train and test methods for several computer vision tasks. The dataset consists of approximately 40 thousand images collected underwater from 20 \green{habitats in the} marine-environments of tropical Australia. The dataset originally contained only classification labels. Thus, we collected point-level and segmentation labels to have a more comprehensive fish analysis benchmark. These labels enable models to learn to automatically monitor fish count, identify their locations, and estimate their sizes. Our experiments provide an in-depth analysis of the dataset characteristics, and the performance evaluation of several state-of-the-art approaches based on our benchmark. Although models pre-trained on ImageNet have successfully performed on this benchmark, there is still room for improvement. Therefore, this benchmark serves as a testbed to motivate further development in this challenging domain of underwater computer vision. Code is available at: https://github.com/alzayats/DeepFish | 翻訳日:2022-10-24 02:07:00 公開日:2020-08-28 |
# ChildBot: マルチロボットの知覚と子どもとのインタラクション ChildBot: Multi-Robot Perception and Interaction with Children ( http://arxiv.org/abs/2008.12818v1 ) ライセンス: Link先を確認 | Niki Efthymiou, Panagiotis P. Filntisis, Petros Koutras, Antigoni Tsiami, Jack Hadfield, Gerasimos Potamianos, Petros Maragos | (参考訳) 本稿では,1人以上の子どもと共同で,幅広い教育・娯楽業務に参加・遂行できる統合型ロボットシステムを提案する。
ChildBotと呼ばれるこのシステムは、マルチモーダル認識モジュールと、対話環境を監視する複数のロボットエージェントを備えており、複雑なChild-Robotインタラクションのユースケースを堅牢に調整することができる。
システムとその統合モジュールの有効性を検証するために, 合計52名の子どもを用いて複数の実験を行った。
以上の結果から, childbotがベースであった先行研究と比較して,知覚能力が向上した。
また,いくつかの教育・エンタテインメントタスクを取り入れた予備的なユーザエクスペリエンススタディを実施し,システムの技術的妥当性とユーザエクスペリエンスに関する最初の洞察を奨励する結果を得た。 In this paper we present an integrated robotic system capable of participating in and performing a wide range of educational and entertainment tasks, in collaboration with one or more children. The system, called ChildBot, features multimodal perception modules and multiple robotic agents that monitor the interaction environment, and can robustly coordinate complex Child-Robot Interaction use-cases. In order to validate the effectiveness of the system and its integrated modules, we have conducted multiple experiments with a total of 52 children. Our results show improved perception capabilities in comparison to our earlier works that ChildBot was based on. In addition, we have conducted a preliminary user experience study, employing some educational/entertainment tasks, that yields encouraging results regarding the technical validity of our system and initial insights on the user experience with it. | 翻訳日:2022-10-24 02:05:58 公開日:2020-08-28 |
# 中国における臨床名前認識のためのコスト品質適応型能動学習 Cost-Quality Adaptive Active Learning for Chinese Clinical Named Entity Recognition ( http://arxiv.org/abs/2008.12548v1 ) ライセンス: Link先を確認 | Tingting Cai, Yangming Zhou, Hong Zheng | (参考訳) 臨床名義認識(CNER)は、臨床研究の基本的かつ重要なステップである電子健康記録(EHR)における臨床用語の自動識別を目的としている。
CNERの高性能モデルをトレーニングするには、通常、高品質なラベルを持つ多数のEHRが必要である。
しかし、EHR、特に中国のEHRのラベル付けには時間と費用がかかる。
これに対する効果的な解決策の1つはアクティブラーニングであり、モデルが不確実なデータにアノテートするようラベルを付ける。
従来のアクティブラーニングでは、クエリされたラベルに対して常にノイズのない回答を返信する単一のラベルを前提としている。
しかし、実際の設定では、複数のラベルは様々なコストで様々なアノテーションの質を提供し、全体のアノテーション品質の低いラベルは、特定のインスタンスに対して正しいラベルを割り当てることができます。
本稿では,中国ehrsにおけるcnerのためのコスト品質適応型アクティブラーニング(cqaal)手法を提案する。
具体的には、CQAALはコスト効率の良いインスタンスラベルペアを選択し、より低いコストでより優れたアノテーション品質を適応的に達成する。
CCKS-2017 Task 2ベンチマークデータセットの計算結果は、提案されたCQAALの優位性と有効性を示している。 Clinical Named Entity Recognition (CNER) aims to automatically identity clinical terminologies in Electronic Health Records (EHRs), which is a fundamental and crucial step for clinical research. To train a high-performance model for CNER, it usually requires a large number of EHRs with high-quality labels. However, labeling EHRs, especially Chinese EHRs, is time-consuming and expensive. One effective solution to this is active learning, where a model asks labelers to annotate data which the model is uncertain of. Conventional active learning assumes a single labeler that always replies noiseless answers to queried labels. However, in real settings, multiple labelers provide diverse quality of annotation with varied costs and labelers with low overall annotation quality can still assign correct labels for some specific instances. In this paper, we propose a Cost-Quality Adaptive Active Learning (CQAAL) approach for CNER in Chinese EHRs, which maintains a balance between the annotation quality, labeling costs, and the informativeness of selected instances. Specifically, CQAAL selects cost-effective instance-labeler pairs to achieve better annotation quality with lower costs in an adaptive manner. Computational results on the CCKS-2017 Task 2 benchmark dataset demonstrate the superiority and effectiveness of the proposed CQAAL. | 翻訳日:2022-10-24 02:05:26 公開日:2020-08-28 |
# 薬物相互作用抽出のための二段階共同モデル Two Step Joint Model for Drug Drug Interaction Extraction ( http://arxiv.org/abs/2008.12704v1 ) ライセンス: Link先を確認 | Siliang Tang, Qi Zhang, Tianpeng Zheng, Mengdi Zhou, Zhan Chen, Lixing Shen, Xiang Ren, Yueting Zhuang, Shiliang Pu and Fei Wu | (参考訳) 患者が薬を服用する必要がある場合、特に複数の種類の薬物を同時に服用する場合、薬物と薬物の相互作用が存在する可能性があることを警告すべきである。
薬物間の相互作用は患者に悪影響を及ぼしたり、死を引き起こすこともある。
一般に、特定の薬物(またはラベル薬物)と相反する薬物は、通常、その薬物ラベルまたはパッケージ挿入で記述される。
新たな医薬品製品が市場に出回っているため、手作業でこのような情報を収集することは困難である。
我々は、テキスト分析会議(TAC)2018の薬物ラベルチャレンジからDDIを抽出し、タスク1とタスク2を選択して、DDI関連の言及とDDIの関係を自動的に抽出する。
タスク1を名前付きエンティティ認識(NER)タスクとして、タスク2を関係抽出(RE)タスクとして、パイプラインで解決する代わりに、DDIを検出するための2ステップのジョイントモデルを提案し、関連する言及を共同で行う。
シーケンスタギングシステム(CNN-GRUエンコーダデコーダ)は、まず沈殿剤を発見し、その微細なトリガーを探索し、第2ステップで沈殿剤のDDIを決定する。
さらに、薬物動態相互作用のサブタイプを決定するためのルールベースモデルを構築した。
このシステムはタスク1とタスク2の両方で最高の結果を得た。
f-measure は task1 で 0.46 、task2 で 0.40 に達する。 When patients need to take medicine, particularly taking more than one kind of drug simultaneously, they should be alarmed that there possibly exists drug-drug interaction. Interaction between drugs may have a negative impact on patients or even cause death. Generally, drugs that conflict with a specific drug (or label drug) are usually described in its drug label or package insert. Since more and more new drug products come into the market, it is difficult to collect such information by manual. We take part in the Drug-Drug Interaction (DDI) Extraction from Drug Labels challenge of Text Analysis Conference (TAC) 2018, choosing task1 and task2 to automatically extract DDI related mentions and DDI relations respectively. Instead of regarding task1 as named entity recognition (NER) task and regarding task2 as relation extraction (RE) task then solving it in a pipeline, we propose a two step joint model to detect DDI and it's related mentions jointly. A sequence tagging system (CNN-GRU encoder-decoder) finds precipitants first and search its fine-grained Trigger and determine the DDI for each precipitant in the second step. Moreover, a rule based model is built to determine the sub-type for pharmacokinetic interation. Our system achieved best result in both task1 and task2. F-measure reaches 0.46 in task1 and 0.40 in task2. | 翻訳日:2022-10-24 02:05:04 公開日:2020-08-28 |
# 自然言語処理のための知識効率の良い深層学習 Knowledge Efficient Deep Learning for Natural Language Processing ( http://arxiv.org/abs/2008.12878v1 ) ライセンス: Link先を確認 | Hai Wang | (参考訳) ディープラーニングは、幅広い自然言語処理アプリケーションのワークホースになっています。
しかし、ディープラーニングの成功の多くは注釈付きの例に依存している。
注釈は時間がかかり、大量生産には高価である。
ここでは、アノテーション付きデータの必要な量を削減する方法に関心があります -- 学習方法をより効率的にすることで、低アノテーション(低リソース)設定でより適用できるようにします。
マルチタスク学習、移行学習、弱教師付き学習、教師なし学習など、モデルをより効率的にするための古典的なアプローチがある。
この論文は、古典的手法を現代のディープラーニングモデルやアルゴリズムに適用することに焦点を当てている。
この論文は、機械学習モデルをより効率的にするための4つの作品を説明する。
まず,事前知識を深層モデルに組み込むための統合学習フレームワークとして,知識豊富な深層学習モデル(KRDL)を提案する。
特に,マルコフ論理ネットワークを基盤としたkrdlを適用し,弱監督を解消する。
第2に,KRDLモデルを機械読解モデルに応用し,その決定を裏付ける正しい証拠文を見つける。
第3に,多言語設定における知識伝達手法について検討し,二言語辞書に基づいて事前学習した多言語BERTを改善する手法を提案する。
第4に、言語モデリングのためのエピソードメモリネットワークを提案し、事前学習されたGPTの外部知識を符号化する。 Deep learning has become the workhorse for a wide range of natural language processing applications. But much of the success of deep learning relies on annotated examples. Annotation is time-consuming and expensive to produce at scale. Here we are interested in methods for reducing the required quantity of annotated data -- by making the learning methods more knowledge efficient so as to make them more applicable in low annotation (low resource) settings. There are various classical approaches to making the models more knowledge efficient such as multi-task learning, transfer learning, weakly supervised and unsupervised learning etc. This thesis focuses on adapting such classical methods to modern deep learning models and algorithms. This thesis describes four works aimed at making machine learning models more knowledge efficient. First, we propose a knowledge rich deep learning model (KRDL) as a unifying learning framework for incorporating prior knowledge into deep models. In particular, we apply KRDL built on Markov logic networks to denoise weak supervision. Second, we apply a KRDL model to assist the machine reading models to find the correct evidence sentences that can support their decision. Third, we investigate the knowledge transfer techniques in multilingual setting, where we proposed a method that can improve pre-trained multilingual BERT based on the bilingual dictionary. Fourth, we present an episodic memory network for language modelling, in which we encode the large external knowledge for the pre-trained GPT. | 翻訳日:2022-10-24 02:04:38 公開日:2020-08-28 |
# アクションのための知識グラフに関するすべて All About Knowledge Graphs for Actions ( http://arxiv.org/abs/2008.12432v1 ) ライセンス: Link先を確認 | Pallabi Ghosh, Nirat Saini, Larry S. Davis, Abhinav Shrivastava | (参考訳) 現在の行動認識システムは、行動を認識するために大量の訓練データを必要とする。
近年,ゼロショット学習と少数ショット学習のパラダイムを探求し,ラベルの少ない未確認カテゴリやカテゴリの分類法を学習している。
オブジェクト認識における類似のパラダイムに従い、これらのアプローチは外部の知識源(言語ドメインからの知識グラフなど)を利用する。
しかし、オブジェクトとは異なり、アクションの最良の知識表現とは何かは不明である。
本稿では,ゼロショットと少数ショットのアクション認識に使用できる知識グラフ(KG)の理解を深める。
特に,動作埋め込み,アクションオブジェクト埋め込み,視覚埋め込みの3つの異なる構成機構について検討した。
異なる実験装置における異なるKGの影響を広範囲に解析する。
最後に,ゼロショットと少数ショットのアプローチを体系的に研究するために, ucf101, hmdb51, およびcharadesデータセットに基づく改良評価パラダイムを提案する。 Current action recognition systems require large amounts of training data for recognizing an action. Recent works have explored the paradigm of zero-shot and few-shot learning to learn classifiers for unseen categories or categories with few labels. Following similar paradigms in object recognition, these approaches utilize external sources of knowledge (eg. knowledge graphs from language domains). However, unlike objects, it is unclear what is the best knowledge representation for actions. In this paper, we intend to gain a better understanding of knowledge graphs (KGs) that can be utilized for zero-shot and few-shot action recognition. In particular, we study three different construction mechanisms for KGs: action embeddings, action-object embeddings, visual embeddings. We present extensive analysis of the impact of different KGs in different experimental setups. Finally, to enable a systematic study of zero-shot and few-shot approaches, we propose an improved evaluation paradigm based on UCF101, HMDB51, and Charades datasets for knowledge transfer from models trained on Kinetics. | 翻訳日:2022-10-24 02:03:52 公開日:2020-08-28 |
# ROOT-SGD:1つのアルゴリズムにおけるシャープ非漸近と漸近効率 ROOT-SGD: Sharp Nonasymptotics and Asymptotic Efficiency in a Single Algorithm ( http://arxiv.org/abs/2008.12690v1 ) ライセンス: Link先を確認 | Chris Junchi Li, Wenlong Mou, Martin J. Wainwright, Michael I. Jordan | (参考訳) 確率的最適化の理論と実践は、近年、確率的勾配降下(SGD)に焦点を当てており、平均化、運動量、分散還元といったメカニズムにより、SGDの基本的な一階確率的性質を維持している。
しかし、改善は様々な次元で測定できるため、収束率の漸近測度と分布の厳密度の漸近測度の両方において改善を達成することは困難である。
本研究では,従来の確率勾配の帰納的平均化の特定の形態を動機付け,一般統計の観点から一階確率最適化を考える。
結果として得られたアルゴリズムは \emph{recursive one-over-t sgd} (root-sgd) と呼ばれ、オンライン分散還元確率近似法における最先端収束率に一致する。
さらに、わずかに強い分布仮定の下で、ルートsgdの再スケールされたラストイテレートは、ほぼ最適の共分散を達成するゼロ平均ガウス分布に収束する。 The theory and practice of stochastic optimization has focused on stochastic gradient descent (SGD) in recent years, retaining the basic first-order stochastic nature of SGD while aiming to improve it via mechanisms such as averaging, momentum, and variance reduction. Improvement can be measured along various dimensions, however, and it has proved difficult to achieve improvements both in terms of nonasymptotic measures of convergence rate and asymptotic measures of distributional tightness. In this work, we consider first-order stochastic optimization from a general statistical point of view, motivating a specific form of recursive averaging of past stochastic gradients. The resulting algorithm, which we refer to as \emph{Recursive One-Over-T SGD} (ROOT-SGD), matches the state-of-the-art convergence rate among online variance-reduced stochastic approximation methods. Moreover, under slightly stronger distributional assumptions, the rescaled last-iterate of ROOT-SGD converges to a zero-mean Gaussian distribution that achieves near-optimal covariance. | 翻訳日:2022-10-24 01:58:14 公開日:2020-08-28 |
# 広域ネットワークにおける交通予測のための動的グラフニューラルネットワーク Dynamic Graph Neural Network for Traffic Forecasting in Wide Area Networks ( http://arxiv.org/abs/2008.12767v1 ) ライセンス: Link先を確認 | Tanwi Mallick, Mariam Kiran, Bashir Mohammed, Prasanna Balaprakash | (参考訳) 広域ネットワーク基盤(WAN)、特に科学と研究のWANは、実験施設とデータセンターの間で大量の科学データを移動するためのバックボーンである。
需要が指数関数的に増加する中、これらのネットワークは大規模データ量、リアルタイム応答、ネットワーク全体のパフォーマンスに苦戦している。
ネットワークオペレーターは、限られたネットワークリソースを管理する革新的な方法を探している。
ネットワークトラフィックの予測は、アクティブなリソース管理、混雑緩和、専用の転送プロビジョニングにとって重要な機能である。
そこで本研究では,多段階ネットワークトラフィック予測のための非回帰グラフ型ニューラルネットワークを提案する。
具体的には, 拡散畳み込みリカレントニューラルネットワークの動的変種を開発し, 研究WANのトラフィックを予測する。
我々は,米国エネルギー省の専用科学ネットワークESnetの実際のトラフィックに対するアプローチの有効性を評価する。
その結果,従来の予測手法と比較して,時空間的トラヒックパターンの動的性質を明示的に学習し,予測精度に大きな改善が見られた。
本手法は,ネットワークトラフィックの動的設定に拘わらず,複数時間の予測において,約20%の平均絶対誤差を達成し,既存の統計的・深層学習手法を超えることができる。 Wide area networking infrastructures (WANs), particularly science and research WANs, are the backbone for moving large volumes of scientific data between experimental facilities and data centers. With demands growing at exponential rates, these networks are struggling to cope with large data volumes, real-time responses, and overall network performance. Network operators are increasingly looking for innovative ways to manage the limited underlying network resources. Forecasting network traffic is a critical capability for proactive resource management, congestion mitigation, and dedicated transfer provisioning. To this end, we propose a nonautoregressive graph-based neural network for multistep network traffic forecasting. Specifically, we develop a dynamic variant of diffusion convolutional recurrent neural networks to forecast traffic in research WANs. We evaluate the efficacy of our approach on real traffic from ESnet, the U.S. Department of Energy's dedicated science network. Our results show that compared to classical forecasting methods, our approach explicitly learns the dynamic nature of spatiotemporal traffic patterns, showing significant improvements in forecasting accuracy. Our technique can surpass existing statistical and deep learning approaches by achieving approximately 20% mean absolute percentage error for multiple hours of forecasts despite dynamic network traffic settings. | 翻訳日:2022-10-24 01:57:54 公開日:2020-08-28 |
# 確率鏡によるMDPの効率的な解法 Efficiently Solving MDPs with Stochastic Mirror Descent ( http://arxiv.org/abs/2008.12776v1 ) ライセンス: Link先を確認 | Yujia Jin and Aaron Sidford | (参考訳) 生成モデルから得られる無限水平マルコフ決定過程 (MDP) を近似的に解くために, 原始-双対確率的ミラー降下に基づく統一フレームワークを提案する。
a_{tot}$ の全状態-アクション対と混合時間バインド $t_{mix}$ の平均値 mdp に適用すると、この方法は、状態遷移行列から期待$\widetilde{o}(t_{mix}^2 a_{tot} \epsilon^{-2})$ のサンプルを持つ$\epsilon$-optimal ポリシーを計算し、以前のアートのエルゴディクティ依存を取り除く。
A_{tot} の総状態-作用対を持つ $\gamma$-discounted MDP に適用すると、我々のメソッドは $\epsilon$-optimal policy with a expected $\widetilde{O}((1-\gamma)^{-4} A_{tot} \epsilon^{-2})$ sample を計算する。
どちらのメソッドもモデルフリーで、状態値とポリシーを同時に更新し、取得したサンプル数を線形に実行します。
これらの結果は、より一般的な確率的ミラー降下フレームワークを用いて、単純度とボックス領域で双線形サドルポイント問題を解くことで実現し、制約付きMDPにさらなる応用を提供することで、このフレームワークの柔軟性を実証する。 We present a unified framework based on primal-dual stochastic mirror descent for approximately solving infinite-horizon Markov decision processes (MDPs) given a generative model. When applied to an average-reward MDP with $A_{tot}$ total state-action pairs and mixing time bound $t_{mix}$ our method computes an $\epsilon$-optimal policy with an expected $\widetilde{O}(t_{mix}^2 A_{tot} \epsilon^{-2})$ samples from the state-transition matrix, removing the ergodicity dependence of prior art. When applied to a $\gamma$-discounted MDP with $A_{tot}$ total state-action pairs our method computes an $\epsilon$-optimal policy with an expected $\widetilde{O}((1-\gamma)^{-4} A_{tot} \epsilon^{-2})$ samples, matching the previous state-of-the-art up to a $(1-\gamma)^{-1}$ factor. Both methods are model-free, update state values and policies simultaneously, and run in time linear in the number of samples taken. We achieve these results through a more general stochastic mirror descent framework for solving bilinear saddle-point problems with simplex and box domains and we demonstrate the flexibility of this framework by providing further applications to constrained MDPs. | 翻訳日:2022-10-24 01:57:34 公開日:2020-08-28 |
# coral: データ分析のための弱教師付きトランスフォーマーによるコード表現学習 CORAL: COde RepresentAtion Learning with Weakly-Supervised Transformers for Analyzing Data Analysis ( http://arxiv.org/abs/2008.12828v1 ) ライセンス: Link先を確認 | Ge Zhang, Mike A. Merrill, Yang Liu, Jeffrey Heer, Tim Althoff | (参考訳) ソースコードの大規模解析、特に科学的ソースコードは、データサイエンスのプロセスをよりよく理解し、分析的なベストプラクティスを特定し、科学ツールキットの構築者に洞察を与えるという約束を持っている。
しかし、大きなコーパスは、記述ラベルが欠如し、専門家のドメイン知識が必要とされるため、未解析のままである。
本稿では,抽象構文木と周辺自然言語コメントとの協調表現を計算するために,新しい弱教師付きトランスフォーマーアーキテクチャを提案する。
次に,データインポートからラングリング,探索,モデリング,評価に至るまでのデータ解析プロセスの段階として,計算ノートセルをラベル付けする新たな分類タスクについて評価する。
我々のモデルは, 容易に利用可能な弱い監督のみを利用して, 専門家が供給するヒューリスティックスよりも38%精度が向上し, ベースライン群を上回ることを示した。
我々のモデルは、一般的なデータ分析パターンを明らかにするために、118,000のJupyter Notebookのセットを調べることができる。
学術論文に係わるノートに焦点をあて,科学的コードに関する史上最大の研究を行い,ノート構成が対応する論文の引用数と相関していることを見いだした。 Large scale analysis of source code, and in particular scientific source code, holds the promise of better understanding the data science process, identifying analytical best practices, and providing insights to the builders of scientific toolkits. However, large corpora have remained unanalyzed in depth, as descriptive labels are absent and require expert domain knowledge to generate. We propose a novel weakly supervised transformer-based architecture for computing joint representations of code from both abstract syntax trees and surrounding natural language comments. We then evaluate the model on a new classification task for labeling computational notebook cells as stages in the data analysis process from data import to wrangling, exploration, modeling, and evaluation. We show that our model, leveraging only easily-available weak supervision, achieves a 38% increase in accuracy over expert-supplied heuristics and outperforms a suite of baselines. Our model enables us to examine a set of 118,000 Jupyter Notebooks to uncover common data analysis patterns. Focusing on notebooks with relationships to academic articles, we conduct the largest ever study of scientific code and find that notebook composition correlates with the citation count of corresponding papers. | 翻訳日:2022-10-24 01:57:01 公開日:2020-08-28 |
# ICD-Oトポグラフィーによる乳癌診断の自動化を目的とした階層的深層学習 Hierarchical Deep Learning Ensemble to Automate the Classification of Breast Cancer Pathology Reports by ICD-O Topography ( http://arxiv.org/abs/2008.12571v1 ) ライセンス: Link先を確認 | Waheeda Saib, David Sengeh, Gcininwe Dlamini, Elvira Singh | (参考訳) 南アフリカの国立がん登録所(National Cancer Registry)は、多くのがん登録所と同様に、42種類のがんにまたがる適切な国際がん疾患分類(ICD-O)コードを用いて、専門の人間コーダーを用いて病理報告をラベル付けしている。
このアノテーションは、公立および民間の機関から毎年受け取っているがん病理報告の膨大な量に対して広く使われている。
この手動のプロセスと他の課題が組み合わさって、南アフリカの毎年のがん統計の報告が4年遅れる結果となった。
本研究では,2201の未同定自由テキスト病理報告の自動ラベル付けに,術式畳み込みニューラルネットワークモデルの状態を組み込んだ階層型深層学習アンサンブル法と,8つのクラスにまたがる適切なICD-O乳がんトポグラフィーコードについて述べる。
以上の結果から,art cnnモデルではf1マイクロでは14%以上,f1マクロスコアでは55%の改善が認められた。
階層型ディープラーニングアンサンブルは,病理診断のためのicd-oトポグラフィコードを予測するためのフラットマルチクラスモデルと比較して,icd-oトポグラフィ分類の最先端モデルを改善している。 Like most global cancer registries, the National Cancer Registry in South Africa employs expert human coders to label pathology reports using appropriate International Classification of Disease for Oncology (ICD-O) codes spanning 42 different cancer types. The annotation is extensive for the large volume of cancer pathology reports the registry receives annually from public and private sector institutions. This manual process, coupled with other challenges results in a significant 4-year lag in reporting of annual cancer statistics in South Africa. We present a hierarchical deep learning ensemble method incorporating state of the art convolutional neural network models for the automatic labelling of 2201 de-identified, free text pathology reports, with appropriate ICD-O breast cancer topography codes across 8 classes. Our results show an improvement in primary site classification over the state of the art CNN model by greater than 14% for F1 micro and 55% for F1 macro scores. We demonstrate that the hierarchical deep learning ensemble improves on state-of-the-art models for ICD-O topography classification in comparison to a flat multiclass model for predicting ICD-O topography codes for pathology reports. | 翻訳日:2022-10-24 01:55:20 公開日:2020-08-28 |
# 同じだがディファネット:正規化フローによる半監督欠陥検出 Same Same But DifferNet: Semi-Supervised Defect Detection with Normalizing Flows ( http://arxiv.org/abs/2008.12577v1 ) ライセンス: Link先を確認 | Marco Rudolph and Bastian Wandt and Bodo Rosenhahn | (参考訳) 製造ミスの検出は製品の品質と安全性の基準を確保するために製造プロセスにおいて不可欠である。
多くの欠陥はごくまれに発生し、その特徴はほとんど前もって不明であるため、その検出は依然として研究課題である。
畳み込みニューラルネットワークによって抽出された特徴の記述性を利用して、正規化フローを用いてそれらの密度を推定する。
正規化フローは低次元のデータ分布を扱うのに適している。
しかし、それらは画像の高次元化に苦しむ。
そこで我々は,画像に意味のある確率を割り当てる正規化フローを実現するマルチスケール特徴抽出器を採用した。
これらの可能性に基づいて、欠陥を示すスコアリング関数を開発する。
さらに、スコアを画像に伝達することで、画素単位のローカライズが可能になる。
高い堅牢性と性能を達成するために、トレーニングと評価において複数の変換を利用する。
他のほとんどの方法とは対照的に、当社では大量のトレーニングサンプルを必要とせず、16枚の画像で十分な性能を発揮する。
本稿では,新しいMVTec ADとMagnetic Tile Defectsデータセットに対する既存のアプローチよりも優れた性能を示す。 The detection of manufacturing errors is crucial in fabrication processes to ensure product quality and safety standards. Since many defects occur very rarely and their characteristics are mostly unknown a priori, their detection is still an open research question. To this end, we propose DifferNet: It leverages the descriptiveness of features extracted by convolutional neural networks to estimate their density using normalizing flows. Normalizing flows are well-suited to deal with low dimensional data distributions. However, they struggle with the high dimensionality of images. Therefore, we employ a multi-scale feature extractor which enables the normalizing flow to assign meaningful likelihoods to the images. Based on these likelihoods we develop a scoring function that indicates defects. Moreover, propagating the score back to the image enables pixel-wise localization. To achieve a high robustness and performance we exploit multiple transformations in training and evaluation. In contrast to most other methods, ours does not require a large number of training samples and performs well with as low as 16 images. We demonstrate the superior performance over existing approaches on the challenging and newly proposed MVTec AD and Magnetic Tile Defects datasets. | 翻訳日:2022-10-24 01:54:55 公開日:2020-08-28 |
# misogynistic tweet detection: small datasetsによるcnnのモデリング Misogynistic Tweet Detection: Modelling CNN with Small Datasets ( http://arxiv.org/abs/2008.12452v1 ) ライセンス: Link先を確認 | Md Abul Bashar, Richi Nayak, Nicolas Suzor, Bridget Weir | (参考訳) ソーシャルメディアプラットフォームであるTwitterで女性に向けられたオンライン虐待は、近年かなりの注目を集めている。
不正行為を効果的に識別する自動化手法は、持続時間における虐待ツイートに関連するパターン、要因、および応答の有効性の理解を改善することができる。
しかし、ニューラルネットワーク(NN)モデルをラベル付きデータの小さなセットでトレーニングし、偽造的ツイートを検出することは困難である。
これは部分的には、偽造的コンテンツを含むツイートの複雑な性質と、NNモデルで学習する必要がある膨大な数のパラメータが原因である。
我々は,nnモデルを学習して誤用ツイートを効果的に検出する方法を検討するために,一連の実験を行った。
特に,畳み込みニューラルネットワーク(convolutional neural network, cnn)アーキテクチャをカスタマイズし,規則化し,タスク固有のドメインで事前学習した単語ベクトルを用いて,ラベル付きデータの小さなセットが利用可能であればcnnモデルを効果的にトレーニングできることを示した。
この方法でトレーニングされたcnnモデルは、最先端モデルよりも精度が向上する。 Online abuse directed towards women on the social media platform Twitter has attracted considerable attention in recent years. An automated method to effectively identify misogynistic abuse could improve our understanding of the patterns, driving factors, and effectiveness of responses associated with abusive tweets over a sustained time period. However, training a neural network (NN) model with a small set of labelled data to detect misogynistic tweets is difficult. This is partly due to the complex nature of tweets which contain misogynistic content, and the vast number of parameters needed to be learned in a NN model. We have conducted a series of experiments to investigate how to train a NN model to detect misogynistic tweets effectively. In particular, we have customised and regularised a Convolutional Neural Network (CNN) architecture and shown that the word vectors pre-trained on a task-specific domain can be used to train a CNN model effectively when a small set of labelled data is available. A CNN model trained in this way yields an improved accuracy over the state-of-the-art models. | 翻訳日:2022-10-24 01:49:07 公開日:2020-08-28 |
# 対話型機械学習のためのヒューマン・イン・ザ・ループ・ユーザフィードバックによるモデル精度の信頼度と印象の低減 Soliciting Human-in-the-Loop User Feedback for Interactive Machine Learning Reduces User Trust and Impressions of Model Accuracy ( http://arxiv.org/abs/2008.12735v1 ) ライセンス: Link先を確認 | Donald R. Honeycutt, Mahsan Nourani, Eric D. Ragan | (参考訳) 混合開始システムにより、ユーザは対話的にフィードバックを提供し、システムパフォーマンスを改善できる。
ヒューマンフィードバックはモデルエラーを修正し、モデルパラメータを更新して変更データに動的に適応する。
さらに、多くのユーザは、依存するシステムのより高度なコントロールと認識上の欠陥を修正する能力を求めている。
しかし、自律システムにフィードバックを提供する能力がユーザーの信頼にどのように影響するかは、ほとんど未調査の研究分野である。
本研究は,フィードバックの提供行為が知的システムのユーザ理解とその正確性に与える影響について検討する。
シミュレーション対象検出システムと画像データを用いた制御実験を行い,対話型フィードバック収集がユーザ印象に与える影響について検討する。
その結果, ループ内フィードバックの提供は, フィードバックに応じてシステム精度が向上したか否かに関わらず, システムに対する信頼度とシステム精度の認知度を低下させた。
これらの結果は、インテリジェントシステムを設計する際にエンドユーザのフィードバックがユーザ信頼に与える影響を検討することの重要性を浮き彫りにしている。 Mixed-initiative systems allow users to interactively provide feedback to potentially improve system performance. Human feedback can correct model errors and update model parameters to dynamically adapt to changing data. Additionally, many users desire the ability to have a greater level of control and fix perceived flaws in systems they rely on. However, how the ability to provide feedback to autonomous systems influences user trust is a largely unexplored area of research. Our research investigates how the act of providing feedback can affect user understanding of an intelligent system and its accuracy. We present a controlled experiment using a simulated object detection system with image data to study the effects of interactive feedback collection on user impressions. The results show that providing human-in-the-loop feedback lowered both participants' trust in the system and their perception of system accuracy, regardless of whether the system accuracy improved in response to their feedback. These results highlight the importance of considering the effects of allowing end-user feedback on user trust when designing intelligent systems. | 翻訳日:2022-10-24 01:48:15 公開日:2020-08-28 |
# 生成型adversarial networkを用いたリレーショナルデータ合成:設計空間探索 Relational Data Synthesis using Generative Adversarial Networks: A Design Space Exploration ( http://arxiv.org/abs/2008.12763v1 ) ライセンス: Link先を確認 | Ju Fan, Tongyu Liu, Guoliang Li, Junyou Chen, Yuwei Shen, Xiaoyong Du | (参考訳) ビッグデータの普及は、プライバシー保護データ公開の急激な需要をもたらした。
この要求に対する従来のソリューションは、公開データのプライバシとユーティリティのトレードオフを効果的にバランスさせる上での制限がある。
そこで,データベースコミュニティと機械学習コミュニティは,GAN(Generative Adversarial Network)を用いたリレーショナルデータ合成の新たな課題を最近研究し,様々なアルゴリズムを提案する。
しかし,これらのアルゴリズムは同一の枠組みでは比較されないため,実践者がGANの利点や限界を理解することは困難である。
このギャップを埋めるために、我々は、GANを関係データ合成に適用することを研究する最も包括的な実験研究を行っている。
統合されたGANベースのフレームワークを導入し、ニューラルネットワークアーキテクチャやトレーニング戦略を含むフレームワークの各コンポーネントの設計ソリューションの空間を定義します。
設計空間を探索する広範な実験を行い、従来のデータ合成手法と比較する。
広範な実験を通して、GANは関係データ合成に非常に有望であり、適切な設計ソリューションを選択するためのガイダンスを提供する。
また,GANの限界を指摘し,今後の研究の方向性を明らかにした。 The proliferation of big data has brought an urgent demand for privacy-preserving data publishing. Traditional solutions to this demand have limitations on effectively balancing the tradeoff between privacy and utility of the released data. Thus, the database community and machine learning community have recently studied a new problem of relational data synthesis using generative adversarial networks (GAN) and proposed various algorithms. However, these algorithms are not compared under the same framework and thus it is hard for practitioners to understand GAN's benefits and limitations. To bridge the gaps, we conduct so far the most comprehensive experimental study that investigates applying GAN to relational data synthesis. We introduce a unified GAN-based framework and define a space of design solutions for each component in the framework, including neural network architectures and training strategies. We conduct extensive experiments to explore the design space and compare with traditional data synthesis approaches. Through extensive experiments, we find that GAN is very promising for relational data synthesis, and provide guidance for selecting appropriate design solutions. We also point out limitations of GAN and identify future research directions. | 翻訳日:2022-10-24 01:47:57 公開日:2020-08-28 |
# ディープニューラルネットワークによる短期交通予測:サーベイ Short-term Traffic Prediction with Deep Neural Networks: A Survey ( http://arxiv.org/abs/2009.00712v1 ) ライセンス: Link先を確認 | Kyungeun Lee, Moonjung Eo, Euna Jung, Yoonjin Yoon, and Wonjong Rhee | (参考訳) 現代の交通システムでは、毎日大量の交通データが生成される。
これにより,最近深層学習手法が適用された短期交通予測(STTP)が急速に進展した。
複雑な時空間関係を持つトラフィックネットワークでは、ディープニューラルネットワーク(DNN)は、最も重要な特徴やパターンを自動的に抽出できるため、よく機能する。
本研究では,深層ネットワークを応用したsttp研究を4つの視点から行った。
1) 関係する空間的・時間的依存関係の数と種類に応じて入力データ表現法を要約する。
2)Restricted Boltzmann Machinesを含む最初期のネットワークから,グラフベースおよびメタラーニングネットワークを含む最新のネットワークまで,幅広いDNN技術について簡単に説明する。
3) DNN技術の種類, アプリケーション領域, データセットとコード可用性, 表現された時空間依存性のタイプについて, これまでのSTTP研究を要約する。
4) 一般的な公開トラフィックデータセットをコンパイルし、標準ベンチマークとして使用できる。
最後に,STTPにおける課題と今後の研究方向性を提案する。 In modern transportation systems, an enormous amount of traffic data is generated every day. This has led to rapid progress in short-term traffic prediction (STTP), in which deep learning methods have recently been applied. In traffic networks with complex spatiotemporal relationships, deep neural networks (DNNs) often perform well because they are capable of automatically extracting the most important features and patterns. In this study, we survey recent STTP studies applying deep networks from four perspectives. 1) We summarize input data representation methods according to the number and type of spatial and temporal dependencies involved. 2) We briefly explain a wide range of DNN techniques from the earliest networks, including Restricted Boltzmann Machines, to the most recent, including graph-based and meta-learning networks. 3) We summarize previous STTP studies in terms of the type of DNN techniques, application area, dataset and code availability, and the type of the represented spatiotemporal dependencies. 4) We compile public traffic datasets that are popular and can be used as the standard benchmarks. Finally, we suggest challenging issues and possible future research directions in STTP. | 翻訳日:2022-10-24 01:47:38 公開日:2020-08-28 |
# スパースPCAのためのエクササイズと近似アルゴリズム Exact and Approximation Algorithms for Sparse PCA ( http://arxiv.org/abs/2008.12438v1 ) ライセンス: Link先を確認 | Yongchun Li and Weijun Xie | (参考訳) Sparse PCA(SPCA)は、機械学習とデータ分析の基本的なモデルであり、金融、製造、生物学、医療など、さまざまな応用分野を目撃してきた。
共分散行列から予め定められたサイズの主部分行列を選択してその最大固有値を最大化するために、spcaは特徴選択と次元縮小の両方で従来のpcaを前進させる。
本稿では,共分散行列のスペクトル分解と最大固有値の性質を利用して,2つの正確な混合整数SDP(MISDP)を提案する。
次に、連続緩和値の理論的最適性ギャップを分析し、それらが最先端値よりも強いことを証明した。
さらに,2つのMISDPの連続緩和を半定円錐を含まないサドル点問題として再キャストできることを示し,従次法のような一階法で効果的に解けることを示した。
市販の解法は一般にMISDPを解くのが難しいため,MISDPと同等の大きさのMILP(mixed-integer linear program)を用いてSPCAを任意の精度で近似する。
よりスケーラブルにするために、グリードと局所探索アルゴリズムを分析し、最初の近似比を証明し、近似比が厳密であることを示す。
数値解析により,提案したMISDPの連続緩和値は極めて最適に近づき,提案したMILPモデルは小・中規模のインスタンスを最適に解くことができ,近似アルゴリズムは全インスタンスに対して非常によく動作することを示した。
最後に,複数の共分散行列が存在する場合,非対称行列を用いたランクワンスパースSVD (R1-SSVD) と,保護群に対応するスパースフェアPCA (SFPCA) に解析を拡張した。 Sparse PCA (SPCA) is a fundamental model in machine learning and data analytics, which has witnessed a variety of application areas such as finance, manufacturing, biology, healthcare. To select a prespecified-size principal submatrix from a covariance matrix to maximize its largest eigenvalue for the better interpretability purpose, SPCA advances the conventional PCA with both feature selection and dimensionality reduction. This paper proposes two exact mixed-integer SDPs (MISDPs) by exploiting the spectral decomposition of the covariance matrix and the properties of the largest eigenvalues. We then analyze the theoretical optimality gaps of their continuous relaxation values and prove that they are stronger than that of the state-of-art one. We further show that the continuous relaxations of two MISDPs can be recast as saddle point problems without involving semi-definite cones, and thus can be effectively solved by first-order methods such as the subgradient method. Since off-the-shelf solvers, in general, have difficulty in solving MISDPs, we approximate SPCA with arbitrary accuracy by a mixed-integer linear program (MILP) of a similar size as MISDPs. To be more scalable, we also analyze greedy and local search algorithms, prove their first-known approximation ratios, and show that the approximation ratios are tight. Our numerical study demonstrates that the continuous relaxation values of the proposed MISDPs are quite close to optimality, the proposed MILP model can solve small and medium-size instances to optimality, and the approximation algorithms work very well for all the instances. Finally, we extend the analyses to Rank-one Sparse SVD (R1-SSVD) with non-symmetric matrices and Sparse Fair PCA (SFPCA) when there are multiple covariance matrices, each corresponding to a protected group. | 翻訳日:2022-10-24 01:47:21 公開日:2020-08-28 |
# 符号付き指向ネットワークのための分離型変分埋め込み Decoupled Variational Embedding for Signed Directed Networks ( http://arxiv.org/abs/2008.12450v1 ) ライセンス: Link先を確認 | Xu Chen and Jiangchao Yao and Maosen Li and Ya zhang and Yanfeng Wang | (参考訳) 署名付きネットワークのためのノード表現学習は、リンクサイン予測、ノード分類、ノードレコメンデーションなど、多くの現実世界のアプリケーションで注目されている。
問題は、ネットワークの複雑なトポロジー情報を適切にエンコードする方法にある。
近年の研究では,ノードの近接性関係を示す一階ネットワークトポロジーの保存に重点を置いている。
しかし、これらの手法は一般にノードの局所構造を示し、ネットワークトポロジーの本質的特性として機能する高次トポロジーを捉えることができない。
加えて、一階トポロジーでは、存在しないリンクの付加値はほとんど無視される。
本稿では,符号付き有向ネットワークにおける一階と高階のトポロジを同時に捉えることにより,代表ノード埋め込みについてさらに学ぶことを提案する。
特に,符号付き有向ネットワークにおける表現学習問題を変分自己符号化の観点から再構成し,さらにdve(decoupled variational embedded)法を考案する。
DVEは、特別に設計されたオートエンコーダ構造を利用して、署名された有向ネットワークの1次トポロジと高次トポロジの両方をキャプチャし、より代表的なノード埋め込みを学ぶ。
広く使われている3つの実世界のデータセットで広範な実験が行われている。
リンクサイン予測とノードレコメンデーションタスクの総合的な結果は、DVEの有効性を示す。
DVEをよりよく理解するために、定性的な結果と分析も与えられる。 Node representation learning for signed directed networks has received considerable attention in many real-world applications such as link sign prediction, node classification and node recommendation. The challenge lies in how to adequately encode the complex topological information of the networks. Recent studies mainly focus on preserving the first-order network topology which indicates the closeness relationships of nodes. However, these methods generally fail to capture the high-order topology which indicates the local structures of nodes and serves as an essential characteristic of the network topology. In addition, for the first-order topology, the additional value of non-existent links is largely ignored. In this paper, we propose to learn more representative node embeddings by simultaneously capturing the first-order and high-order topology in signed directed networks. In particular, we reformulate the representation learning problem on signed directed networks from a variational auto-encoding perspective and further develop a decoupled variational embedding (DVE) method. DVE leverages a specially designed auto-encoder structure to capture both the first-order and high-order topology of signed directed networks, and thus learns more representative node embedding. Extensive experiments are conducted on three widely used real-world datasets. Comprehensive results on both link sign prediction and node recommendation task demonstrate the effectiveness of DVE. Qualitative results and analysis are also given to provide a better understanding of DVE. | 翻訳日:2022-10-24 01:46:49 公開日:2020-08-28 |
# agtboost: 適応的で自動的なGradient Tree Boosting Computation agtboost: Adaptive and Automatic Gradient Tree Boosting Computations ( http://arxiv.org/abs/2008.12625v1 ) ライセンス: Link先を確認 | Berent {\AA}nund Str{\o}mnes Lunde, Tore Selland Kleppe | (参考訳) agtboostは高速勾配木を実装したrパッケージで、xgboostやlightgbmのような他の確立されたフレームワークと同様の方法で計算を加速するが、計算時間と必要な数学的、技術的知識は大幅に減少する。
パッケージは自動的に分割/非分割の判断を処理し、勾配木内の木数を増やすアンサンブル、すなわち、アグトブーストはアンサンブルの複雑さをデータ内の情報に自動的に適応させる。
これら全ては単一のトレーニング実行中に行われ、木アルゴリズムに対する情報理論の発展を利用して実現される。
agtboostにはノイズ機能を挿入する一般的なプラクティスを排除する機能の重要性も備えている。
さらに、有用なモデル検証関数は、学習された分布に関するコルモゴロフ・スミルノフテストを実行する。 agtboost is an R package implementing fast gradient tree boosting computations in a manner similar to other established frameworks such as xgboost and LightGBM, but with significant decreases in computation time and required mathematical and technical knowledge. The package automatically takes care of split/no-split decisions and selects the number of trees in the gradient tree boosting ensemble, i.e., agtboost adapts the complexity of the ensemble automatically to the information in the data. All of this is done during a single training run, which is made possible by utilizing developments in information theory for tree algorithms {\tt arXiv:2008.05926v1 [stat.ME]}. agtboost also comes with a feature importance function that eliminates the common practice of inserting noise features. Further, a useful model validation function performs the Kolmogorov-Smirnov test on the learned distribution. | 翻訳日:2022-10-24 01:46:28 公開日:2020-08-28 |
# 侵入検出のための自己組織マップ支援深部自動符号化ガウス混合モデル Self-Organizing Map assisted Deep Autoencoding Gaussian Mixture Model for Intrusion Detection ( http://arxiv.org/abs/2008.12686v1 ) ライセンス: Link先を確認 | Yang Chen, Nami Ashizawa, Seanglidet Yean, Chai Kiat Yeo, Naoto Yanai | (参考訳) 情報時代においては、安全で安定したネットワーク環境が不可欠であるため、侵入検知はあらゆるネットワークにとって重要である。
本稿では,より正確なネットワーク侵入検出のために,よく保存された入力空間トポロジーを補足した,深層自己符号化型ガウス混合モデル(somdagmm)を提案する。
深層自己符号化ガウス混合モデルは、非教師なし合同訓練が可能な圧縮ネットワークと推定ネットワークとを含む。
しかし、オートエンコーダによって生成されたコードは、採用されている深層構造のボトルネックに根ざした入力空間のトポロジを保存できない。
この問題に対処するためのSOMDAGMMを構築するための自己組織化マップが導入された。
提案したSOM-DAGMMの優位性は、2つのデータセットに対して広範な実験を行うことで実証的に実証される。
実験の結果、SOM-DAGMMは全ての試験において最先端のDAGMMより優れ、F1スコアが最大15.58%向上し、安定性が向上した。 In the information age, a secure and stable network environment is essential and hence intrusion detection is critical for any networks. In this paper, we propose a self-organizing map assisted deep autoencoding Gaussian mixture model (SOMDAGMM) supplemented with well-preserved input space topology for more accurate network intrusion detection. The deep autoencoding Gaussian mixture model comprises a compression network and an estimation network which is able to perform unsupervised joint training. However, the code generated by the autoencoder is inept at preserving the topology of the input space, which is rooted in the bottleneck of the adopted deep structure. A self-organizing map has been introduced to construct SOMDAGMM for addressing this issue. The superiority of the proposed SOM-DAGMM is empirically demonstrated with extensive experiments conducted upon two datasets. Experimental results show that SOM-DAGMM outperforms state-of-the-art DAGMM on all tests, and achieves up to 15.58% improvement in F1 score and with better stability. | 翻訳日:2022-10-24 01:46:11 公開日:2020-08-28 |
# 知識伝達による短距離物体検出 Few-Shot Object Detection via Knowledge Transfer ( http://arxiv.org/abs/2008.12496v1 ) ライセンス: Link先を確認 | Geonuk Kim, Hong-Gyu Jung, Seong-Whan Lee | (参考訳) オブジェクト検出の従来の方法は、通常大量のトレーニングデータと注釈付きバウンディングボックスを必要とする。
わずかなトレーニングデータとアノテーションがなければ、オブジェクト検出器は簡単にオーバーフィットし、一般化に失敗する。
物体検出器の実用的弱点を露呈する。
一方、人間は事前学習した知識を使って、ほんの数回のデモンストレーションで新しい推論ルールを簡単に習得することができる。
本稿では,いくつかの学習例から物体を検出することを目的とした知識伝達による数発の物体検出を提案する。
この手法の中心はメタリーナーを付加した知識伝達の原型である。
メタラーナーは、新しいカテゴリとベースカテゴリのいくつかの例を含むサポートセットイメージを取得し、各カテゴリをベクトルとして表現するプロトタイプを予測する。
そして、プロトタイプはクエリ画像から各RoI特徴ベクトルを再重み付けし、R-CNN予測ヘッドをリモデリングする。
提案手法は, グラフ構造下でのプロトタイプを予測し, カテゴリ間の相関関係を表す事前知識の明示的なガイダンスを用いて, 関連するベースカテゴリの情報を新しいカテゴリに伝達する。
PASCAL VOCデータセットの大規模な実験により,提案手法の有効性が検証された。 Conventional methods for object detection usually require substantial amounts of training data and annotated bounding boxes. If there are only a few training data and annotations, the object detectors easily overfit and fail to generalize. It exposes the practical weakness of the object detectors. On the other hand, human can easily master new reasoning rules with only a few demonstrations using previously learned knowledge. In this paper, we introduce a few-shot object detection via knowledge transfer, which aims to detect objects from a few training examples. Central to our method is prototypical knowledge transfer with an attached meta-learner. The meta-learner takes support set images that include the few examples of the novel categories and base categories, and predicts prototypes that represent each category as a vector. Then, the prototypes reweight each RoI (Region-of-Interest) feature vector from a query image to remodels R-CNN predictor heads. To facilitate the remodeling process, we predict the prototypes under a graph structure, which propagates information of the correlated base categories to the novel categories with explicit guidance of prior knowledge that represents correlations among categories. Extensive experiments on the PASCAL VOC dataset verifies the effectiveness of the proposed method. | 翻訳日:2022-10-24 01:38:41 公開日:2020-08-28 |
# 合成構造空間を用いた人・人・文脈合成 Person-in-Context Synthesiswith Compositional Structural Space ( http://arxiv.org/abs/2008.12679v1 ) ライセンス: Link先を確認 | Weidong Yin, Ziwei Liu, Leonid Sigal | (参考訳) 著しい進歩にもかかわらず、相互作用する人々との複雑な画像の制御は依然として困難である。
既存のレイアウト生成手法は現実的な人物のインスタンスを合成するに足りず、ポーズ誘導型生成手法は一人の人物に焦点を当て、単純な背景や既知の背景を仮定する。
これらの制約に対処するために、ユーザ制御を両立させて、多様な個人インスタンスを一貫したコンテキストで合成することを目的とした、新しい問題であるtextbf{Persons in Context Synthesis}を提案する。
コンテキストは、形状情報を欠いたバウンディングボックスオブジェクトレイアウトで指定され、キーポイントによる人物のポーズは、わずかに注釈付けされている。
入力構造におけるスターク差に対処するため,各(コンテキスト/人物)入力を共用した「複合構造空間」に意図的に合成する2つの別個の神経枝を提案し,その形状,位置,外観情報を不整合な方法で符号化した。
この構造空間は、多レベル特徴変調戦略を用いて画像空間にデコードされ、画像収集とその対応する入力から自己教師付きで学習される。
2つの大規模データセット(coco-stuff \cite{caesar2018cvpr} と visual genome \cite{krishna2017visual})に関する広範囲な実験は、我々のフレームワークが最先端のメソッドw.r.t.合成品質を上回ることを示している。 Despite significant progress, controlled generation of complex images with interacting people remains difficult. Existing layout generation methods fall short of synthesizing realistic person instances; while pose-guided generation approaches focus on a single person and assume simple or known backgrounds. To tackle these limitations, we propose a new problem, \textbf{Persons in Context Synthesis}, which aims to synthesize diverse person instance(s) in consistent contexts, with user control over both. The context is specified by the bounding box object layout which lacks shape information, while pose of the person(s) by keypoints which are sparsely annotated. To handle the stark difference in input structures, we proposed two separate neural branches to attentively composite the respective (context/person) inputs into shared ``compositional structural space'', which encodes shape, location and appearance information for both context and person structures in a disentangled manner. This structural space is then decoded to the image space using multi-level feature modulation strategy, and learned in a self supervised manner from image collections and their corresponding inputs. Extensive experiments on two large-scale datasets (COCO-Stuff \cite{caesar2018cvpr} and Visual Genome \cite{krishna2017visual}) demonstrate that our framework outperforms state-of-the-art methods w.r.t. synthesis quality. | 翻訳日:2022-10-24 01:38:25 公開日:2020-08-28 |
# ドメインの一般化における特異性と不変性のバランスをとるための学習 Learning to Balance Specificity and Invariance for In and Out of Domain Generalization ( http://arxiv.org/abs/2008.12839v1 ) ライセンス: Link先を確認 | Prithvijit Chattopadhyay, Yogesh Balaji, Judy Hoffman | (参考訳) ドメイン内および外部の一般化性能を改善するモデルである一般化のためのドメイン固有マスクを紹介する。
ドメインの一般化のために、ゴールはソースドメインの集合から学び、見えないターゲットドメインに最もよく一般化する単一のモデルを作成することである。
このように、従来の多くのアプローチは、これらのドメインに依存しない表現がうまく一般化すると仮定して、すべてのソースドメインにわたって持続する学習表現にフォーカスする。
しかし、多くの場合、個々のドメインはユニークな特徴を持ち、レバレッジされた場合、ドメイン内認識性能を著しく助けることができる。
見えない領域と見えない領域の両方に最もよく一般化するモデルを作成するため、我々は学習するドメイン固有のマスクを提案する。
マスクは、ドメイン不変性とドメイン固有特徴のバランスを学習することを奨励されており、ドメイン不変特徴の普遍的適用性を維持しつつ、特殊特徴の予測力の恩恵を受けるモデルを可能にする。
本研究では,PACSとDomainNetの両面において,単純なベースラインと最先端の手法と比較して,競合性能を示す。 We introduce Domain-specific Masks for Generalization, a model for improving both in-domain and out-of-domain generalization performance. For domain generalization, the goal is to learn from a set of source domains to produce a single model that will best generalize to an unseen target domain. As such, many prior approaches focus on learning representations which persist across all source domains with the assumption that these domain agnostic representations will generalize well. However, often individual domains contain characteristics which are unique and when leveraged can significantly aid in-domain recognition performance. To produce a model which best generalizes to both seen and unseen domains, we propose learning domain specific masks. The masks are encouraged to learn a balance of domain-invariant and domain-specific features, thus enabling a model which can benefit from the predictive power of specialized features while retaining the universal applicability of domain-invariant features. We demonstrate competitive performance compared to naive baselines and state-of-the-art methods on both PACS and DomainNet. | 翻訳日:2022-10-24 01:37:55 公開日:2020-08-28 |
# 背景分割:背景の海に希少なクラスを見つける Background Splitting: Finding Rare Classes in a Sea of Background ( http://arxiv.org/abs/2008.12873v1 ) ライセンス: Link先を確認 | Ravi Teja Mullapudi, Fait Poms, William R. Mark, Deva Ramanan, Kayvon Fatahalian | (参考訳) 我々は,少数の稀なカテゴリの画像分類のための,正確な深部モデルの訓練に焦点をあてる。
これらのシナリオでは、ほとんどの画像はデータセットの背景カテゴリに属します(データセットの95%は背景です)。
非バランスなデータセットをトレーニングするための標準的な微調整アプローチと最先端アプローチの両方が、この極端な不均衡の存在下で正確な深層モデルを生成していないことを実証する。
背景カテゴリによる極端な不均衡は,既存の事前学習モデルからの視覚知識を活用することで劇的に低減できる。
具体的には、トレーニング中に事前訓練されたモデルを用いて、背景カテゴリをより小さくよりコヒーレントな擬似カテゴリに「分割」する。
既存の学習済み画像分類モデルの予測を模倣することを学ぶ補助的損失を追加することで、背景分割を画像分類モデルに組み込む。
このプロセスは自動であり、追加のマニュアルラベルを必要としない。
補助損失は、それまでの均質な背景インスタンスを識別する必要により共有ネットワークトランクの特徴表現を規則化し、少数の稀なカテゴリー正に過度に適合する。
また,BG分割を他のバックグラウンド不均衡手法と組み合わせることで,さらなる性能向上が期待できることを示す。
iNaturalistデータセットの修正版では、トレーニング中にレアカテゴリラベルの小さなサブセットしか利用できない(他のすべての画像は背景としてラベル付けされている)。
ImageNetカテゴリと選択したiNaturalistカテゴリを共同で認識することで、データの99.98%がバックグラウンドである場合、細調整ベースラインよりも42.3mAPポイント、98.30%がバックグラウンドである場合には8.3mAPポイントというパフォーマンスが得られる。 We focus on the real-world problem of training accurate deep models for image classification of a small number of rare categories. In these scenarios, almost all images belong to the background category in the dataset (>95% of the dataset is background). We demonstrate that both standard fine-tuning approaches and state-of-the-art approaches for training on imbalanced datasets do not produce accurate deep models in the presence of this extreme imbalance. Our key observation is that the extreme imbalance due to the background category can be drastically reduced by leveraging visual knowledge from an existing pre-trained model. Specifically, the background category is "split" into smaller and more coherent pseudo-categories during training using a pre-trained model. We incorporate background splitting into an image classification model by adding an auxiliary loss that learns to mimic the predictions of the existing, pre-trained image classification model. Note that this process is automatic and requires no additional manual labels. The auxiliary loss regularizes the feature representation of the shared network trunk by requiring it to discriminate between previously homogeneous background instances and reduces overfitting to the small number of rare category positives. We also show that BG splitting can be combined with other background imbalance methods to further improve performance. We evaluate our method on a modified version of the iNaturalist dataset where only a small subset of rare category labels are available during training (all other images are labeled as background). By jointly learning to recognize ImageNet categories and selected iNaturalist categories, our approach yields performance that is 42.3 mAP points higher than a fine-tuning baseline when 99.98% of the data is background, and 8.3 mAP points higher than SotA baselines when 98.30% of the data is background. | 翻訳日:2022-10-24 01:37:37 公開日:2020-08-28 |
# QutNocturnal@HASOC'19:ヒンディー語におけるヘイトスピーチと攻撃的内容同定のためのCNN QutNocturnal@HASOC'19: CNN for Hate Speech and Offensive Content Identification in Hindi Language ( http://arxiv.org/abs/2008.12448v1 ) ライセンス: Link先を確認 | Md Abul Bashar, Richi Nayak | (参考訳) FIRE 2019が主催したHASOCコンテストで,Hindiのタスク1に対するトップチームソリューションについて説明する。
タスクはヒンディー語におけるヘイトスピーチと攻撃言語を特定することである。
より具体的には、システムがツイートを2つのクラスに分類する必要があるバイナリ分類の問題である。
a) \emph{Hate and Offensive (HOF) および
(b) 「憎しみも嫌わない(not hate)」。
wikipediaのような一般的なドメインから大きなコーパスで単語ベクトル(すなわち単語埋め込み)を事前学習するという一般的な考えとは対照的に、比較的小さな関連ツイート(ヒンズー語やヒンズー語でランダムなツイートや皮肉のツイート)を事前学習に使用した。
我々は、事前訓練された単語ベクトルの上に畳み込みニューラルネットワーク(CNN)を訓練した。
このアプローチによって、このタスクをすべてのチームの中で最初にランク付けできるようになりました。
我々のアプローチは、提供されたコンテキストが制限されたときにテキストのクラスを予測することを目標とする他のアプリケーションにも容易に適用できます。 We describe our top-team solution to Task 1 for Hindi in the HASOC contest organised by FIRE 2019. The task is to identify hate speech and offensive language in Hindi. More specifically, it is a binary classification problem where a system is required to classify tweets into two classes: (a) \emph{Hate and Offensive (HOF)} and (b) \emph{Not Hate or Offensive (NOT)}. In contrast to the popular idea of pretraining word vectors (a.k.a. word embedding) with a large corpus from a general domain such as Wikipedia, we used a relatively small collection of relevant tweets (i.e. random and sarcasm tweets in Hindi and Hinglish) for pretraining. We trained a Convolutional Neural Network (CNN) on top of the pretrained word vectors. This approach allowed us to be ranked first for this task out of all teams. Our approach could easily be adapted to other applications where the goal is to predict class of a text when the provided context is limited. | 翻訳日:2022-10-24 01:37:09 公開日:2020-08-28 |
# TATL at W-NUT 2020 Task 2: A Baseline System for Identification of Informative COVID-19 English Tweets (英語) TATL at W-NUT 2020 Task 2: A Transformer-based Baseline System for Identification of Informative COVID-19 English Tweets ( http://arxiv.org/abs/2008.12854v1 ) ライセンス: Link先を確認 | Anh Tuan Nguyen | (参考訳) 新型コロナウイルス(covid-19)の流行が世界中に広がるにつれ、パンデミックに関する情報がソーシャルメディアで公開されてきている。
たとえば、twitterには毎日大量のcovid-19英語ツイートがある。
しかし、これらのツイートの大部分は非形式的であるため、ダウンストリームアプリケーション用の情報のみを自動的に選択できることが重要である。
本稿では,w-nut 2020 share task 2: identification of informative covid-19 english tweets への参加について述べる。
事前訓練されたトランスフォーマー言語モデルの最近の進歩に触発されて,タスクの単純かつ効果的なベースラインを提案する。
そのシンプルさにもかかわらず、提案手法はリーダーボードにおいて非常に競争的な結果を示しており、56チーム中8チームが参加した。 As the COVID-19 outbreak continues to spread throughout the world, more and more information about the pandemic has been shared publicly on social media. For example, there are a huge number of COVID-19 English Tweets daily on Twitter. However, the majority of those Tweets are uninformative, and hence it is important to be able to automatically select only the informative ones for downstream applications. In this short paper, we present our participation in the W-NUT 2020 Shared Task 2: Identification of Informative COVID-19 English Tweets. Inspired by the recent advances in pretrained Transformer language models, we propose a simple yet effective baseline for the task. Despite its simplicity, our proposed approach shows very competitive results in the leaderboard as we ranked 8 over 56 teams participated in total. | 翻訳日:2022-10-24 01:31:29 公開日:2020-08-28 |
# 説明可能な誤情報検出のためのlinked credibility review Linked Credibility Reviews for Explainable Misinformation Detection ( http://arxiv.org/abs/2008.12742v1 ) ライセンス: Link先を確認 | Ronald Denaux and Jose Manuel Gomez-Perez | (参考訳) 近年,web上の誤情報が急増している。
研究コミュニティは、誤った情報を検出する(さまざまなサブタスク)のに役立つシステムや課題を提案して対応している。
しかし,提案するシステムの多くは,特定のドメインに微調整された深層学習技術に基づいており,機械が読めない結果の解釈や生成が困難である。
これにより、特定の設定で特定の専門家によってのみ使用できるため、適用性と採用が制限される。
本稿では,信頼度評価(crs)のコア概念に基づくアーキテクチャを提案する。
CRはグラフを構成するためのビルディングブロックとして機能する
(i)ウェブコンテンツ。
(ii)既存の信用度信号 --ウェブサイトの事実確認クレームと評判レビュー--
(iii)自動計算によるレビュー。
Schema.orgの軽量拡張と,意味的類似性と姿勢検出のための汎用NLPタスクを提供するサービス上に,このアーキテクチャを実装している。
ソーシャルメディア投稿、フェイクニュース、政治演説の既存のデータセットの評価は、拡張性、ドメイン独立性、コンポーザビリティ、説明可能性、プロヴァンスを通じた透明性といった既存のシステムに対するいくつかの利点を示しています。
さらに、我々は微調整を必要とせずに競争結果を得、Clef'18 CheckThatの新たな最先端技術を確立する。
事実性タスク。 In recent years, misinformation on the Web has become increasingly rampant. The research community has responded by proposing systems and challenges, which are beginning to be useful for (various subtasks of) detecting misinformation. However, most proposed systems are based on deep learning techniques which are fine-tuned to specific domains, are difficult to interpret and produce results which are not machine readable. This limits their applicability and adoption as they can only be used by a select expert audience in very specific settings. In this paper we propose an architecture based on a core concept of Credibility Reviews (CRs) that can be used to build networks of distributed bots that collaborate for misinformation detection. The CRs serve as building blocks to compose graphs of (i) web content, (ii) existing credibility signals --fact-checked claims and reputation reviews of websites--, and (iii) automatically computed reviews. We implement this architecture on top of lightweight extensions to Schema.org and services providing generic NLP tasks for semantic similarity and stance detection. Evaluations on existing datasets of social-media posts, fake news and political speeches demonstrates several advantages over existing systems: extensibility, domain-independence, composability, explainability and transparency via provenance. Furthermore, we obtain competitive results without requiring finetuning and establish a new state of the art on the Clef'18 CheckThat! Factuality task. | 翻訳日:2022-10-24 01:31:15 公開日:2020-08-28 |
# EMアルゴリズムを用いた半教師付き学習:非構造予測と構造予測の比較研究 Semi-supervised Learning with the EM Algorithm: A Comparative Study between Unstructured and Structured Prediction ( http://arxiv.org/abs/2008.12442v1 ) ライセンス: Link先を確認 | Wenchong He and Zhe Jiang | (参考訳) 半教師付き学習はラベル付きサンプルとラベルなしサンプルの両方から予測モデルを学ぶことを目的としている。
この地域では広範な研究が行われている。
既存の研究の中で、予測最大化(EM)を用いた生成混合モデルは、明確な統計的性質のために一般的な方法である。
しかし、EMに基づく半教師付き学習に関する既存の文献は、サンプルが独立で同一に分布していると仮定して、非構造化予測に主に焦点をあてている。
構造予測におけるem-based semi-supervised approachの研究は限られている。
本稿では,emベース半教師付き学習における非構造化法と構造化法の比較研究を通じて,このギャップを埋めることを目的とする。
具体的には, それらの理論特性を比較検討した結果, いずれの手法も非ラベル標本のソフトクラス割当てと自己学習の一般化と見なすことができるが, ソフトクラス割当てでは構造制約も考慮している。
実世界の洪水マッピングデータセットのケーススタディを行い,その2つの手法を比較した。
その結果,フラッディングマッピングアプリケーションのコンテキストにおけるノイズや機能障害によるクラス混乱に対して,構造化emはより頑健であることが判明した。 Semi-supervised learning aims to learn prediction models from both labeled and unlabeled samples. There has been extensive research in this area. Among existing work, generative mixture models with Expectation-Maximization (EM) is a popular method due to clear statistical properties. However, existing literature on EM-based semi-supervised learning largely focuses on unstructured prediction, assuming that samples are independent and identically distributed. Studies on EM-based semi-supervised approach in structured prediction is limited. This paper aims to fill the gap through a comparative study between unstructured and structured methods in EM-based semi-supervised learning. Specifically, we compare their theoretical properties and find that both methods can be considered as a generalization of self-training with soft class assignment of unlabeled samples, but the structured method additionally considers structural constraint in soft class assignment. We conducted a case study on real-world flood mapping datasets to compare the two methods. Results show that structured EM is more robust to class confusion caused by noise and obstacles in features in the context of the flood mapping application. | 翻訳日:2022-10-24 01:30:52 公開日:2020-08-28 |
# トレーニングなしのトレーニング時間の予測 Predicting Training Time Without Training ( http://arxiv.org/abs/2008.12478v1 ) ライセンス: Link先を確認 | Luca Zancato, Alessandro Achille, Avinash Ravichandran, Rahul Bhotika, Stefano Soatto | (参考訳) 我々は,事前学習した深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
そこで我々は, 線形化モデルにより, 微調整中の深部ネットワークのトレーニングダイナミクスがよく近似されているという事実を活用する。
これにより、低次元確率微分方程式(SDE)を関数空間で解くことにより、トレーニング中の任意の時点におけるトレーニング損失と精度を近似することができる。
この結果を用いて、SGD(Stochastic Gradient Descent)が、トレーニングを行うことなく、与えられた損失にモデルを微調整するために必要な時間を予測することができる。
私たちの実験では、さまざまなデータセットとハイパーパラメータのエラーマージンの20%以内で、実際のトレーニングに比べて30倍から45倍のコスト削減で、resnetのトレーニング時間を予測できます。
また,本手法の計算・メモリコストをさらに削減する方法についても検討し,特に勾配行列のスペクトル特性を利用することで,サンプルのサブセットのみを処理しながら,大規模データセット上でのトレーニング時間を予測可能であることを示す。 We tackle the problem of predicting the number of optimization steps that a pre-trained deep network needs to converge to a given value of the loss function. To do so, we leverage the fact that the training dynamics of a deep network during fine-tuning are well approximated by those of a linearized model. This allows us to approximate the training loss and accuracy at any point during training by solving a low-dimensional Stochastic Differential Equation (SDE) in function space. Using this result, we are able to predict the time it takes for Stochastic Gradient Descent (SGD) to fine-tune a model to a given loss without having to perform any training. In our experiments, we are able to predict training time of a ResNet within a 20% error margin on a variety of datasets and hyper-parameters, at a 30 to 45-fold reduction in cost compared to actual training. We also discuss how to further reduce the computational and memory cost of our method, and in particular we show that by exploiting the spectral properties of the gradients' matrix it is possible predict training time on a large dataset while processing only a subset of the samples. | 翻訳日:2022-10-24 01:30:36 公開日:2020-08-28 |
# BLOB : 有機信号と帯域信号を組み合わせた勧告の確率モデル BLOB : A Probabilistic Model for Recommendation that Combines Organic and Bandit Signals ( http://arxiv.org/abs/2008.12504v1 ) ライセンス: Link先を確認 | Otmane Sakhi, Stephen Bonner, David Rohde, Flavian Vasile | (参考訳) 推薦システムのための一般的なタスクは、閲覧履歴の項目からユーザの関心事のプロレを作り、その後、同じカタログからユーザに推奨することである。
ユーザの行動は、介入なしに見た項目のシーケンス(有機的部分)と、推奨した項目のシーケンス(包括的部分)と結果(包括的部分)の2つの部分から構成される。
本稿では,推奨品質の評価を改善するために,<or-ganic>信号と<bandit>信号を組み合わせた確率論的手法であるBayesian Latent Organic Bandit Model (BLOB)を提案する。
バンディット信号はレコメンデーション性能の直接のフィードバックを与えるので価値があるが、過去のrecom-menderシステムで最適と考えられるレコメンデーションに非常に集中しており、信号品質は非常に不均一である。
対照的に、有機信号は通常強く、ほとんどの項目をカバーするが、推奨タスクには必ずしも関係がない。
有機信号を利用してベイズモデルでバンディット信号を選択的に学習するために、アクション・ヒストリー、アクション・アクション、ヒストリー・ヒストリーの3つの基本的な距離を同定する。
我々は,変分オートエンコーダと局所再並列化トリックを用いて,フルモデルのスケーラブルな近似を実装した。
提案手法は, 最先端の有機的推薦アルゴリズムと, 有機的およびバンディットに富む環境において, バンディットに基づく手法(価値とポリシーの両方)の両手法の両立あるいは適合性を示す。 A common task for recommender systems is to build a pro le of the interests of a user from items in their browsing history and later to recommend items to the user from the same catalog. The users' behavior consists of two parts: the sequence of items that they viewed without intervention (the organic part) and the sequences of items recommended to them and their outcome (the bandit part). In this paper, we propose Bayesian Latent Organic Bandit model (BLOB), a probabilistic approach to combine the 'or-ganic' and 'bandit' signals in order to improve the estimation of recommendation quality. The bandit signal is valuable as it gives direct feedback of recommendation performance, but the signal quality is very uneven, as it is highly concentrated on the recommendations deemed optimal by the past version of the recom-mender system. In contrast, the organic signal is typically strong and covers most items, but is not always relevant to the recommendation task. In order to leverage the organic signal to e ciently learn the bandit signal in a Bayesian model we identify three fundamental types of distances, namely action-history, action-action and history-history distances. We implement a scalable approximation of the full model using variational auto-encoders and the local re-paramerization trick. We show using extensive simulation studies that our method out-performs or matches the value of both state-of-the-art organic-based recommendation algorithms, and of bandit-based methods (both value and policy-based) both in organic and bandit-rich environments. | 翻訳日:2022-10-24 01:30:17 公開日:2020-08-28 |
# 総合的ビッグデータのためのテキストセマンティクスに基づく知的CNN-VAEテキスト表現技術 An Intelligent CNN-VAE Text Representation Technology Based on Text Semantics for Comprehensive Big Data ( http://arxiv.org/abs/2008.12522v1 ) ライセンス: Link先を確認 | Genggeng Liu, Canyang Guo, Lin Xie, Wenxi Liu, Naixue Xiong and Guolong Chen | (参考訳) ビッグデータの時代には、インターネットによって生成された大量のテキストデータが、さまざまなテキスト表現方法を生み出した。
自然言語処理(NLP)では、テキスト表現は、元の意味情報を失うことなく、コンピュータで処理できるベクトルに変換する。
しかし、これらの手法では、単語間の意味的特徴を効果的に抽出し、言語でポリセミーを区別することは困難である。
そこで、畳み込みニューラルネットワーク(CNN)と変分オートエンコーダ(VAE)に基づくテキスト特徴表現モデルを提案し、テキスト特徴を抽出し、得られたテキスト特徴表現をテキスト分類タスクに適用する。
CNNはテキストベクトルの特徴を抽出して単語間のセマンティクスを取得し、VAEを導入してテキスト特徴空間をガウス分布とより整合させる。
さらに、改良されたWord2vecモデルの出力を提案モデルの入力として使用し、同じ単語の異なる意味を異なる文脈で識別する。
実験結果から,k-nearest neighbor (KNN), random forest (RF) および Support vector machine (SVM) の分類アルゴリズムにおいて,提案モデルが優れていることが示された。 In the era of big data, a large number of text data generated by the Internet has given birth to a variety of text representation methods. In natural language processing (NLP), text representation transforms text into vectors that can be processed by computer without losing the original semantic information. However, these methods are difficult to effectively extract the semantic features among words and distinguish polysemy in language. Therefore, a text feature representation model based on convolutional neural network (CNN) and variational autoencoder (VAE) is proposed to extract the text features and apply the obtained text feature representation on the text classification tasks. CNN is used to extract the features of text vector to get the semantics among words and VAE is introduced to make the text feature space more consistent with Gaussian distribution. In addition, the output of the improved word2vec model is employed as the input of the proposed model to distinguish different meanings of the same word in different contexts. The experimental results show that the proposed model outperforms in k-nearest neighbor (KNN), random forest (RF) and support vector machine (SVM) classification algorithms. | 翻訳日:2022-10-24 01:29:46 公開日:2020-08-28 |
# 高速部分フーリエ変換 Fast Partial Fourier Transform ( http://arxiv.org/abs/2008.12559v1 ) ライセンス: Link先を確認 | Yong-chan Park, Jun-Gi Jang, U Kang | (参考訳) 時系列ベクトルが与えられた場合、フーリエ係数の特定部分を効率的に計算する方法は?
高速フーリエ変換(FFT)は、多くの機械学習アプリケーションにおいて離散フーリエ変換を計算するアルゴリズムである。
広く使われているにもかかわらず、すべての既知のFFTアルゴリズムは、ユーザが要求を指定するための微調整オプションを提供しておらず、すなわち、出力サイズ(計算されるフーリエ係数の数)は、入力サイズによってアルゴリズムによって決定される。
FFTを使用するすべてのアプリケーションが周波数領域の全スペクトルを必要とするわけではないため、余分な計算によって効率が低下する。
本稿では,係数を計算すべき任意の連続範囲を指定することができるクーリー・タキーアルゴリズムの注意深い修正である高速部分フーリエ変換(pft)を提案する。
入力および出力サイズに対するPFTの漸近時間複雑性と,その数値的精度を導出する。
実験の結果, 精度を犠牲にすることなく, 出力サイズを十分に小さくするために, 精度の高いFFTアルゴリズムよりも精度が高いことがわかった。 Given a time series vector, how can we efficiently compute a specified part of Fourier coefficients? Fast Fourier transform (FFT) is a widely used algorithm that computes the discrete Fourier transform in many machine learning applications. Despite its pervasive use, all known FFT algorithms do not provide a fine-tuning option for the user to specify one's demand, that is, the output size (the number of Fourier coefficients to be computed) is algorithmically determined by the input size. This matters because not every application using FFT requires the whole spectrum of the frequency domain, resulting in an inefficiency due to extra computation. In this paper, we propose a fast Partial Fourier Transform (PFT), a careful modification of the Cooley-Tukey algorithm that enables one to specify an arbitrary consecutive range where the coefficients should be computed. We derive the asymptotic time complexity of PFT with respect to input and output sizes, as well as its numerical accuracy. Experimental results show that our algorithm outperforms the state-of-the-art FFT algorithms, with an order of magnitude of speedup for sufficiently small output sizes without sacrificing accuracy. | 翻訳日:2022-10-24 01:28:50 公開日:2020-08-28 |
# スパース強化学習におけるサンプル効率:または、マネーバック Sample Efficiency in Sparse Reinforcement Learning: Or Your Money Back ( http://arxiv.org/abs/2008.12693v1 ) ライセンス: Link先を確認 | Trevor A. McInroe | (参考訳) スパース報酬は強化学習において難しい問題を示し、現実のロボット工学のような複雑なダイナミクスを持つ特定の領域では避けられない可能性がある。
hindsight experience replay (her) は近年のリプレイメモリ開発であり、エージェントは、たとえそうでなくても、記憶を変化させて成功を示すことによって、スパースな設定で学習することができる。
経験上、彼女はある程度成功したが、エージェントのリプレイメモリから引き出されたサンプルのメイクに関する保証は提供していない。
この結果、無価値の報酬を持つ記憶のみを含むミニバッチや、実際のゴールではなくHER調整された目標を達成する望ましくないポリシーを学ぶエージェントが生まれる。
本稿では,HERと協調して動作するリプレイメモリサンプリング機Or Your Money Back (OYMB)を紹介する。
OYMBは、エージェントのリプレイメモリに直接インタフェースを提供し、ミニバッチメイクの制御を可能にするとともに、HER調整メモリよりもリアルゴールメモリを優先する優先的なルックアップスキームを提供することにより、スパース設定でのトレーニング効率を向上させる。
3つの異なる環境にわたる5つのタスクでアプローチをテストします。
以上の結果から,HERとOYMBを併用すると,HER単独で性能が向上し,実際の目標をより早く達成するエージェントが学習されることが示唆された。 Sparse rewards present a difficult problem in reinforcement learning and may be inevitable in certain domains with complex dynamics such as real-world robotics. Hindsight Experience Replay (HER) is a recent replay memory development that allows agents to learn in sparse settings by altering memories to show them as successful even though they may not be. While, empirically, HER has shown some success, it does not provide guarantees around the makeup of samples drawn from an agent's replay memory. This may result in minibatches that contain only memories with zero-valued rewards or agents learning an undesirable policy that completes HER-adjusted goals instead of the actual goal. In this paper, we introduce Or Your Money Back (OYMB), a replay memory sampler designed to work with HER. OYMB improves training efficiency in sparse settings by providing a direct interface to the agent's replay memory that allows for control over minibatch makeup, as well as a preferential lookup scheme that prioritizes real-goal memories before HER-adjusted memories. We test our approach on five tasks across three unique environments. Our results show that using HER in combination with OYMB outperforms using HER alone and leads to agents that learn to complete the real goal more quickly. | 翻訳日:2022-10-24 01:21:49 公開日:2020-08-28 |
# RKT : 知識追跡のための関係認識型自己認識 RKT : Relation-Aware Self-Attention for Knowledge Tracing ( http://arxiv.org/abs/2008.12736v1 ) ライセンス: Link先を確認 | Shalini Pandey, Jaideep Srivastava | (参考訳) 世界は、最近のCovid19パンデミックに対応して、オンライン学習の新しい段階に移行した。
今や、あらゆる方法でオンライン学習の限界を押し広げて、教育システムを栄え続けることが最重要になっている。
オンライン学習の重要な構成要素は知識追跡(KT)である。
KTの目的は、インタラクションと呼ばれる一連のエクササイズに対する回答に基づいて、学生の知識レベルをモデル化することである。
学生は運動を解きながらスキルを身につけ、それぞれの相互作用は将来の運動を解く生徒の能力に明確な影響を与える。
この \textit{impact} の特徴は
1)相互作用に関わる運動と相互作用の関係
2) 生徒は行動を忘れる。
知識追跡に関する伝統的な研究は、これらの相互作用の影響を推定するために、両方のコンポーネントを共同でモデル化するものではない。
本稿では,RKT(Relation-aware self-attention model for Knowledge Tracing)を提案する。
文脈情報を組み込んだ関係認識型自己認識層を導入する。
この文脈情報は、指数関数的に減衰するカーネル関数をモデル化することにより、それらのテキストコンテンツを通しての運動関係情報と学生のパフォーマンスデータと忘れ行動情報とを統合する。
実世界の3つのデータセットに対する大規模な実験では、2つの新しいコレクションが一般に公開されている。
さらに、解釈可能な注意重みは、人間の学習過程における相互作用と時間的パターンの関係を可視化するのに役立つ。 The world has transitioned into a new phase of online learning in response to the recent Covid19 pandemic. Now more than ever, it has become paramount to push the limits of online learning in every manner to keep flourishing the education system. One crucial component of online learning is Knowledge Tracing (KT). The aim of KT is to model student's knowledge level based on their answers to a sequence of exercises referred as interactions. Students acquire their skills while solving exercises and each such interaction has a distinct impact on student ability to solve a future exercise. This \textit{impact} is characterized by 1) the relation between exercises involved in the interactions and 2) student forget behavior. Traditional studies on knowledge tracing do not explicitly model both the components jointly to estimate the impact of these interactions. In this paper, we propose a novel Relation-aware self-attention model for Knowledge Tracing (RKT). We introduce a relation-aware self-attention layer that incorporates the contextual information. This contextual information integrates both the exercise relation information through their textual content as well as student performance data and the forget behavior information through modeling an exponentially decaying kernel function. Extensive experiments on three real-world datasets, among which two new collections are released to the public, show that our model outperforms state-of-the-art knowledge tracing methods. Furthermore, the interpretable attention weights help visualize the relation between interactions and temporal patterns in the human learning process. | 翻訳日:2022-10-24 01:21:28 公開日:2020-08-28 |
# AllenAct: 身体的AI研究のためのフレームワーク AllenAct: A Framework for Embodied AI Research ( http://arxiv.org/abs/2008.12760v1 ) ライセンス: Link先を確認 | Luca Weihs, Jordi Salvador, Klemen Kotar, Unnat Jain, Kuo-Hao Zeng, Roozbeh Mottaghi, Aniruddha Kembhavi | (参考訳) エージェントが自己中心的な観察から環境とのインタラクションを通じてタスクを完了させることを学ぶEmbodied AIの領域は、深い強化学習の出現と、コンピュータビジョン、NLP、ロボティクスコミュニティからの関心の高まりにより、かなりの成長を遂げている。
この成長は、多数のシミュレーション環境(AI2-THOR、Habitat、CARLAなど)、タスク(ポイントナビゲーション、インストラクションフォロー、埋め込み質問応答など)、および関連するリーダーボードの作成によって促進されている。
この多様性は有益で有機的なものですが、コミュニティも断片化しています。ある環境でトレーニングされたモデルを取り、別の環境でテストするのと同じくらい簡単なことを行うには、膨大な労力が必要です。
これは良い科学を妨げる。
我々は、Embodied AI研究のユニークな要件に焦点をあてて設計されたモジュラーで柔軟な学習フレームワークであるAllenActを紹介します。
AllenActは、エンボディされた環境、タスク、アルゴリズムのコレクションの増加に対するファーストクラスのサポートを提供し、最先端モデルの再現を提供し、広範なドキュメント、チュートリアル、起動コード、事前訓練されたモデルを含んでいる。
私たちのフレームワークが、Embodied AIをよりアクセスしやすくし、新しい研究者にこのエキサイティングな分野への参加を促すことを願っています。
フレームワークは、https://allenact.org/でアクセスできる。 The domain of Embodied AI, in which agents learn to complete tasks through interaction with their environment from egocentric observations, has experienced substantial growth with the advent of deep reinforcement learning and increased interest from the computer vision, NLP, and robotics communities. This growth has been facilitated by the creation of a large number of simulated environments (such as AI2-THOR, Habitat and CARLA), tasks (like point navigation, instruction following, and embodied question answering), and associated leaderboards. While this diversity has been beneficial and organic, it has also fragmented the community: a huge amount of effort is required to do something as simple as taking a model trained in one environment and testing it in another. This discourages good science. We introduce AllenAct, a modular and flexible learning framework designed with a focus on the unique requirements of Embodied AI research. AllenAct provides first-class support for a growing collection of embodied environments, tasks and algorithms, provides reproductions of state-of-the-art models and includes extensive documentation, tutorials, start-up code, and pre-trained models. We hope that our framework makes Embodied AI more accessible and encourages new researchers to join this exciting area. The framework can be accessed at: https://allenact.org/ | 翻訳日:2022-10-24 01:20:47 公開日:2020-08-28 |
# アートに関する視覚的質問応答のためのデータセットとベースライン A Dataset and Baselines for Visual Question Answering on Art ( http://arxiv.org/abs/2008.12520v1 ) ライセンス: Link先を確認 | Noa Garcia, Chentao Ye, Zihua Liu, Qingtao Hu, Mayu Otani, Chenhui Chu, Yuta Nakashima, Teruko Mitamura | (参考訳) 美術作品(絵画)に関する質問への回答は、絵に示されている視覚情報だけでなく、美術史の研究を通じて得られた文脈知識の理解を意図しているため、難しい作業である。
本稿では,AQUA(Art QUestion Answering)という新しいデータセットの構築に向けた最初の試みを紹介する。
既存のアート理解データセットで提供される絵画やコメントに基づいて、最先端の質問生成手法を用いて、質問者ペア(qa)を自動的に生成する。
QAペアは、文法的正しさ、答え可能性、答えの正しさに関して、クラウドソーシング作業員によって掃除される。
私たちのデータセットは本質的にビジュアル(ペイントベース)と知識(コミットベース)の質問で構成されています。
また,視覚と知識の質問を独立して処理するベースラインとして,2分岐モデルを提案する。
我々は,質問応答の最先端モデルと比較し,視覚的質問応答の課題と今後の方向性について包括的に検討する。 Answering questions related to art pieces (paintings) is a difficult task, as it implies the understanding of not only the visual information that is shown in the picture, but also the contextual knowledge that is acquired through the study of the history of art. In this work, we introduce our first attempt towards building a new dataset, coined AQUA (Art QUestion Answering). The question-answer (QA) pairs are automatically generated using state-of-the-art question generation methods based on paintings and comments provided in an existing art understanding dataset. The QA pairs are cleansed by crowdsourcing workers with respect to their grammatical correctness, answerability, and answers' correctness. Our dataset inherently consists of visual (painting-based) and knowledge (comment-based) questions. We also present a two-branch model as baseline, where the visual and knowledge questions are handled independently. We extensively compare our baseline model against the state-of-the-art models for question answering, and we provide a comprehensive study about the challenges and potential future directions for visual question answering on art. | 翻訳日:2022-10-24 01:19:57 公開日:2020-08-28 |