このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200607となっている論文です。

PDF登録状況(公開日: 20200607)

TitleAuthorsAbstract論文公表日・翻訳日
# 超高シュミット数双光子状態のイメージング時空間Hong-Ou-Mandel干渉

Imaging spatio-temporal Hong-Ou-Mandel interference of bi-photon state of extremely high Schmidt number ( http://arxiv.org/abs/2002.05690v3 )

ライセンス: Link先を確認
Fabrice Devaux, Alexis Mosset, Paul-Antoine Moreau, and Eric Lantz(参考訳) 極めて高いシュミット数を持つ双光子状態の時空間的Hong-Ou-Mandel干渉の実験的観察を報告する。 1500の空間モードと3x10^6以上の時空間モードの2光子干渉は、hom干渉計を介して伝播する2つの強マルチモード自発的パラメトリックダウン変換(spdc)ビームの遠方フィールド画像の画素間の運動量空間一致を測定することによって証明される。 出射するSPDCビームは、光子計数系で動作する2つの別個の検出器アレイに記録される。 HOM干渉の特性は時間領域と空間領域の両方で研究される。 2光子干渉は2光子状態の時空間コヒーレンス特性とよく一致して、30%の振動率と幅を持つ時間空間HOMディップと2次元空間HOMディップを示す。 さらに、このディップに対応して、各画像内に運動量空間的偶然のピークが証明されていることを示す。

We report the experimental observation of a spatio-temporal Hong-Ou-Mandel (HOM) interference of bi-photon states of extremely high Schmidt number. Two-photon interference of 1500 spatial modes and a total of more than 3x10^6 spatio-temporal modes is evidenced by measuring momentum spatial coincidences between the pixels of the far-field images of two strongly multimode spontaneous parametric down conversion (SPDC) beams propagating through a HOM interferometer. The outgoing SPDC beams are recorded onto two separate detectors arrays operating in the photon-counting regime. The properties of HOM interference are investigated both in the time and space domains. We show that the two-photon interferences exhibit temporal and two-dimensional spatial HOM dips with visibilities of 30% and widths in good agreement with the spatio-temporal coherence properties of the bi-photon state. Moreover, we demonstrate that a peak of momentum spatial coincidences is evidenced inside each image, in correspondence with this dip.
翻訳日:2023-06-03 19:10:30 公開日:2020-06-07
# マチュー方程式の厳密なWKB解析とTBA方程式

Exact WKB analysis and TBA equations for the Mathieu equation ( http://arxiv.org/abs/2002.06829v2 )

ライセンス: Link先を確認
Keita Imaizumi(参考訳) 弱い結合領域におけるマチュー方程式の正確なWKB周期に対する熱力学ベテ・アンザッツ方程式(TBA)を導出する。 我々は、強い結合における$\mathcal{N} = 2$ $SU(2)$ Super Yang-Mills理論の量子周期と見なされるWKB周期に対する量子補正を計算するために、TBA方程式を使用する。 4d理論の1ループベータ関数の係数に比例するTBA方程式の有効中心電荷を計算する。 また,TBA方程式に基づくMathieu方程式のスペクトル問題についても数値解析を行った。

We derive the Thermodynamic Bethe Ansatz (TBA) equations for the exact WKB periods of the Mathieu equation in the weak coupling region. We will use the TBA equations to calculate the quantum corrections to the WKB periods, which are regarded the quantum periods of $\mathcal{N} = 2$ $SU(2)$ super Yang-Mills theory at strong coupling. We calculate the effective central charge of the TBA equations, which is found to be proportional to the coefficient of the one-loop beta function of the 4d theory. We also study the spectral problem for the Mathieu equation based on the TBA equations numerically.
翻訳日:2023-06-03 11:14:19 公開日:2020-06-07
# 遠隔状態形成における資源の最適活用

Optimal exploitation of the resource in remote state preparation ( http://arxiv.org/abs/2003.09755v2 )

ライセンス: Link先を確認
Morteza Nikaeen, Mehdi Ramezani and Alireza Bahrampour(参考訳) 遠隔状態準備(RSP)の伝送効率(TE)は、共有量子状態と古典的通信の1ビットで考慮される。 b. daki et al., nat. phys. 8, 666 (2012)] に従って、プロトコルのエンコーディングとデコード戦略は、それぞれ物理的に関連する射影的測定とユニタリ作用素のクラスに制限される。 以前の議論とは対照的に、二次忠実度と線型忠実度は RSP の TE を定量化するための有効な図形であることが示されている。 次に、符号化パラメータの最大化と復号パラメータの有意義な最大化を含む完全に最適化されたシナリオにおいて、線形および二次性の観点からプロトコルのteを評価する。 このシナリオでは、TEは、積状態に対してのみゼロとなる資源状態の2乗相関行列の2つの最大の固有値の和でスケールする。 このアプローチは、リソース状態パラメータの観点からプロトコルの性能を定量化し、RSPの任意の2つのリソース状態の有用性を比較する手段を提供する。

Transmission efficiency (TE) of remote state preparation (RSP) with a shared quantum state and one bit of classical communication is considered. Following [B. Daki et al., Nat. Phys. 8, 666 (2012)], the encoding and decoding strategies of the protocol are restricted to the physically relevant classes of projective measurements and unitary operators, respectively. It is shown that contrary to the previous arguments, the quadratic fidelity as well as the linear fidelity could be a valid figure of merit to quantify the TE of RSP. Then, the TE of the protocol in terms of both linear and quadratic fidelities is evaluated in a fully optimized scenario which includes the maximization over the encoding parameters as well as a meaningful maximization over the decoding parameters. The results show that in this scenario, the TE scales with the sum of the two largest eigenvalues of the squared correlation matrix of the resource state that is zero only for product states. This approach successfully quantifies the performance of the protocol in terms of the resource state parameters and provides a means to compare the usefulness of any two resource states for RSP.
翻訳日:2023-05-28 13:40:23 公開日:2020-06-07
# 集積フォトニックゲートのシミュレーション

Simulation of integrated photonic gates ( http://arxiv.org/abs/2006.02946v2 )

ライセンス: Link先を確認
Andrei-Emanuel Dragomir, Cristian George Ivan and Radu Ionicioiu(参考訳) 量子通信、センシング、イメージングなどの量子技術は、柔軟で小型化でき、室温で動作するプラットフォームを必要とする。 integrated photonicsは有望で迅速な開発プラットフォームである。 これは任意のフォトニック量子デバイスの設計と製造に適したツールを開発する必要がある。 ここでは、$n$-mode 変換 $u$ から始まり、$u$ を実装するフォトニックデバイスを設計するアルゴリズムを提案する。 この方法を用いて、高忠実度量子ゲートを実装した集積フォトニックデバイスを設計する。 量子計算以外にも、将来の応用にはフォトニックサブルーチンや組み込み量子デバイスの設計が含まれる。 これらのカスタムデザインのフォトニックデバイスは、あるアルゴリズムの1ステップで実装され、完全にプログラム可能なプロセッサよりも小さく、堅牢で、高速である。

Quantum technologies, such as quantum communication, sensing and imaging, need a platform which is flexible, miniaturizable and works at room temperature. Integrated photonics is a promising and fast-developing platform. This requires to develop the right tools to design and fabricate arbitrary photonic quantum devices. Here we present an algorithm which, starting from a $n$-mode transformation $U$, designs a photonic device implementing $U$. Using this method we design integrated photonic devices which implement quantum gates with high fidelity. Apart from quantum computation, future applications include the design of photonic subroutines or embedded quantum devices. These custom-designed photonic devices will implement in a single step a given algorithm and will be small, robust and fast compared to a fully-programmable processor.
翻訳日:2023-05-17 04:23:25 公開日:2020-06-07
# 混合直交アレイによる$k$一様状態の構成

Constructions of $k$-uniform states from mixed orthogonal arrays ( http://arxiv.org/abs/2006.04086v1 )

ライセンス: Link先を確認
Fei Shi, Yi Shen, Lin Chen, Xiande Zhang(参考訳) 局所次元が混合した不均質系において、k$一様状態を研究する。 最小ハミング距離の混合直交配列、不均質な混合直交配列、および$k$一様状態との接続に基づいて、異種系における2ドル一様状態の2つの構成を示す。 また、異種系において3ドルの一様状態の族を構築し、[D. Goyeneche et al., Phys. Rev. A 94, 012346 (2016)] で提起された問題を解決する。 また、$k$-uniform状態から$(k-1)$-uniform状態を生成する2つの方法を示す。 絶対最大エンタングル状態の存在と非存在に関するいくつかの新しい結果が提供される。 アプリケーションに対して、最小サポートを持つ$k$-uniform状態からなる直交基底を示す。 さらに、いくつかの$k$-uniform基底は局所演算や古典的通信では区別できないことを示し、絡み合いを伴う量子非局所性を示す。

We study $k$-uniform states in heterogeneous systems whose local dimensions are mixed. Based on the connections between mixed orthogonal arrays with certain minimum Hamming distance, irredundant mixed orthogonal arrays and $k$-uniform states, we present two constructions of $2$-uniform states in heterogeneous systems. We also construct a family of $3$-uniform states in heterogeneous systems, which solves a question posed in [D. Goyeneche et al., Phys. Rev. A 94, 012346 (2016)]. We also show two methods of generating $(k-1)$-uniform states from $k$-uniform states. Some new results on the existence and nonexistence of absolutely maximally entangled states are provided. For the applications, we present an orthogonal basis consisting of $k$-uniform states with minimum support. Moreover, we show that some $k$-uniform bases can not be distinguished by local operations and classical communications, and this shows quantum nonlocality with entanglement.
翻訳日:2023-05-16 09:13:40 公開日:2020-06-07
# 量子臨界点近傍でのスクイージングの時間と強度のパワーロー成長

Power-law growth of time and strength of squeezing near quantum critical point ( http://arxiv.org/abs/2006.04056v1 )

ライセンス: Link先を確認
Deepti Sharma and Brijesh Kumar(参考訳) 2つの基本模型(viz., 横場における一軸ねじれモデルとディッケモデル)における量子相転移のスクイージングのダイナミクスを、大きなスピン極限におけるホルシュタイン・プリマコフ表現を用いて研究した。 乱れた(通常)相と順序付けられた(超ラジアント)相の相境界付近では、スピンと光子のスクイーズ強度と、システムが非常に圧縮された状態にとどまる時間の長さが量子臨界点からの距離で強いパワーロー成長を示す。 スクイーズ時間に対する臨界指数は両モデルともに1/2であり、スクイーズ強度については1軸ねじれモデルで1/2、極端な変形の限界が1/2となるディックモデルで1/2であることが示される。

The dynamics of squeezing across quantum phase transition in two basic models, viz., the one-axis twisting model in transverse field and the Dicke model, is investigated using Holstein-Primakoff representation in the large spin limit. Near the phase boundary between the disordered (normal) and the ordered (superradiant) phase, the strength of spin and photon squeezing and the duration of time for which the system stays in the highly squeezed state are found to exhibit strong power-law growth with distance from the quantum critical point. The critical exponent for squeezing time is found to be 1/2 in both the models, and for squeezing strength, it is shown to be 1/2 in the one-axis twisting model, and 1 for the Dicke model which in the limit of extreme detuning also becomes 1/2.
翻訳日:2023-05-16 09:13:23 公開日:2020-06-07
# 倫理・データサイエンス・健康・ヒューマンサービス--十代の妊娠予防への政策アプローチにおける内在バイアス

Ethics, Data Science, and Health and Human Services: Embedded Bias in Policy Approaches to Teen Pregnancy Prevention ( http://arxiv.org/abs/2006.04029v1 )

ライセンス: Link先を確認
Davon Woodard, Huthaifa I. Ashqar, and Taoran Ji(参考訳) 背景: 本研究は,シカゴ市中のリスクの高いティーンにこのプログラムを届けるために, 政策中立的かつ政策重視のアプローチを取り入れた, シカゴティーン妊娠予防イニシアチブのデリバリ最適化結果を評価することを目的としている。 方法: シカゴ公衆衛生クリニックの場所, 2つの公衆衛生統計データセット, シカゴの国勢調査データ, シカゴ公立高校のリスト, およびそれらの場所など, 公的ソースからいくつかのデータセットを収集し, コンパイルする。 我々の政策中立的アプローチは、過去の傾向や成果に関係なく、学校やセンターに資金と資源を均等に分配する。 政策に焦点を当てたアプローチは、まず歴史的データからの予測モデルに基づく資金モデルと、経済と社会の成果に基づく資金モデルという2つのモデルを評価する。 結果: 本研究の結果は, モデルが機械学習の観点から最適化されているにもかかわらず, 実世界のアプリケーションにおいて, 全く異なる結果を生み出す可能性があるという最初の仮説を裏付ける。 結論: 倫理的および倫理的考察がアルゴリズム的最適化を超えてアウトプットと社会的最適化に拡張されると、意思決定プロセスの基盤と哲学的基礎が知識発見プロセスにおいてさらに重要になる。

Background: This study aims to evaluate the Chicago Teen Pregnancy Prevention Initiative delivery optimization outcomes given policy-neutral and policy-focused approaches to deliver this program to at-risk teens across the City of Chicago. Methods: We collect and compile several datasets from public sources including: Chicago Department of Public Health clinic locations, two public health statistics datasets, census data of Chicago, list of Chicago public high schools, and their Locations. Our policy-neutral approach will consist of an equal distribution of funds and resources to schools and centers, regardless of past trends and outcomes. The policy-focused approaches will evaluate two models: first, a funding model based on prediction models from historical data; and second, a funding model based on economic and social outcomes for communities. Results: Results of this study confirms our initial hypothesis, that even though the models are optimized from a machine learning perspective, there is still possible that the models will produce wildly different results in the real-world application. Conclusions: When ethics and ethical considerations are extended beyond algorithmic optimization to encompass output and societal optimization, the foundation and philosophical grounding of the decision-making process become even more critical in the knowledge discovery process.
翻訳日:2023-05-16 09:13:07 公開日:2020-06-07
# 宇宙マイクロ波背景制約が連続的局所化モデルに影を放つ」に対するコメント

Comment on "Cosmic Microwave Background Constraints Cast a Shadow On Continuous Spontaneous Localization Models" ( http://arxiv.org/abs/2006.05313v1 )

ライセンス: Link先を確認
Gabriel R. Bengochea, Gabriel Leon, Philip Pearle, Daniel Sudarsky(参考訳) 最近の論文 (J. Martin and V. Vennin, Phys. Rev. Lett. 124, 080402 (2020))] では、ほとんどの自然選択において、非相対論的実験室の状況で作用することが知られている連続自発局所化(CSL)理論をインフレの場合に直接適用することは、宇宙学的な観測データによって排除され、CSL理論に基づくモデルに影を落としていると論じられている。 このような結果は、理論を宇宙学的文脈に適用するための比較的狭い選択の集合を考慮し、オープンで異なる可能性の風景は極めて広大である、と我々は指摘する。

In a recent paper [J. Martin and V. Vennin, Phys. Rev. Lett. 124, 080402 (2020)] it was argued that, for most natural choices, the direct application of the continuous spontaneous localization (CSL) theory to the inflationary case, as it is known to work in non-relativistic laboratory situations, is ruled out by cosmological observational data, thus casting a shadow on models based on CSL theory. We point out that such results are based on the consideration of a rather narrow set of choices for the application of the theory to the cosmological context and that the landscape of open and different possibilities is extremely vast.
翻訳日:2023-05-16 09:07:41 公開日:2020-06-07
# クラウドコンピューティングと電気の経済とビジネスの次元 - ユーティリティモデルを超えて

Economic and Business Dimensions Cloud Computing and Electricity: Beyond the Utility Model ( http://arxiv.org/abs/2006.04244v1 )

ライセンス: Link先を確認
Erik Brynjolfsson and Paul Hofmann and John Jordan(参考訳) ユーティリティモデルへの過度に単純化された依存は、クラウドコンピューティングの本当の機会と課題に盲目するリスクがあります。

An overly simplistic reliance on the utility model risks blinding us to the real opportunities and challenges of cloud computing.
翻訳日:2023-05-16 09:07:11 公開日:2020-06-07
# learn-apply-reinforce/share learning: 高等教育における一般教育ツールとしてのハッカソンとctfsとその遠隔学習への適用性

Learn-Apply-Reinforce/Share Learning: Hackathons and CTFs as General Pedagogic Tools in Higher Education, and Their Applicability to Distance Learning ( http://arxiv.org/abs/2006.04226v1 )

ライセンス: Link先を確認
Tom Goodman and Andreea-Ina Radu(参考訳) 本稿では,コンピュータサイエンスにおいて,ハッカソンやフラッグ捕獲(CTF)コンペティションなど,ますます普及しつつある2つの教科/学習手法と,それらを支える教育理論について述べる。 それぞれのケーススタディを解析し、その基盤となる類似性を抽出する。 フレームワークは、学習・適用・強化・共有学習(learning-apply-reinforce/share learning)に一般化される。 遠隔学習への新たな手法の適用性については、高等教育分野の需要の増加に加えて、新型コロナウイルスのパンデミックなどの危機の影響も考慮し、在宅勤務の必要性を念頭に検討する。 最後に、いくつかの潜在的な拡張と将来の応用について論じられ、研究を進めるためにメソッドをもっと研究駆動に、あるいは実際に、ピボットする可能性を含む。

This paper lays out two teaching/learning methods that are becoming increasingly prevalent in computer science - hackathons, and Capture the Flag (CTF) competitions - and the pedagogic theory that underpins them. A case study of each is analysed, and the underpinning similarities extracted. The frameworks are then generalised to Learn-Apply-Reinforce/Share Learning - a social constructivistic method that can be used subject-independently. The applicability of this new method to distance learning is then investigated - with a mind to potential necessity to work from home - both due to increasing demand in the Higher Education sector, but also the devastating impact of crises such as the ongoing COVID-19 pandemic. Finally, a few potential extensions and future applications are discussed - including the possibilities of pivoting the method to be more research-driven, or indeed, to drive research.
翻訳日:2023-05-16 09:06:54 公開日:2020-06-07
# 多光子量子干渉における相対論的フレームドラッグとHong-Ou-Mandel dip$-$の原始的重力効果

Relativistic frame-dragging and the Hong-Ou-Mandel dip $-$ a primitive to gravitational effects in multi-photon quantum-interference ( http://arxiv.org/abs/2006.04221v1 )

ライセンス: Link先を確認
Anthony J. Brady, Stav Haldar(参考訳) 我々は、回転する球面質量の時空における2光子量子干渉効果であるhong-ou-mandel(hom)効果を1-$で研究する。 特に,地球表面に制限された共通経路HOMを解析し,原理的に一般相対論的フレーム描画はHOMディップの観測可能なシフトを誘導することを示す。 現在の文献との完全性および対応性について、両腕構成のためのHOM干渉における重力時差効果の出現を解析する。 そこで提示された形式主義は、一般相対論的効果を局所多光子量子干渉実験に符号化する基礎を確立する。 これらの例の実証は、量子および一般相対論的効果の真の観測をタンデムで示し、一般相対性理論の妥当性の領域を量子化された電磁場の領域にまで拡張する。

We investigate the Hong-Ou-Mandel (HOM) effect $-$ a two-photon quantum-interference effect $-$ in the space-time of a rotating spherical mass. In particular, we analyze a common-path HOM setup restricted to the surface of the earth and show that, in principle, general-relativistic frame-dragging induces observable shifts in the HOM dip. For completeness and correspondence with current literature, we also analyze the emergence of gravitational time-dilation effects in HOM interference, for a dual-arm configuration. The formalism thus presented establishes a basis for encoding general-relativistic effects into local, multi-photon, quantum-interference experiments. Demonstration of these instances would signify genuine observations of quantum and general relativistic effects, in tandem, and would also extend the domain of validity of general relativity, to the arena of quantized electromagnetic fields.
翻訳日:2023-05-16 09:06:38 公開日:2020-06-07
# 量子ビットを内蔵したハイブリッド光機械デバイスの量子光学応答

Quantum Optical Response of a Hybrid Optomechanical Device embedded with a Qubit ( http://arxiv.org/abs/2006.04134v1 )

ライセンス: Link先を確認
Sabur A. Barbhuiya and Aranya B Bhattacherjee(参考訳) 本稿では,2レベル系(量子ビット)を可動膜上に埋め込んだ2つの光結合マイクロキャビティからなるハイブリッド量子光学系の光応答を理論的に検討する。 量子ビットは、線形Jaynes-Cummings相互作用を介して機械振動子と相互作用する欠陥または非線形相互作用を介して機械モードと結合する超伝導電荷量子ビットである。 システムパラメータを適切に調整することにより、コヒーレント完全伝送(CPT)、コヒーレント完全合成(CPS)、光誘起吸収(OMIA)を生成することができる。 量子ビットと機械振動子との相互作用は、これらの量子光学特性を制御する新しいハンドルとして現れる。 キュービットの存在は、CPT と CPS が実現可能な4つの点(すなわち、キュービットが存在しない場合)で、純粋に3つの点しか達成できない場合と比較できる。 このことは、キュービットの存在によって、CPTとCPSの達成と制御が可能な適切なパラメータ構造を選択する際の柔軟性が向上することを示している。 また,線形および非線形の場合においてもOMIAは3つの異なるピークを示す。 量子ビットがない場合、OMIAはオプトメカニカル・トランスミッション(OMIT)に変換される。 クォービット崩壊率の増加は、OMIAからOMITへの移行を示す。 本研究は,非線形の場合の光学応答が,系のパラメータの変化に対する線形の場合と比較して比較的高速(感度が高い)ことを明らかにする。 これは、量子情報ネットワークの重要な要素を形成する波長可変全光スイッチとフォトンルーターの設計において、このハイブリッドシステムの潜在的な利用を示す。

We theoretically investigate the optical response in a hybrid quantum optomechanical system consisting of two optically coupled micro-cavities in which a two-level system (qubit) is embedded on a movable membrane. The qubit can either be a defect which interacts with the mechanical oscillator via the linear Jaynes-Cummings interaction or a superconducting charge qubit coupled with the mechanical mode via nonlinear interaction. We find that coherent perfect transmission (CPT), coherent perfect synthesis (CPS) and optomechanically induced absorption (OMIA) can be generated by suitably adjusting the system parameters. We find that the qubit and its interaction with the mechanical oscillator emerges as a new handle to control these quantum optical properties. The presence of the qubit results in four points where CPT and CPS can be realized compared to the pure optomechanical case (i.e. in the absence of qubit) where only three points are attained. This shows that the presence of the qubit gives us more flexibility in choosing the appropriate parameter regime where CPT and CPS can be attained and controlled. We also find that OMIA shows three distinct peaks both in the linear and nonlinear cases. In the absence of the qubit, OMIA is converted to optomechanically induced transmission (OMIT). An increase in in the qubit decay rate also shows a transition from OMIA to OMIT. Our study reveals that the optical response of the nonlinear case is relatively rapid (more sensitive) compared to the linear case to changes in the system parameters. This demonstrates the potential use of this hybrid system in designing tunable all-optical-switch and photon-router both of which forms an important element of a quantum information network.
翻訳日:2023-05-16 09:06:08 公開日:2020-06-07
# 超電導ビット設計の最適化のためのエンジニアリングフレームワーク

Engineering Framework for Optimizing Superconducting Qubit Designs ( http://arxiv.org/abs/2006.04130v1 )

ライセンス: Link先を確認
Fei Yan, Youngkyu Sung, Philip Krantz, Archana Kamal, David K. Kim, Jonilyn L. Yoder, Terry P. Orlando, Simon Gustavsson, William D. Oliver(参考訳) 超伝導量子技術は、長いコヒーレンス時間や高いアンハーモニック性など、しばしば矛盾する要求を満たす量子ビット系を必要とする。 本稿では,複数の回路設計パラメータを抽象化し,複数の量子ビット特性にまたがる設計最適化を支援するフラックス系における一般化超伝導量子ビットモデルに基づくエンジニアリングフレームワークを提案する。 我々は,高アンハーモニック性($\sim\!)を持つ特殊パラメータレジームを実験的に検討する。 1$GHz)と長い量子コヒーレンス時間(T_1\! =\! 40\! -\! 80\,\mathrm{\mu s}$と$T_\mathrm{2Echo}\! =\! 2T_1$)。

Superconducting quantum technologies require qubit systems whose properties meet several often conflicting requirements, such as long coherence times and high anharmonicity. Here, we provide an engineering framework based on a generalized superconducting qubit model in the flux regime, which abstracts multiple circuit design parameters and thereby supports design optimization across multiple qubit properties. We experimentally investigate a special parameter regime which has both high anharmonicity ($\sim\!1$GHz) and long quantum coherence times ($T_1\!=\!40\!-\!80\,\mathrm{\mu s}$ and $T_\mathrm{2Echo}\!=\!2T_1$).
翻訳日:2023-05-16 09:05:42 公開日:2020-06-07
# Deep-URL:Deep Unfolded Richardson-Lucy Networkに基づくブラインドデコンボリューションのためのモデル認識アプローチ

Deep-URL: A Model-Aware Approach To Blind Deconvolution Based On Deep Unfolded Richardson-Lucy Network ( http://arxiv.org/abs/2002.01053v3 )

ライセンス: Link先を確認
Chirag Agarwal, Shahin Khobahi, Arindam Bose, Mojtaba Soltanalian, Dan Schonfeld(参考訳) 現在のディープラーニングモデルにおける解釈可能性の欠如は、さまざまな生命クリティカルなアプリケーションで広く使われているため、深刻な懸念を引き起こしている。 したがって、解釈可能なディープラーニングモデルを開発することは極めて重要である。 本稿では,ブラインドデコンボリューションの問題を考察し,ぼやけた画像からぼやけたカーネルとシャープな画像の両方を復元できる,新しいモデルアウェア深層アーキテクチャを提案する。 特に,リチャードソン・ルーシー(deep-url)フレームワークを提案する。これは解釈可能なディープラーニングアーキテクチャであり,従来の推定手法とディープニューラルネットワークの融合と見なすことができ,その結果,パフォーマンスが向上する。 我々の数値的な研究は最先端のアルゴリズムと比較して著しく改善されている。

The lack of interpretability in current deep learning models causes serious concerns as they are extensively used for various life-critical applications. Hence, it is of paramount importance to develop interpretable deep learning models. In this paper, we consider the problem of blind deconvolution and propose a novel model-aware deep architecture that allows for the recovery of both the blur kernel and the sharp image from the blurred image. In particular, we propose the Deep Unfolded Richardson-Lucy (Deep-URL) framework -- an interpretable deep-learning architecture that can be seen as an amalgamation of classical estimation technique and deep neural network, and consequently leads to improved performance. Our numerical investigations demonstrate significant improvement compared to state-of-the-art algorithms.
翻訳日:2023-01-04 08:30:35 公開日:2020-06-07
# 高次元ガウス機構を持つ回帰モデルにおけるクエリ・フルーディングパラメータ重複攻撃の軽減

Mitigating Query-Flooding Parameter Duplication Attack on Regression Models with High-Dimensional Gaussian Mechanism ( http://arxiv.org/abs/2002.02061v3 )

ライセンス: Link先を確認
Xiaoguang Li, Hui Li, Haonan Yan, Zelei Cheng, Wenhai Sun, Hui Zhu(参考訳) 機械学習アルゴリズムによって実現されるパブリックインテリジェントサービスは、パブリッククエリを通じて学習モデルの機密情報を盗むモデル抽出攻撃に対して脆弱である。 差分プライバシー(DP)はこの攻撃を緩和する有望な手法と考えられている。 しかし、この脆弱性は現在のDPソリューションによって回帰モデルが保護されているときに持続する。 提案手法では,クエリフローディングパラメータ重複(QPD)攻撃を発生させ,繰り返しクエリによるモデル情報の推測を行う。 本稿では,ロジスティックおよび線形回帰モデルに対するqpd攻撃を防御するために,意図するサービスを中断することなく不正な情報開示を防止する新しい高次元ガウス(hdg)機構を提案する。 先行研究とは対照的に,提案するhdg機構は,異なるクエリに対するプライバシ予算とランダムノイズを動的に生成する。 さらに、HDGは初めて最適なプライバシー予算の割り当てを可能にし、各ディメンションでユーザが望むプライバシレベル毎に最小限のノイズを自動的に決定する。 我々は,実世界のデータセットを用いたhdgの性能を総合的に評価し,プライバシー要件を満たしながら,hdgがqpd攻撃を効果的に軽減することを示す。 また、さらなる研究のために、関連するコードをコミュニティにオープンソース化する準備もしています。

Public intelligent services enabled by machine learning algorithms are vulnerable to model extraction attacks that can steal confidential information of the learning models through public queries. Differential privacy (DP) has been considered a promising technique to mitigate this attack. However, we find that the vulnerability persists when regression models are being protected by current DP solutions. We show that the adversary can launch a query-flooding parameter duplication (QPD) attack to infer the model information by repeated queries. To defend against the QPD attack on logistic and linear regression models, we propose a novel High-Dimensional Gaussian (HDG) mechanism to prevent unauthorized information disclosure without interrupting the intended services. In contrast to prior work, the proposed HDG mechanism will dynamically generate the privacy budget and random noise for different queries and their results to enhance the obfuscation. Besides, for the first time, HDG enables an optimal privacy budget allocation that automatically determines the minimum amount of noise to be added per user-desired privacy level on each dimension. We comprehensively evaluate the performance of HDG using real-world datasets and shows that HDG effectively mitigates the QPD attack while satisfying the privacy requirements. We also prepare to open-source the relevant codes to the community for further research.
翻訳日:2023-01-03 13:15:28 公開日:2020-06-07
# 拡散・ウェーブレット・正規化の残差ネットワークへの変換

Translating Diffusion, Wavelets, and Regularisation into Residual Networks ( http://arxiv.org/abs/2002.02753v3 )

ライセンス: Link先を確認
Tobias Alt, Joachim Weickert, Pascal Peter(参考訳) 畳み込みニューラルネットワーク(CNN)はよく機能するが、安定性はよく分かっていない。 この問題を解決するために,非線形拡散,ウェーブレットに基づく手法,正規化といった古典的手法が証明可能な安定性保証を提供する,信号デノイジングの単純な原型的問題を考える。 このような保証をCNNに転送するために、これらの古典的手法の数値近似をResNetアーキテクチャとして解釈する。 これにより、ディフュージビティ、縮小機能、およびレギュラーをアクティベーション関数に翻訳し、4つの研究コミュニティ間の直接的なコミュニケーションを可能にする辞書が作成される。 CNN側では、非モノトン活性化関数の新しいファミリーを刺激するだけでなく、任意の数の層に対して本質的に安定したアーキテクチャを導入する。

Convolutional neural networks (CNNs) often perform well, but their stability is poorly understood. To address this problem, we consider the simple prototypical problem of signal denoising, where classical approaches such as nonlinear diffusion, wavelet-based methods and regularisation offer provable stability guarantees. To transfer such guarantees to CNNs, we interpret numerical approximations of these classical methods as a specific residual network (ResNet) architecture. This leads to a dictionary which allows to translate diffusivities, shrinkage functions, and regularisers into activation functions, and enables a direct communication between the four research communities. On the CNN side, it does not only inspire new families of nonmonotone activation functions, but also introduces intrinsically stable architectures for an arbitrary number of layers.
翻訳日:2023-01-03 04:28:12 公開日:2020-06-07
# Mobius変換によるデータ拡張

Data augmentation with Mobius transformations ( http://arxiv.org/abs/2002.02917v2 )

ライセンス: Link先を確認
Sharon Zhou, Jiequan Zhang, Hang Jiang, Torbjorn Lundh, Andrew Y. Ng(参考訳) データ拡張により、ディープモデルの性能と一般化が大幅に改善され、モデルアーキテクチャの進化に高度に適応可能な方法であり、データの量も様々である。 本稿では,トレーニング中の入力画像の増大にMobius変換を適用する新しい手法を提案する。 モダス変換(Mobius transformation)は、画像変換を一般化してピクセル空間の複素反転を演算する単射共形写像である。 その結果、Mobius変換はサンプルレベルで動作し、データラベルを保存することができる。 トレーニング中にMobius変換を組み込むことで、カットアウトや標準作物・フリップ変換といった従来のサンプルレベルのデータ拡張技術よりも一般化できることを示す。

Data augmentation has led to substantial improvements in the performance and generalization of deep models, and remain a highly adaptable method to evolving model architectures and varying amounts of data---in particular, extremely scarce amounts of available training data. In this paper, we present a novel method of applying Mobius transformations to augment input images during training. Mobius transformations are bijective conformal maps that generalize image translation to operate over complex inversion in pixel space. As a result, Mobius transformations can operate on the sample level and preserve data labels. We show that the inclusion of Mobius transformations during training enables improved generalization over prior sample-level data augmentation techniques such as cutout and standard crop-and-flip transformations, most notably in low data regimes.
翻訳日:2023-01-03 04:08:51 公開日:2020-06-07
# ロバスト畳み込みニューラルネットワークのランダム摂動解析

Analysis of Random Perturbations for Robust Convolutional Neural Networks ( http://arxiv.org/abs/2002.03080v4 )

ライセンス: Link先を確認
Adam Dziedzic, Sanjay Krishnan(参考訳) 最近の研究は、ニューラルネットワークのランダムな摂動が敵の攻撃に対する堅牢性を改善することを広く示している。 しかし、これらの文献は、摂動のどのクラスが機能するのか、いつ、なぜ働くのかを理解するための最新の提案の詳細な比較と矛盾を欠いている。 我々はこれらの疑問とベンチマークに基づく防御を一貫して解明する詳細な評価に貢献する。 In particular, we show five main results: (1) all input perturbation defenses, whether random or deterministic, are equivalent in their efficacy, (2) attacks transfer between perturbation defenses so the attackers need not know the specific type of defense -- only that it involves perturbations, (3) a tuned sequence of noise layers across a network provides the best empirical robustness, (4) perturbation based defenses offer almost no robustness to adaptive attacks unless these perturbations are observed during training, and (5) adversarial examples in a close neighborhood of original inputs show an elevated sensitivity to perturbations in first and second-order analyses.

Recent work has extensively shown that randomized perturbations of neural networks can improve robustness to adversarial attacks. The literature is, however, lacking a detailed compare-and-contrast of the latest proposals to understand what classes of perturbations work, when they work, and why they work. We contribute a detailed evaluation that elucidates these questions and benchmarks perturbation based defenses consistently. In particular, we show five main results: (1) all input perturbation defenses, whether random or deterministic, are equivalent in their efficacy, (2) attacks transfer between perturbation defenses so the attackers need not know the specific type of defense -- only that it involves perturbations, (3) a tuned sequence of noise layers across a network provides the best empirical robustness, (4) perturbation based defenses offer almost no robustness to adaptive attacks unless these perturbations are observed during training, and (5) adversarial examples in a close neighborhood of original inputs show an elevated sensitivity to perturbations in first and second-order analyses.
翻訳日:2023-01-02 22:11:39 公開日:2020-06-07
# ニューラルネットワークで論理学を学べる

Making Logic Learnable With Neural Networks ( http://arxiv.org/abs/2002.03847v3 )

ライセンス: Link先を確認
Tobias Brudermueller, Dennis L. Shung, Adrian J. Stanley, Johannes Stegmaier, Smita Krishnaswamy(参考訳) ニューラルネットワークは、トレーニングサンプルから特定されていない関数を学習するのに優れているが、ハードウェアに直接実装することはできない。 一方、論理回路は実装可能であり、検証可能であり、解釈可能であるが、一般化可能な方法でトレーニングデータから学べない。 本稿では,ニューラルネットワークと論理回路の利点を組み合わせた新しい論理学習パイプラインを提案する。 私たちのパイプラインはまず、分類タスクでニューラルネットワークをトレーニングし、次にこれをランダムな森林に、次に AND-Inverterロジックに翻訳します。 我々のパイプラインは論理へのナイーブ翻訳よりも高い精度を保ち、より解釈可能で、ハードウェアコストが低減するように論理を最小化する。 バイオメディカルデータに基づいてトレーニングしたネットワーク上で,パイプラインの有用性を示す。 このアプローチは、リスク階層化を提供し、臨床意思決定を導くために患者ケアに適用することができる。

While neural networks are good at learning unspecified functions from training samples, they cannot be directly implemented in hardware and are often not interpretable or formally verifiable. On the other hand, logic circuits are implementable, verifiable, and interpretable but are not able to learn from training data in a generalizable way. We propose a novel logic learning pipeline that combines the advantages of neural networks and logic circuits. Our pipeline first trains a neural network on a classification task, and then translates this, first to random forests, and then to AND-Inverter logic. We show that our pipeline maintains greater accuracy than naive translations to logic, and minimizes the logic such that it is more interpretable and has decreased hardware cost. We show the utility of our pipeline on a network that is trained on biomedical data. This approach could be applied to patient care to provide risk stratification and guide clinical decision-making.
翻訳日:2023-01-02 07:23:18 公開日:2020-06-07
# HRINet:高分解能CT画像補間のための代替スーパービジョンネットワーク

HRINet: Alternative Supervision Network for High-resolution CT image Interpolation ( http://arxiv.org/abs/2002.04455v2 )

ライセンス: Link先を確認
Jiawei Li, Jae Chul Koh, Won-Sook Lee(参考訳) 医用領域における画像補間は,放射線照射量や走査時間により,連続スライス間距離が平面内画素サイズよりも著しく大きくなるような3次元生体医学的ボリューム画像のサンプル化が重要視されている。 画像補間は、等方ボリューム画像を得るために、既知のスライス間で多数の新しいスライスを生成する。 この結果は、人間の身体構造の3次元再構築と可視化の高品質化に利用できる。 多様体上の意味的補間は、画像補間を平滑化するのに非常に有用であることが証明されている。 それにもかかわらず、以前の全ての手法は低解像度画像補間に焦点をあてており、そのほとんどは高解像度画像に対してうまく機能していない。 本稿では,高分解能CT画像の補間を実現するための新しいネットワークであるHigh Resolution Interpolation Network (HRINet)を提案する。 本稿では,ACAI と GAN のアイデアを組み合わせて,CT におけるヒト臓器構造の精度を向上し,高品質を維持しつつ,教師付き・教師なしの訓練を交互に適用することで,代替的な監督手法を提案する。 高品質補間のためのMSEベースと知覚に基づく損失最適化手法を比較し,構造的正しさと鋭さのトレードオフを示す。 実験の結果,2562,5122の画像の質的および質的改善が認められた。

Image interpolation in medical area is of high importance as most 3D biomedical volume images are sampled where the distance between consecutive slices significantly greater than the in-plane pixel size due to radiation dose or scanning time. Image interpolation creates a number of new slices between known slices in order to obtain an isotropic volume image. The results can be used for the higher quality of 3D reconstruction and visualization of human body structures. Semantic interpolation on the manifold has been proved to be very useful for smoothing image interpolation. Nevertheless, all previous methods focused on low-resolution image interpolation, and most of them work poorly on high-resolution image. We propose a novel network, High Resolution Interpolation Network (HRINet), aiming at producing high-resolution CT image interpolations. We combine the idea of ACAI and GANs, and propose a novel idea of alternative supervision method by applying supervised and unsupervised training alternatively to raise the accuracy of human organ structures in CT while keeping high quality. We compare an MSE based and a perceptual based loss optimizing methods for high quality interpolation, and show the tradeoff between the structural correctness and sharpness. Our experiments show the great improvement on 256 2 and 5122 images quantitatively and qualitatively.
翻訳日:2023-01-02 02:41:16 公開日:2020-06-07
# 信頼できないバッチから構造化分布を学ぶ:より速く、よりシンプルに

Learning Structured Distributions From Untrusted Batches: Faster and Simpler ( http://arxiv.org/abs/2002.10435v2 )

ライセンス: Link先を確認
Sitan Chen, Jerry Li, Ankur Moitra(参考訳) Qiao と Valiant [QV17] が導入した信頼できないバッチから学ぶ問題を再考する。 最近 jain と orlitsky [jo19] は、多項式時間で本質的に情報理論上最適誤差を達成するカットノルムに基づく単純な半定義型プログラミングアプローチを提唱した。 とChenらは言う。 [CLM19]は、$\mu$がロジコンケーブ、モノトンハザードレート、$t$-modalなど、構造化されると仮定される問題の変種であると考えた。 この場合、サンプル複雑性サブリニアを$n$で同じ誤差を達成でき、Haarウェーブレットを用いてそれを行うための準多項式時間アルゴリズムを示した。 本稿では, [jo19] と [clm19] の手法を合成し,両世界の最善を尽くす方法を見出した。 その過程で,sdp丸めの必要性を回避し,高次元ロバスト推定の強力な手法であるソフトフィルタリングのレンズを通して,より直接的な解釈を行うことで,jo19のアプローチを単純化する。 予備実験評価におけるアルゴリズムの有用性を検証する。

We revisit the problem of learning from untrusted batches introduced by Qiao and Valiant [QV17]. Recently, Jain and Orlitsky [JO19] gave a simple semidefinite programming approach based on the cut-norm that achieves essentially information-theoretically optimal error in polynomial time. Concurrently, Chen et al. [CLM19] considered a variant of the problem where $\mu$ is assumed to be structured, e.g. log-concave, monotone hazard rate, $t$-modal, etc. In this case, it is possible to achieve the same error with sample complexity sublinear in $n$, and they exhibited a quasi-polynomial time algorithm for doing so using Haar wavelets. In this paper, we find an appealing way to synthesize the techniques of [JO19] and [CLM19] to give the best of both worlds: an algorithm which runs in polynomial time and can exploit structure in the underlying distribution to achieve sublinear sample complexity. Along the way, we simplify the approach of [JO19] by avoiding the need for SDP rounding and giving a more direct interpretation of it through the lens of soft filtering, a powerful recent technique in high-dimensional robust estimation. We validate the usefulness of our algorithms in preliminary experimental evaluations.
翻訳日:2022-12-29 03:38:52 公開日:2020-06-07
# ドライバーはいつ集中するのか? 深層強化学習による注意に基づく運転行動モデリング

When Do Drivers Concentrate? Attention-based Driver Behavior Modeling With Deep Reinforcement Learning ( http://arxiv.org/abs/2002.11385v2 )

ライセンス: Link先を確認
Xingbo Fu, Feng Gao, Jiang Wu(参考訳) 運転者の気晴らしは運転の安全性に重大なリスクをもたらす。 空間領域とは別に、時間的意図の研究も必要である。 本稿では,ドライバーの時間的注意配分のパターンを明らかにすることを目的とする。 本稿では,車追従モデルにおいて,運転者の動作を観測に基づいて近似し,運転者の注意割当を連続時間ステップで測定するために,注意に基づく2つの遅延深い決定性ポリシー勾配(ATD3)アルゴリズムを提案する。 反応時間を考慮してアクターネットワークにアテンション機構を構築し,連続観測の時間的依存性を捉える。 批評家ネットワークでは、アクター・クリティカル・アルゴリズムに持続する過大評価値の推定にTD3(Twin Delayed Deep Deterministic Policy gradient Algorithm)を用いる。 実世界の車両軌道データセット実験を行い,提案手法の精度が7つのベースラインアルゴリズムを上回っていることを示す。 また,スムース車両における運転者の注意は,相対速度が突然低下した場合の最近の観測に留意しながら,前回の観測で一様に分布していることが明らかとなった。 本研究は、運転者の時間的注意に対する最初の貢献であり、データマイニングの観点から、交通システムにおける安全対策の科学的支援を提供する。

Driver distraction a significant risk to driving safety. Apart from spatial domain, research on temporal inattention is also necessary. This paper aims to figure out the pattern of drivers' temporal attention allocation. In this paper, we propose an actor-critic method - Attention-based Twin Delayed Deep Deterministic policy gradient (ATD3) algorithm to approximate a driver' s action according to observations and measure the driver' s attention allocation for consecutive time steps in car-following model. Considering reaction time, we construct the attention mechanism in the actor network to capture temporal dependencies of consecutive observations. In the critic network, we employ Twin Delayed Deep Deterministic policy gradient algorithm (TD3) to address overestimated value estimates persisting in the actor-critic algorithm. We conduct experiments on real-world vehicle trajectory datasets and show that the accuracy of our proposed approach outperforms seven baseline algorithms. Moreover, the results reveal that the attention of the drivers in smooth vehicles is uniformly distributed in previous observations while they keep their attention to recent observations when sudden decreases of relative speeds occur. This study is the first contribution to drivers' temporal attention and provides scientific support for safety measures in transportation systems from the perspective of data mining.
翻訳日:2022-12-28 14:07:29 公開日:2020-06-07
# 前景と後景の雑音に対する建築的レジリエンス

Architectural Resilience to Foreground-and-Background Adversarial Noise ( http://arxiv.org/abs/2003.10045v2 )

ライセンス: Link先を確認
Carl Cheng, Evan Hu(参考訳) 通常の画像の知覚不能な摂動の形での敵攻撃は広範囲に研究され、新しい防衛手法が作られるごとに、複数の敵攻撃がそれに対抗することが判明した。 特に、近年DeepFoolとCarini-Wagnerによって実証された一般的な攻撃スタイルは、予測モデルとその重みへの完全なアクセスが必要なホワイトボックスシナリオにのみ依存している。 本研究では,異なるネットワークアーキテクチャのレジリエンスとロバスト性を検討するため,画像のモデル非依存なベンチマーク摂動を提案する。 その結果、多くのタイプの畳み込みニューラルネットワークにおける深さの増加は、一般的に一般的な攻撃に対するモデルのレジリエンスを向上させ、モデルがより深くなるにつれて改善が着実に減少する。 さらに,スキップ接続を持つ残差アーキテクチャと類似した複雑性を持つ非再現アーキテクチャとの間には,敵対的ロバスト性に顕著な違いがあることが判明した。 本研究は,ネットワークのロバスト性に対する残差接続と深さの今後の理解の方向性を提供する。

Adversarial attacks in the form of imperceptible perturbations of normal images have been extensively studied, and for every new defense methodology created, multiple adversarial attacks are found to counteract it. In particular, a popular style of attack, exemplified in recent years by DeepFool and Carlini-Wagner, relies solely on white-box scenarios in which full access to the predictive model and its weights are required. In this work, we instead propose distinct model-agnostic benchmark perturbations of images in order to investigate the resilience and robustness of different network architectures. Results empirically determine that increasing depth within most types of Convolutional Neural Networks typically improves model resilience towards general attacks, with improvement steadily decreasing as the model becomes deeper. Additionally, we find that a notable difference in adversarial robustness exists between residual architectures with skip connections and non-residual architectures of similar complexity. Our findings provide direction for future understanding of residual connections and depth on network robustness.
翻訳日:2022-12-20 23:58:32 公開日:2020-06-07
# エッジにおける物体検出のためのインクリメンタルな知識伝達

Enabling Incremental Knowledge Transfer for Object Detection at the Edge ( http://arxiv.org/abs/2004.05746v2 )

ライセンス: Link先を確認
Mohammad Farhadi Bajestani, Mehdi Ghasemi, Sarma Vrudhula and Yezhou Yang(参考訳) ディープニューラルネットワーク(DNN)を用いたオブジェクト検出は、リソース/エネルギー制限されたユーザエンドデバイスの実装を妨げる膨大な計算を伴う。 DNNの成功の理由は、観測された環境のあらゆる異なる領域について知識を持つためである。 しかし、我々は、浅いニューラルネットワーク(SHNN)を用いて学習できる推論時に観測された環境について限られた知識が必要である。 本稿では,ユーザエンドデバイスにおける物体検出のエネルギー消費を改善するためのシステムレベル設計を提案する。 SHNNは、観察環境内のオブジェクトを検出するために、ユーザエンドデバイスにデプロイされる。 また、オブジェクトドメインに変更がある場合、DNN知識を使用してSHNNモデルを更新するために、知識伝達機構を実装した。 DNNの知識は、LANまたはWi-Fiを介してユーザ端末に接続された強力なエッジデバイスから得ることができる。 実験により、ユーザエンドデバイス上でのディープモデルの実行と比較して、ユーザエンドデバイスのエネルギー消費と推論時間を78%と71%改善できることが示されている。

Object detection using deep neural networks (DNNs) involves a huge amount of computation which impedes its implementation on resource/energy-limited user-end devices. The reason for the success of DNNs is due to having knowledge over all different domains of observed environments. However, we need a limited knowledge of the observed environment at inference time which can be learned using a shallow neural network (SHNN). In this paper, a system-level design is proposed to improve the energy consumption of object detection on the user-end device. An SHNN is deployed on the user-end device to detect objects in the observing environment. Also, a knowledge transfer mechanism is implemented to update the SHNN model using the DNN knowledge when there is a change in the object domain. DNN knowledge can be obtained from a powerful edge device connected to the user-end device through LAN or Wi-Fi. Experiments demonstrate that the energy consumption of the user-end device and the inference time can be improved by 78% and 71% compared with running the deep model on the user-end device.
翻訳日:2022-12-14 00:01:41 公開日:2020-06-07
# CDL:感情制御可能な応答生成のためのカリキュラムデュアルラーニング

CDL: Curriculum Dual Learning for Emotion-Controllable Response Generation ( http://arxiv.org/abs/2005.00329v5 )

ライセンス: Link先を確認
Lei Shen, Yang Feng(参考訳) 感情制御可能な応答生成は、オープンドメインの会話をより共感的かつ魅力的にすることを目的とした、魅力的で価値のあるタスクです。 既存の方法は、標準のクロスエントロピー損失に正規化項を追加して感情表現を増強し、トレーニングプロセスに影響を及ぼす。 しかし、コンテンツ一貫性のさらなる考慮が欠如しているため、レスポンス生成タスクの共通問題であるsafe responseが強化されている。 さらに、クエリとレスポンスの関係をモデル化するクエリ感情は、以前のモデルでは単に無視されるため、コヒーレンスをさらに損なうことになる。 そこで本研究では,感情制御可能な応答生成を2つのタスクに拡張し,感情応答と感情応答を交互に生成する,カリキュラム・デュアルラーニング(cdl)という新しい枠組みを提案する。 CDLは感情とコンテンツに焦点を当てた2つの報酬を利用して二重性を改善する。 さらに,様々な感情を表現することの難しさから,質の高い反応を徐々に生成するためにカリキュラム学習を適用する。 実験の結果,CDLはコヒーレンス,多様性,感情要因との関連において,ベースラインを著しく上回ることがわかった。

Emotion-controllable response generation is an attractive and valuable task that aims to make open-domain conversations more empathetic and engaging. Existing methods mainly enhance the emotion expression by adding regularization terms to standard cross-entropy loss and thus influence the training process. However, due to the lack of further consideration of content consistency, the common problem of response generation tasks, safe response, is intensified. Besides, query emotions that can help model the relationship between query and response are simply ignored in previous models, which would further hurt the coherence. To alleviate these problems, we propose a novel framework named Curriculum Dual Learning (CDL) which extends the emotion-controllable response generation to a dual task to generate emotional responses and emotional queries alternatively. CDL utilizes two rewards focusing on emotion and content to improve the duality. Additionally, it applies curriculum learning to gradually generate high-quality responses based on the difficulties of expressing various emotions. Experimental results show that CDL significantly outperforms the baselines in terms of coherence, diversity, and relation to emotion factors.
翻訳日:2022-12-07 22:34:38 公開日:2020-06-07
# DAugNet:衛星画像のセマンティックセグメンテーションのための教師なし、マルチソース、マルチターゲット、生涯ドメイン適応

DAugNet: Unsupervised, Multi-source, Multi-target, and Life-long Domain Adaptation for Semantic Segmentation of Satellite Images ( http://arxiv.org/abs/2005.06216v2 )

ライセンス: Link先を確認
Onur Tasar, Alain Giros, Yuliya Tarabalka, Pierre Alliez, S\'ebastien Clerc(参考訳) 衛星画像の領域適応は、大規模衛星画像のセグメント化における機械学習モデルの限定的な一般化能力を克服するために近年注目されている。 既存のアプローチのほとんどは、あるドメインから別のドメインへのモデルの適用を求めています。 しかし、この単一ソースおよび単一ターゲット設定は、現在、異なるデータ分布を持つ複数のソースおよびターゲットドメインが一般的に利用可能であるため、スケーラブルなソリューションであることを妨げる。 さらに、衛星画像の連続的な増殖は、分類器が継続的に増加するデータに対応する必要がある。 本稿では,衛星画像の教師なし,マルチソース,マルチターゲット,生涯ドメイン適応のためのdaugnetという新しい手法を提案する。 分類器とデータ拡張器で構成される。 浅層ネットワークであるデータ拡張器は、時間とともに新しいデータが加えられた場合でも、教師なしの方法で複数の衛星画像間のスタイル転送を行うことができる。 各トレーニングイテレーションでは、分類器に多様化データを提供し、ドメイン間の大きなデータ分散差に対して、分類器を堅牢にする。 我々の広範な実験により、daugnetは既存のアプローチよりも新しい地理的な場所にかなりよく一般化できることが証明された。

The domain adaptation of satellite images has recently gained an increasing attention to overcome the limited generalization abilities of machine learning models when segmenting large-scale satellite images. Most of the existing approaches seek for adapting the model from one domain to another. However, such single-source and single-target setting prevents the methods from being scalable solutions, since nowadays multiple source and target domains having different data distributions are usually available. Besides, the continuous proliferation of satellite images necessitates the classifiers to adapt to continuously increasing data. We propose a novel approach, coined DAugNet, for unsupervised, multi-source, multi-target, and life-long domain adaptation of satellite images. It consists of a classifier and a data augmentor. The data augmentor, which is a shallow network, is able to perform style transfer between multiple satellite images in an unsupervised manner, even when new data are added over the time. In each training iteration, it provides the classifier with diversified data, which makes the classifier robust to large data distribution difference between the domains. Our extensive experiments prove that DAugNet significantly better generalizes to new geographic locations than the existing approaches.
翻訳日:2022-12-03 13:00:20 公開日:2020-06-07
# ランダム化平滑化機構の検証に向けて

Towards Assessment of Randomized Smoothing Mechanisms for Certifying Adversarial Robustness ( http://arxiv.org/abs/2005.07347v3 )

ライセンス: Link先を確認
Tianhang Zheng, Di Wang, Baochun Li, Jinhui Xu(参考訳) 認証された防御技術として、大規模なデータセットやニューラルネットワークへのスケーラビリティのため、ランダム化されたスムーシングが注目されている。 しかし、いくつかの重要な質問は未回答のままである。 i)ガウス機構が$\ell_2$-normのロバスト性を証明する適切な選択肢であるか否か、そして (ii)$\ell_\infty$-normロバスト性を証明する適切なランダム化(smoothing)メカニズムがあるかどうか。 これらの疑問を浮き彫りにするために、各ランダム化メカニズムの適切性を評価するのが主な難しさである、と論じる。 本稿では,既存のフレームワークであるcite{lecuyer2018certified, li2019certified} を連結してランダム化機構を評価する汎用フレームワークを提案する。 筆者らの枠組みでは, ある程度の頑健さを証明できるランダム化機構に対して, 必要な付加雑音の大きさを, その妥当性を評価する指標として定義する。 また、評価基準として $\ell_2$-norm と $\ell_\infty$-norm に対して、この計量に対する下限も証明する。 この枠組みに基づき, ガウス的および指数的メカニズムを, これらの機構が要求する付加雑音の大きさと下限(クリトリア)を比較して評価する。 まず、ガウス機構は実際に $\ell_2$-norm のロバスト性を証明する適切な選択肢であると結論付ける。 驚いたことに、ガウスのメカニズムは指数機構の代わりに$\ell_\infty$-normのロバスト性を証明するための適切な選択肢でもある。 最後に、フレームワークを$p\geq2$に対して$\ell_p$-normに一般化します。 理論的知見はcifar10とimagenetの評価によって検証された。

As a certified defensive technique, randomized smoothing has received considerable attention due to its scalability to large datasets and neural networks. However, several important questions remain unanswered, such as (i) whether the Gaussian mechanism is an appropriate option for certifying $\ell_2$-norm robustness, and (ii) whether there is an appropriate randomized (smoothing) mechanism to certify $\ell_\infty$-norm robustness. To shed light on these questions, we argue that the main difficulty is how to assess the appropriateness of each randomized mechanism. In this paper, we propose a generic framework that connects the existing frameworks in \cite{lecuyer2018certified, li2019certified}, to assess randomized mechanisms. Under our framework, for a randomized mechanism that can certify a certain extent of robustness, we define the magnitude of its required additive noise as the metric for assessing its appropriateness. We also prove lower bounds on this metric for the $\ell_2$-norm and $\ell_\infty$-norm cases as the criteria for assessment. Based on our framework, we assess the Gaussian and Exponential mechanisms by comparing the magnitude of additive noise required by these mechanisms and the lower bounds (criteria). We first conclude that the Gaussian mechanism is indeed an appropriate option to certify $\ell_2$-norm robustness. Surprisingly, we show that the Gaussian mechanism is also an appropriate option for certifying $\ell_\infty$-norm robustness, instead of the Exponential mechanism. Finally, we generalize our framework to $\ell_p$-norm for any $p\geq2$. Our theoretical findings are verified by evaluations on CIFAR10 and ImageNet.
翻訳日:2022-12-02 22:43:55 公開日:2020-06-07
# メタラーニングを用いた数発オープンセット認識

Few-Shot Open-Set Recognition using Meta-Learning ( http://arxiv.org/abs/2005.13713v2 )

ライセンス: Link先を確認
Bo Liu, Hao Kang, Haoxiang Li, Gang Hua, Nuno Vasconcelos(参考訳) オープンセット認識の問題点を考察する。 従来のアプローチでは,大規模分類訓練の文脈でのみこの問題を考えるが,本手法と低ショット分類設定の統一解を求める。 古典的なsoftmax分類器は、トレーニングクラスに過剰に適合する傾向があるため、オープンセット認識の貧弱なソリューションであると主張する。 ランダム化はこの問題の解法として提案される。 これは、オープンセット認識のソリューションとして、少ないショット分類に一般的に使用されるメタラーニング技術の使用を示唆している。 次に、新しいoPen sEt mEta LEaRning (PEELER)アルゴリズムを導入する。 これは、エピソードごとに一連の新しいクラスをランダムに選択することと、それらのクラスの例の後方エントロピーを最大化する損失と、マハラノビス距離に基づく新しいメトリック学習定式化を組み合わせる。 実験の結果,PEELERは,少数ショットと大規模認識の両方において,オープンセット認識性能の達成を図っている。 CIFARとminiImageNetでは、所定のクラス分類精度に対して、見かけ/見えないクラス検出のAUROCでかなりの向上を達成する。

The problem of open-set recognition is considered. While previous approaches only consider this problem in the context of large-scale classifier training, we seek a unified solution for this and the low-shot classification setting. It is argued that the classic softmax classifier is a poor solution for open-set recognition, since it tends to overfit on the training classes. Randomization is then proposed as a solution to this problem. This suggests the use of meta-learning techniques, commonly used for few-shot classification, for the solution of open-set recognition. A new oPen sEt mEta LEaRning (PEELER) algorithm is then introduced. This combines the random selection of a set of novel classes per episode, a loss that maximizes the posterior entropy for examples of those classes, and a new metric learning formulation based on the Mahalanobis distance. Experimental results show that PEELER achieves state of the art open set recognition performance for both few-shot and large-scale recognition. On CIFAR and miniImageNet, it achieves substantial gains in seen/unseen class detection AUROC for a given seen-class classification accuracy.
翻訳日:2022-11-28 09:24:09 公開日:2020-06-07
# ディープフュージョン・シームズ・ネットワークによる自動親和性検証

Deep Fusion Siamese Network for Automatic Kinship Verification ( http://arxiv.org/abs/2006.00143v2 )

ライセンス: Link先を確認
Jun Yu, Mengyan Li, Xinlong Hao and Guochen Xie(参考訳) 自動親族検証は、ある個人が同じ家族に属しているかどうかを判定することを目的としている。 行方不明者が家族と再会するのを助けることは、非常に重要な研究である。 本研究では,課題は2つの点で徐々に解決される。 まず,2個体間の相対的類似性を定量化するディープサイムズネットワークを提案する。 2つの入力顔画像が与えられると、ディープサイムズネットワークはそれらから特徴を抽出し、それらの特徴を結合して融合する。 そして、融合した特徴を完全接続ネットワークに入力し、2つの顔間の類似度スコアを取得し、親族性を検証する。 性能向上のため、マルチモデル融合にも陪審制度が用いられている。 第2に,親子間の親子関係を判断するために,親子間の親子関係の検証を行うディープトリプレットネットワークに,2つのディープシャムネットワークが統合されている。 具体的には、親子と親子の類似度スコアを重み付けて親子類似度スコアを生成し、親子照合を行う。 野生の家族(rfiw)を認識することは、野生の家族(fiw)をベースとし、自動親族認識のための大規模で包括的な画像データベースである複数のトラックを持つ親族認識タスクである。 Kinship Verification(トラックI)とTri-Subject Verification(トラックII)は、現在進行中のRFIW2020 Challengeでサポートされている。 私たちのチーム(ustc-nelslip)は、トラックIIで1位、トラックIで3位だった。 コードはhttps://github.com/gniknoil/FG2020-kinshipで入手できる。

Automatic kinship verification aims to determine whether some individuals belong to the same family. It is of great research significance to help missing persons reunite with their families. In this work, the challenging problem is progressively addressed in two respects. First, we propose a deep siamese network to quantify the relative similarity between two individuals. When given two input face images, the deep siamese network extracts the features from them and fuses these features by combining and concatenating. Then, the fused features are fed into a fully-connected network to obtain the similarity score between two faces, which is used to verify the kinship. To improve the performance, a jury system is also employed for multi-model fusion. Second, two deep siamese networks are integrated into a deep triplet network for tri-subject (i.e., father, mother and child) kinship verification, which is intended to decide whether a child is related to a pair of parents or not. Specifically, the obtained similarity scores of father-child and mother-child are weighted to generate the parent-child similarity score for kinship verification. Recognizing Families In the Wild (RFIW) is a challenging kinship recognition task with multiple tracks, which is based on Families in the Wild (FIW), a large-scale and comprehensive image database for automatic kinship recognition. The Kinship Verification (track I) and Tri-Subject Verification (track II) are supported during the ongoing RFIW2020 Challenge. Our team (ustc-nelslip) ranked 1st in track II, and 3rd in track I. The code is available at https://github.com/gniknoil/FG2020-kinship.
翻訳日:2022-11-26 18:08:42 公開日:2020-06-07
# 多頭部注意機構を用いた行動ロボットナビゲーションのための自然言語命令の翻訳

Translating Natural Language Instructions for Behavioral Robot Navigation with a Multi-Head Attention Mechanism ( http://arxiv.org/abs/2006.00697v3 )

ライセンス: Link先を確認
Patricio Cerda-Mardini, Vladimir Araujo, Alvaro Soto(参考訳) 本稿では,自然言語を屋内ロボットナビゲーションのための高レベル行動言語に変換するニューラルネットワークモデルにおけるブレンディング層としてのマルチヘッドアテンション機構を提案する。 我々は,ナビゲーショングラフをタスクの知識基盤として用いることを提案する(Zang et al., 2018a)。 その結果,既定環境における命令の翻訳性能が大幅に向上し,モデルの一般化能力が向上した。

We propose a multi-head attention mechanism as a blending layer in a neural network model that translates natural language to a high level behavioral language for indoor robot navigation. We follow the framework established by (Zang et al., 2018a) that proposes the use of a navigation graph as a knowledge base for the task. Our results show significant performance gains when translating instructions on previously unseen environments, therefore, improving the generalization capabilities of the model.
翻訳日:2022-11-26 05:46:24 公開日:2020-06-07
# 近接ベースのネットワーク: particle swarm optimization で最適化された small world overlays

Proximity-based Networking: Small world overlays optimized with particle swarm optimization ( http://arxiv.org/abs/2006.02006v2 )

ライセンス: Link先を確認
Chase Smith, Alex Rusnak(参考訳) 情報伝達は、大規模でダイナミックな分散システムにおいて、基本かつ頻繁に発生する問題である。 これを解決するため、分散ピアツーピアネットワークを維持できる効率的なオーバーレイネットワーク構築への関心が高まっている。 これらのオーバーレイネットワーク内のノードは、近接性に基づいて接続される小さな世界ネットワークのパターンを取り込む。 これらの小世界のシステムは、インターネットネットワーク内の情報の拡散とルックアップに極めて有用である。 データは転送され、転送エラー訂正(FEC)とユーザデータグラムプロトコル(UDP)を通じて、最小限の情報損失でルーティングされる。 本稿では,各ノードの分割鍵空間内のピアの配置に,コード内の地理的位置を組み込んだネットワーク方式を提案する。 これを近接系近傍集合 { based on the small world structure} と組み合わせると、従来の小世界の問題を解決するために設計された解の効率を模倣し、レジリエンスとフォールトトレランスの利点を付加することができる。 さらに、近隣要求に基づいてルーティングとアドレス帳を更新することができる。 提案手法の柔軟性により,様々なSwarmモデルとエージェントが利用可能となる。 これにより、ネットワークのファイル共有、ストリーミング、同期に適用可能な基盤となるネットワークモデルとしてネットワークが実現されます。

Information dissemination is a fundamental and frequently occurring problem in large, dynamic, distributed systems. In order to solve this, there has been an increased interest in creating efficient overlay networks that can maintain decentralized peer-to-peer networks. Within these overlay networks nodes take the patterns of small world networks, whose connections are based on proximity. These small-world systems can be incredibly useful in the dissemination and lookup of information within an internet network. The data can be efficiently transferred and routing with minimal information loss through forward error correct (FEC) and the User Datagram Protocol (UDP). We propose a networking scheme that incorporates geographic location in chord for the organization of peers within each node's partitioned key space. When we combine this with a proximity-based neighborhood set {based on the small world structure} we can mimic the efficient of solutions designed to solve traditional small-world problems, with the additional benefit of resilience and fault-tolerance. Furthermore, the routing and address book can be updated based on the neighborhood requirements. The flexibility of our proposed schemes enables a variety of swarm models, and agents. This enables our network to as an underlying networking model that can be applied to file-sharing, streaming, and synchronization of networks.
翻訳日:2022-11-25 18:02:54 公開日:2020-06-07
# 神経渦法:有限ラグランジュ粒子から無限次元オイラー力学へ

Neural Vortex Method: from Finite Lagrangian Particles to Infinite Dimensional Eulerian Dynamics ( http://arxiv.org/abs/2006.04178v1 )

ライセンス: Link先を確認
Shiying Xiong, Xingzhe He, Yunjin Tong, and Bo Zhu(参考訳) 流体数値解析の分野では、連続流場から離散渦粒子への厳密な数学的ツールの欠如、ラグランジアン粒子の大規模オイラー解法の高分解能継承の回避、といった長年の問題があった。 この課題に対処するために,ラグランジアン渦構造とその相互作用ダイナミクスをニューラルネットワークで記述し,高分解能ユーレリア流れ場を物理的に再現する,新しい学習ベースフレームワークであるNeural Vortex Method (NVM)を提案する。 格子型速度場からラグランジアン渦を識別する渦表現ネットワークと,これらの有限構造の基盤となる支配力学を学習する渦相互作用ネットワークの2つのネットワークから構成される。 これら2つのネットワークを渦対速度ポアソン解法で埋め込んで,高分解能直接数値シミュレーションから得られた高忠実度データを用いてパラメータを訓練することにより,従来の全ての渦解法(CVM)では不可能な精度レベルで正確な流体力学を予測できる。 我々の知る限りでは、この手法は有限粒子の運動を利用して無限次元力学系を学習する最初の方法である。 本研究では, 渦輪系, 乱流系, 外部力の異なるオイラー方程式が支配する系において, 計算コストの低い高精度な予測結果を生成する方法の有効性を実証する。

In the field of fluid numerical analysis, there has been a long-standing problem: lacking of a rigorous mathematical tool to map from a continuous flow field to discrete vortex particles, hurdling the Lagrangian particles from inheriting the high resolution of a large-scale Eulerian solver. To tackle this challenge, we propose a novel learning-based framework, the Neural Vortex Method (NVM), which builds a neural-network description of the Lagrangian vortex structures and their interaction dynamics to reconstruct the high-resolution Eulerian flow field in a physically-precise manner. The key components of our infrastructure consist of two networks: a vortex representation network to identify the Lagrangian vortices from a grid-based velocity field and a vortex interaction network to learn the underlying governing dynamics of these finite structures. By embedding these two networks with a vorticity-to-velocity Poisson solver and training its parameters using the high-fidelity data obtained from high-resolution direct numerical simulation, we can predict the accurate fluid dynamics on a precision level that was infeasible for all the previous conventional vortex methods (CVMs). To the best of our knowledge, our method is the first approach that can utilize motions of finite particles to learn infinite dimensional dynamic systems. We demonstrate the efficacy of our method in generating highly accurate prediction results, with low computational cost, of the leapfrogging vortex rings system, the turbulence system, and the systems governed by Euler equations with different external forces.
翻訳日:2022-11-24 08:41:30 公開日:2020-06-07
# RoeNets: 連続データから双曲型システムの不連続を予測する

RoeNets: Predicting Discontinuity of Hyperbolic Systems from Continuous Data ( http://arxiv.org/abs/2006.04180v1 )

ライセンス: Link先を確認
Shiying Xiong, Xingzhe He, Yunjin Tong, Runze Liu, and Bo Zhu(参考訳) 本稿では,短期的不連続かつ連続的なトレーニングデータに基づいて,双曲保存法則(HCL)の不連続性を予測できるRoe Neural Networks(RoeNets)を紹介する。 我々の手法は、最も基本的なHCL数値解法の一つであるリーマン近似解法(P. L. Roe, J. Comput. Phys., vol. 43, 1981, pp. 357--372)に着想を得たものである。 hclsを正確に解くために、roeは、真の固有値を持つ対角化可能で、正確なヤコビアンと一致し、保存された量の保存を含む「プロパティu」を満たすroe行列を構築する必要があると主張する。 しかし、そのような行列の構成は一般的な数値法では達成できない。 本モデルは,roeソルバをニューラルネットワークの観点で適用することで,hclの解法を画期的に改善した。 モデルの表現力を高めるために、擬似逆を新しい文脈に組み込んで隠れた次元を可能にし、パラメータの数に柔軟に対応できるようにします。 継続的トレーニングデータの短いウィンドウから長期的不連続を予測できるモデルの能力は、従来の機械学習アプローチでは不可能であると考えられる。 本モデルは,滑らかなトレーニングデータから,双曲系の散逸や不連続性を伴わずに,対流の進化を高精度に予測できることを実証する。

We introduce Roe Neural Networks (RoeNets) that can predict the discontinuity of the hyperbolic conservation laws (HCLs) based on short-term discontinuous and even continuous training data. Our methodology is inspired by Roe approximate Riemann solver (P. L. Roe, J. Comput. Phys., vol. 43, 1981, pp. 357--372), which is one of the most fundamental HCLs numerical solvers. In order to accurately solve the HCLs, Roe argues the need to construct a Roe matrix that fulfills "Property U", including diagonalizable with real eigenvalues, consistent with the exact Jacobian, and preserving conserved quantities. However, the construction of such matrix cannot be achieved by any general numerical method. Our model made a breakthrough improvement in solving the HCLs by applying Roe solver under a neural network perspective. To enhance the expressiveness of our model, we incorporate pseudoinverses into a novel context to enable a hidden dimension so that we are flexible with the number of parameters. The ability of our model to predict long-term discontinuity from a short window of continuous training data is in general considered impossible using traditional machine learning approaches. We demonstrate that our model can generate highly accurate predictions of evolution of convection without dissipation and the discontinuity of hyperbolic systems from smooth training data.
翻訳日:2022-11-24 08:41:03 公開日:2020-06-07
# 統計的・構造モデルを用いたアンサンブル学習

Ensemble Learning with Statistical and Structural Models ( http://arxiv.org/abs/2006.05308v1 )

ライセンス: Link先を確認
Jiaming Mao, Jingzhi Xu(参考訳) 統計モデルと構造モデリングはデータ分析の2つの異なるアプローチを表している。 本稿では,予測と因果推論を改善するために,統計モデルと構造モデルを組み合わせた新しい手法を提案する。 最初に提案した推定器は、統計モデルまたは構造モデルの正しい仕様のみを必要とするという二重ロバスト性を持つ。 提案する2番目の推定器は重み付けアンサンブルであり、どちらも不特定時に両方のモデルを上回る性能を持つ。 実験では, フィストプライスオークション, 入出力の動的モデル, 機器変数による需要推定など, 各種設定における推定装置の可能性を示す。

Statistical and structural modeling represent two distinct approaches to data analysis. In this paper, we propose a set of novel methods for combining statistical and structural models for improved prediction and causal inference. Our first proposed estimator has the doubly robustness property in that it only requires the correct specification of either the statistical or the structural model. Our second proposed estimator is a weighted ensemble that has the ability to outperform both models when they are both misspecified. Experiments demonstrate the potential of our estimators in various settings, including fist-price auctions, dynamic models of entry and exit, and demand estimation with instrumental variables.
翻訳日:2022-11-24 08:40:20 公開日:2020-06-07
# スペクトルクラスタリングにおける平均感度

Average Sensitivity of Spectral Clustering ( http://arxiv.org/abs/2006.04094v1 )

ライセンス: Link先を確認
Pan Peng, Yuichi Yoshida(参考訳) スペクトルクラスタリングは、グラフ内のクラスタを見つけるための最も一般的なクラスタリング方法の1つであり、データマイニングに多くの応用がある。 しかし、これらのアプリケーションにおける入力グラフは、測定の誤り、プライバシの理由の保持、データ変換の任意性などにより、多くのエッジが不足している可能性がある。 スペクトルクラスタリングに基づく信頼性と効率的な決定を行うために,エッジのランダム除去前後の出力クラスタの対称差の予測サイズである平均感度の概念を用いて,入力グラフのエッジ摂動に対するスペクトルクラスタリングの安定性を評価する。 まず、スペクトルクラスタリングの平均感度が$\lambda_2/\lambda_3^2$に比例することを証明し、$\lambda_i$は(正規化)ラプラシアンの最小固有値である。 私たちはまた、グラフを$k$クラスタに分割する$k$-wayスペクトルクラスタリングに対する類似のバウンドを証明します。 次に, 合成および実ネットワーク実験を行い, 理論境界を実証的に確認する。 その結果,入力グラフにクラスタ構造がある場合,スペクトルクラスタリングはエッジ摂動に対して安定であることが示唆された。

Spectral clustering is one of the most popular clustering methods for finding clusters in a graph, which has found many applications in data mining. However, the input graph in those applications may have many missing edges due to error in measurement, withholding for a privacy reason, or arbitrariness in data conversion. To make reliable and efficient decisions based on spectral clustering, we assess the stability of spectral clustering against edge perturbations in the input graph using the notion of average sensitivity, which is the expected size of the symmetric difference of the output clusters before and after we randomly remove edges. We first prove that the average sensitivity of spectral clustering is proportional to $\lambda_2/\lambda_3^2$, where $\lambda_i$ is the $i$-th smallest eigenvalue of the (normalized) Laplacian. We also prove an analogous bound for $k$-way spectral clustering, which partitions the graph into $k$ clusters. Then, we empirically confirm our theoretical bounds by conducting experiments on synthetic and real networks. Our results suggest that spectral clustering is stable against edge perturbations when there is a cluster structure in the input graph.
翻訳日:2022-11-24 08:40:09 公開日:2020-06-07
# VQVC+:ベクトル量子化とU-Netアーキテクチャによるワンショット音声変換

VQVC+: One-Shot Voice Conversion by Vector Quantization and U-Net architecture ( http://arxiv.org/abs/2006.04154v1 )

ライセンス: Link先を確認
Da-Yi Wu, Yen-Hao Chen, Hung-Yi Lee(参考訳) 音声変換(Voice conversion, VC)とは、音源話者の音色、アクセント、音色を、言語的内容を保持しながら他の音に変換するタスクである。 特にワンショットの環境では、まだ難しい作業だ。 自動エンコーダベースのVC手法は、話者のアイデンティティを付与せずに、入力音声中の話者とコンテンツをアンタングルするので、これらの手法は見当たらない話者にさらに一般化することができる。 逆角化能力は、ベクトル量子化(VQ)、敵対的トレーニング、インスタンス正規化(IN)によって達成される。 しかし、不完全な乱れは出力音声の品質を損なう可能性がある。 本研究では,音声品質の向上を目的として,自動エンコーダベースVCシステム内でU-Netアーキテクチャを利用する。 U-Netアーキテクチャを活用するためには,強力な情報ボトルネックが必要である。 潜在ベクトルを量子化するVQベースの手法は、その目的を果たすことができる。 目的と主観評価は,提案手法が音声の自然性と話者の類似性の両方で良好に動作することを示す。

Voice conversion (VC) is a task that transforms the source speaker's timbre, accent, and tones in audio into another one's while preserving the linguistic content. It is still a challenging work, especially in a one-shot setting. Auto-encoder-based VC methods disentangle the speaker and the content in input speech without given the speaker's identity, so these methods can further generalize to unseen speakers. The disentangle capability is achieved by vector quantization (VQ), adversarial training, or instance normalization (IN). However, the imperfect disentanglement may harm the quality of output speech. In this work, to further improve audio quality, we use the U-Net architecture within an auto-encoder-based VC system. We find that to leverage the U-Net architecture, a strong information bottleneck is necessary. The VQ-based method, which quantizes the latent vectors, can serve the purpose. The objective and the subjective evaluations show that the proposed method performs well in both audio naturalness and speaker similarity.
翻訳日:2022-11-24 08:39:48 公開日:2020-06-07
# 相関電子磁石における相分離の機械学習ダイナミクス

Machine learning dynamics of phase separation in correlated electron magnets ( http://arxiv.org/abs/2006.04205v1 )

ライセンス: Link先を確認
Puhan Zhang, Preetha Saha, Gia-Wei Chern(参考訳) 両交換系における電子位相分離の大規模動的シミュレーションを機械学習により実現した。 このモデルは強磁性コンド格子モデルとしても知られ、余剰磁気抵抗現象に関係していると考えられている。 電子ハミルトニアンから計算された交換力を持つそのような不均質状態の実空間シミュレーションは、大規模システムでは違法に高価である。 ここでは、小さな格子上の正確な計算からデータセットによって訓練されたニューラルネットワークを用いて、線形スケーリング交換場計算が可能であることを示す。 機械学習ポテンシャルに基づくランダウ・リフシッツ力学シミュレーションは、非平衡緩和過程だけでなく、正確なシミュレーションと定量的に一致する相関関数も良好に再現する。 本研究では,機械学習モデルを用いて相関電子系の大規模動的シミュレーションを行う。

We demonstrate machine-learning enabled large-scale dynamical simulations of electronic phase separation in double-exchange system. This model, also known as the ferromagnetic Kondo lattice model, is believed to be relevant for the colossal magnetoresistance phenomenon. Real-space simulations of such inhomogeneous states with exchange forces computed from the electron Hamiltonian can be prohibitively expensive for large systems. Here we show that linear-scaling exchange field computation can be achieved using neural networks trained by datasets from exact calculation on small lattices. Our Landau-Lifshitz dynamics simulations based on machine-learning potentials nicely reproduce not only the nonequilibrium relaxation process, but also correlation functions that agree quantitatively with exact simulations. Our work paves the way for large-scale dynamical simulations of correlated electron systems using machine-learning models.
翻訳日:2022-11-24 08:39:30 公開日:2020-06-07
# 不動産市場秩序ストリームの生成

Generating Realistic Stock Market Order Streams ( http://arxiv.org/abs/2006.04212v1 )

ライセンス: Link先を確認
Junyi Li, Xitong Wang, Yaoyang Lin, Arunesh Sinha, Micheal P. Wellman(参考訳) 本稿では,gans(generative adversarial network)に基づく現実的で忠実な株式市場データを生成する手法を提案する。 当社のストックganモデルは条件付きwasserstein ganを使用して注文の履歴依存性をキャプチャする。 ジェネレータの設計には、市場のオークション機構を近似するコンポーネントを含む特別に製作された側面が含まれており、注文帳構造による注文履歴を増強して生成タスクを改善する。 本研究は,ネットワーク構造の有用性を検証するためのアブレーション研究である。 生成器が学習した分布の数学的特徴付けを行う。 また,生成順序の質を測定する統計も提案する。 我々は、合成および実際の市場データを用いてアプローチを検証し、多くのベースライン生成モデルと比較し、生成したデータを実データに近いものにする。

We propose an approach to generate realistic and high-fidelity stock market data based on generative adversarial networks (GANs). Our Stock-GAN model employs a conditional Wasserstein GAN to capture history dependence of orders. The generator design includes specially crafted aspects including components that approximate the market's auction mechanism, augmenting the order history with order-book constructions to improve the generation task. We perform an ablation study to verify the usefulness of aspects of our network structure. We provide a mathematical characterization of distribution learned by the generator. We also propose statistics to measure the quality of generated orders. We test our approach with synthetic and actual market data, compare to many baseline generative models, and find the generated data to be close to real data.
翻訳日:2022-11-24 08:39:18 公開日:2020-06-07
# 極小正方形の準最適性と凸体推定への応用

On Suboptimality of Least Squares with Application to Estimation of Convex Bodies ( http://arxiv.org/abs/2006.04046v1 )

ライセンス: Link先を確認
Gil Kur, Alexander Rakhlin and Adityanand Guntuboyina(参考訳) 大規模関数のクラスに対する最小二乗(または経験的リスク最小化)のサンプル複雑性の下位境界を確立する手法を開発した。 応用として、次元$d\geq 6$の雑音支援関数の測定値から凸集合を推定する際、最小広場の最適性に関するオープンな問題を解決する。 具体的には、Least Squaresはmimimax sub-optimalであり、$\tilde{\Theta}_d(n^{-2/(d-1)})$であるのに対して、minimax rateは$\Theta_d(n^{-4/(d+3)})$である。

We develop a technique for establishing lower bounds on the sample complexity of Least Squares (or, Empirical Risk Minimization) for large classes of functions. As an application, we settle an open problem regarding optimality of Least Squares in estimating a convex set from noisy support function measurements in dimension $d\geq 6$. Specifically, we establish that Least Squares is mimimax sub-optimal, and achieves a rate of $\tilde{\Theta}_d(n^{-2/(d-1)})$ whereas the minimax rate is $\Theta_d(n^{-4/(d+3)})$.
翻訳日:2022-11-24 08:39:06 公開日:2020-06-07
# 高度な推論

Sophisticated Inference ( http://arxiv.org/abs/2006.04120v1 )

ライセンス: Link先を確認
Karl Friston, Lancelot Da Costa, Danijar Hafner, Casper Hesp, Thomas Parr(参考訳) 能動推論は、感性行動の第一原理的な説明であり、強化学習、能動学習、ベイズ最適推論、ベイズ最適設計など、特殊かつ重要な事例を導出することができる。 アクティブ推論は、情報ゲインを報酬や価値と同じ足場に配置することで、事前の嗜好に関連する搾取探索ジレンマを解決する。 簡単に言えば、活性推論は期待(変分)自由エネルギーの形で、値関数を(ベイズ的)信念の関数に置き換える。 本稿では, 期待自由エネルギーの帰納形式を用いて, 洗練された能動推論を考える。 ソフィケーション(Sophistication)とは、エージェントが信念を信じる程度を指す。 我々は,行動の反事実的結果に対する信念を持つエージェントと,それらの潜在状態に関する信念を考察する。 言い換えれば、単に「もしそうすれば何が起こるか」という信念から「もしそうしたら何が起こるか」へと移行したのである。 自由エネルギー関数の帰納形式は、将来的な行動や結果に対する深い木探索を効果的に実施する。 重要な点として、この探索は信念の状態の列の上にあり、それとは対照的である。 本稿では, 深部決定問題の数値シミュレーションを用いて, このスキームの能力について述べる。

Active inference offers a first principle account of sentient behaviour, from which special and important cases can be derived, e.g., reinforcement learning, active learning, Bayes optimal inference, Bayes optimal design, etc. Active inference resolves the exploitation-exploration dilemma in relation to prior preferences, by placing information gain on the same footing as reward or value. In brief, active inference replaces value functions with functionals of (Bayesian) beliefs, in the form of an expected (variational) free energy. In this paper, we consider a sophisticated kind of active inference, using a recursive form of expected free energy. Sophistication describes the degree to which an agent has beliefs about beliefs. We consider agents with beliefs about the counterfactual consequences of action for states of affairs and beliefs about those latent states. In other words, we move from simply considering beliefs about 'what would happen if I did that' to 'what would I believe about what would happen if I did that'. The recursive form of the free energy functional effectively implements a deep tree search over actions and outcomes in the future. Crucially, this search is over sequences of belief states, as opposed to states per se. We illustrate the competence of this scheme, using numerical simulations of deep decision problems.
翻訳日:2022-11-24 08:32:45 公開日:2020-06-07
# 音声のスパース線形予測のための最大位相モデル

Maximum Phase Modeling for Sparse Linear Prediction of Speech ( http://arxiv.org/abs/2006.04138v1 )

ライセンス: Link先を確認
Thomas Drugman(参考訳) 線形予測 (LP) は音声処理におけるユビキタス解析手法である。 LPフレームワークにスパース制約を導入することで、スパースLPアルゴリズムに様々な研究が焦点を当てている。 スパースLPは、音声モデリングやコーディングに関連するいくつかの問題に有効であることが示されている。 しかし、既存の全てのアプローチは音声信号が最小位相であると仮定している。 音声は混合位相であることが知られているため、残差信号は持続的な最大位相成分を含む。 本研究の目的は,音声の最大位相寄与のモデル化を取り入れ,任意のフィルタ表現に適用可能な新しい手法を提案することである。 提案手法は,lp残差信号のスパース性を大幅に向上させ,音声の極性検出と励磁モデリングの2つの応用に有効であることを示した。

Linear prediction (LP) is an ubiquitous analysis method in speech processing. Various studies have focused on sparse LP algorithms by introducing sparsity constraints into the LP framework. Sparse LP has been shown to be effective in several issues related to speech modeling and coding. However, all existing approaches assume the speech signal to be minimum-phase. Because speech is known to be mixed-phase, the resulting residual signal contains a persistent maximum-phase component. The aim of this paper is to propose a novel technique which incorporates a modeling of the maximum-phase contribution of speech, and can be applied to any filter representation. The proposed method is shown to significantly increase the sparsity of the LP residual signal and to be effective in two illustrative applications: speech polarity detection and excitation modeling.
翻訳日:2022-11-24 08:32:27 公開日:2020-06-07
# 歌声合成のためのパラメトリック表現:比較評価

Parametric Representation for Singing Voice Synthesis: a Comparative Evaluation ( http://arxiv.org/abs/2006.04142v1 )

ライセンス: Link先を確認
Onur Babacan, Thomas Drugman, Tuomo Raitio, Daniel Erro, Thierry Dutoit(参考訳) 音声信号のモデル化に様々なパラメトリック表現が提案されている。 このようなボコーダのパフォーマンスは音声処理の文脈でよく知られているが、歌声合成への外挿は単純ではないかもしれない。 この論文の目標は二つある。 まず,従来のパルスボコーダ,決定論的+確率的モデル,高調波+雑音モデル,GlottHMMという,統計的パラメトリック合成に適した4つの手法の比較主観評価を行った。 シンガータイプ(バリトン,カウンターテナー,ソプラノ)の機能としてのこれらの手法の挙動について検討した。 第二に, ハイピッチ音声で発生するアーチファクトについて考察し, 克服するためのアプローチを提案する。

Various parametric representations have been proposed to model the speech signal. While the performance of such vocoders is well-known in the context of speech processing, their extrapolation to singing voice synthesis might not be straightforward. The goal of this paper is twofold. First, a comparative subjective evaluation is performed across four existing techniques suitable for statistical parametric synthesis: traditional pulse vocoder, Deterministic plus Stochastic Model, Harmonic plus Noise Model and GlottHMM. The behavior of these techniques as a function of the singer type (baritone, counter-tenor and soprano) is studied. Secondly, the artifacts occurring in high-pitched voices are discussed and possible approaches to overcome them are suggested.
翻訳日:2022-11-24 08:32:15 公開日:2020-06-07
# 2次元点雲に基づく地下接合認識のための教師なし学習

Unsupervised Learning for Subterranean Junction Recognition Based on 2D Point Cloud ( http://arxiv.org/abs/2006.04225v1 )

ライセンス: Link先を確認
Sina Sharif Mansouri, Farhad Pourkamali-Anaraki, Miguel Castano Arranz, Ali-akbar Agha-mohammadi, Joel Burdick, and George Nikolakopoulos(参考訳) 本稿では,獲得した2次元点雲に基づく地下環境におけるトンネル接合数を検出するための教師なし学習フレームワークを提案する。 このフレームワークの実装は、未知の領域の飛行プラットフォームやロボットホーミングミッションをナビゲートするために、高レベルのミッションプランナーに貴重な情報を提供する。 このフレームワークはスペクトルクラスタリングを利用して、非線型多様体上の連結データポイントから隠れた構造を発見できる。 スペクトルクラスタリングアルゴリズムは、これらの点の対の類似性から導かれる行列の固有分解を利用して、元の2次元点雲のスペクトル埋め込みを計算する。 提案手法の性能とメリットを実証し,複数の現実的なシミュレーションから収集した複数のデータセットと,地下環境における実飛行から収集したフレームワークを検証した。

This article proposes a novel unsupervised learning framework for detecting the number of tunnel junctions in subterranean environments based on acquired 2D point clouds. The implementation of the framework provides valuable information for high level mission planners to navigate an aerial platform in unknown areas or robot homing missions. The framework utilizes spectral clustering, which is capable of uncovering hidden structures from connected data points lying on non-linear manifolds. The spectral clustering algorithm computes a spectral embedding of the original 2D point cloud by utilizing the eigen decomposition of a matrix that is derived from the pairwise similarities of these points. We validate the developed framework using multiple data-sets, collected from multiple realistic simulations, as well as from real flights in underground environments, demonstrating the performance and merits of the proposed methodology.
翻訳日:2022-11-24 08:30:52 公開日:2020-06-07
# 多エージェント強化学習におけるコーディネーションのスキル発見

Skill Discovery of Coordination in Multi-agent Reinforcement Learning ( http://arxiv.org/abs/2006.04021v1 )

ライセンス: Link先を確認
Shuncheng He, Jianzhun Shao, Xiangyang Ji(参考訳) 教師なしスキル発見は、知的エージェントをタスク固有の報酬信号なしで未知の環境を探索させ、エージェントは新しいタスクに適応する際に有用な様々なスキルを取得する。 本稿では,複数のエージェントの協調パターンに対するスキルの発見手法である"multi-agent skill discovery"(masd)を提案する。 提案手法は,スキルを表す潜在コードZと,エージェントの状態の組合せの相互情報を最大化することを目的としている。 一方、敵の訓練によって任意のエージェントの状態におけるzのエンパワーメントを抑制する。 言い換えれば、エンパワーメントの縮退を避けるために情報のボトルネックを設定します。 まず,一般粒子マルチエージェント環境における協調のレベルにおける様々なスキルの出現を示す。 第2に,「ボトルネック」は,一つのエージェントへのスキルの崩壊を防止し,学習スキルの多様性を高める。 最後に、事前訓練されたポリシーは、教師付きRLタスクにおいてより良い性能を示す。

Unsupervised skill discovery drives intelligent agents to explore the unknown environment without task-specific reward signal, and the agents acquire various skills which may be useful when the agents adapt to new tasks. In this paper, we propose "Multi-agent Skill Discovery"(MASD), a method for discovering skills for coordination patterns of multiple agents. The proposed method aims to maximize the mutual information between a latent code Z representing skills and the combination of the states of all agents. Meanwhile it suppresses the empowerment of Z on the state of any single agent by adversarial training. In another word, it sets an information bottleneck to avoid empowerment degeneracy. First we show the emergence of various skills on the level of coordination in a general particle multi-agent environment. Second, we reveal that the "bottleneck" prevents skills from collapsing to a single agent and enhances the diversity of learned skills. Finally, we show the pretrained policies have better performance on supervised RL tasks.
翻訳日:2022-11-24 08:29:58 公開日:2020-06-07
# 非一様スタイルコンディショニングによる現実的なテキスト置換

Realistic text replacement with non-uniform style conditioning ( http://arxiv.org/abs/2006.04170v1 )

ライセンス: Link先を確認
Arseny Nerinovsky, Igor Buzhinsky, Andey Filchencov(参考訳) 本研究では,画像中のテキストをユーザが提供するテキストに置き換えることを目的として,現実的なテキスト置換の可能性を検討する。 置換は、結果のイメージと元のイメージの区別を許さない方法で実行されるべきである。 我々は、新しい非一様スタイルコンディショニング層を開発し、エンコーダ-デコーダresnetベースのアーキテクチャに適用することにより、この目標を達成する。 得られたモデルは単一ステージモデルであり、後処理は行わない。 提案モデルは現実的なテキスト置換を実現し,既存のicdar mltのアプローチを上回っている。

In this work, we study the possibility of realistic text replacement, the goal of which is to replace text present in the image with user-supplied text. The replacement should be performed in a way that will not allow distinguishing the resulting image from the original one. We achieve this goal by developing a novel non-uniform style conditioning layer and apply it to an encoder-decoder ResNet based architecture. The resulting model is a single-stage model, with no post-processing. The proposed model achieves realistic text replacement and outperforms existing approaches on ICDAR MLT.
翻訳日:2022-11-24 08:23:32 公開日:2020-06-07
# 指のテクスチャ生体計測特性:調査

Finger Texture Biometric Characteristic: a Survey ( http://arxiv.org/abs/2006.04193v1 )

ライセンス: Link先を確認
Raid R. O. Al-Nima, Tingting Han, Taolue Chen, Satnam Dlay and Jonathon Chambers(参考訳) \begin{abstract} 近年, フィンガーテクスチャ (FT) が生体特性として注目されている。 全ての指の内面に沿って分布する見かけの線、しわ、尾根の人間特有の特徴が異なるため、効率的な人間の認識性能を提供することができる。 また、そのようなパターン構造は信頼性があり、ユニークであり、人間の生涯を通して安定している。 FTのみに基づいて効率的な生体認証システムを構築することができる。 本稿では,関連するft研究の包括的調査を行った。 また、生体特性としてFTを用いる際の主な欠点と障害を要約し、FTの研究をさらに改善するための有用な提案を行う。 \end{abstract}

\begin{abstract} In recent years, the Finger Texture (FT) has attracted considerable attention as a biometric characteristic. It can provide efficient human recognition performance, because it has different human-specific features of apparent lines, wrinkles and ridges distributed along the inner surface of all fingers. Also, such pattern structures are reliable, unique and remain stable throughout a human's life. Efficient biometric systems can be established based only on FTs. In this paper, a comprehensive survey of the relevant FT studies is presented. We also summarise the main drawbacks and obstacles of employing the FT as a biometric characteristic, and provide useful suggestions to further improve the work on FT. \end{abstract}
翻訳日:2022-11-24 08:23:23 公開日:2020-06-07
# AdaLAM:手作りの異常検知を再開

AdaLAM: Revisiting Handcrafted Outlier Detection ( http://arxiv.org/abs/2006.04250v1 )

ライセンス: Link先を確認
Luca Cavalli, Viktor Larsson, Martin Ralf Oswald, Torsten Sattler, Marc Pollefeys(参考訳) ローカル機能マッチングは、Structure-from-Motion、SLAM、Visual Localizationなど、多くのコンピュータビジョンパイプラインの重要なコンポーネントである。 しかし、ディスクリプタの制限のため、生のマッチはしばしば多くの異常者によって汚染される。 その結果、コンピュータビジョンにおける異常検出は根本的な問題であり、過去数十年にわたって幅広いアプローチが提案されてきた。 本稿では,外乱フィルタに対する手作り手法を再検討する。 ベストプラクティスに基づいて, 効果的な外乱検出のための階層パイプラインを提案し, 総じて外乱検出のための効率的かつ競争的なアプローチである AdaLAM につながる新しいアイデアを統合する。 AdaLAMは、現代の並列ハードウェアを効果的に活用するために設計されており、非常に高速で、しかも非常に正確で、外れやすいフィルタとなる。 我々は,大規模かつ多様なデータセット上で adalam を検証し,画像マッチングチャレンジ (cvpr2020) に参加し,単純なベースライン記述子で競合結果を得る。 AdaLAMは, 効率と有効性の両方の観点から, 現在の最先端技術と競合していることを示す。

Local feature matching is a critical component of many computer vision pipelines, including among others Structure-from-Motion, SLAM, and Visual Localization. However, due to limitations in the descriptors, raw matches are often contaminated by a majority of outliers. As a result, outlier detection is a fundamental problem in computer vision, and a wide range of approaches have been proposed over the last decades. In this paper we revisit handcrafted approaches to outlier filtering. Based on best practices, we propose a hierarchical pipeline for effective outlier detection as well as integrate novel ideas which in sum lead to AdaLAM, an efficient and competitive approach to outlier rejection. AdaLAM is designed to effectively exploit modern parallel hardware, resulting in a very fast, yet very accurate, outlier filter. We validate AdaLAM on multiple large and diverse datasets, and we submit to the Image Matching Challenge (CVPR2020), obtaining competitive results with simple baseline descriptors. We show that AdaLAM is more than competitive to current state of the art, both in terms of efficiency and effectiveness.
翻訳日:2022-11-24 08:22:42 公開日:2020-06-07
# 低調音・高調音音声の分析と合成

Analysis and Synthesis of Hypo and Hyperarticulated Speech ( http://arxiv.org/abs/2006.04136v1 )

ライセンス: Link先を確認
Benjamin Picart, Thomas Drugman, Thierry Dutoit(参考訳) 本稿では,HMMに基づく音声合成の枠組みにおいて,仮説および高調波音声の分析と合成に焦点をあてる。 まず、私たちのニーズに合致した新しいフランスのデータベースが作成され、同じセットが3つあり、3つの異なる明瞭度(中性、低調、ハイパーラル)で発音されます。 その上で,音響解析と音声解析を行った。 調音度は声道特性と声門特性の両方に有意な影響を与え,一方,発話速度,電話継続時間,電話の変動,声門停止の有無に有意な影響を与えていることが示された。 最後に、HMMに基づく音声合成を用いて、中性音声、偽音声、高調波音声を合成し、生成した音声品質の評価を目的とした主観的および主観的テストを行う。 これらの結果から, 合成された低調波音声は中性および高調波音声よりも自然に表現されないことが明らかとなった。

This paper focuses on the analysis and synthesis of hypo and hyperarticulated speech in the framework of HMM-based speech synthesis. First of all, a new French database matching our needs was created, which contains three identical sets, pronounced with three different degrees of articulation: neutral, hypo and hyperarticulated speech. On that basis, acoustic and phonetic analyses were performed. It is shown that the degrees of articulation significantly influence, on one hand, both vocal tract and glottal characteristics, and on the other hand, speech rate, phone durations, phone variations and the presence of glottal stops. Finally, neutral, hypo and hyperarticulated speech are synthesized using HMM-based speech synthesis and both objective and subjective tests aiming at assessing the generated speech quality are performed. These tests show that synthesized hypoarticulated speech seems to be less naturally rendered than neutral and hyperarticulated speech.
翻訳日:2022-11-24 08:21:56 公開日:2020-06-07
# 生物医学コーパスにおける対話的抽出探索

Interactive Extractive Search over Biomedical Corpora ( http://arxiv.org/abs/2006.04148v1 )

ライセンス: Link先を確認
Hillel Taub-Tabib, Micah Shlain, Shoval Sadde, Dan Lahav, Matan Eyal, Yaara Cohen, Yoav Goldberg(参考訳) 本稿では, 生命科学研究者が, 依存グラフ上のパターンやトークン配列上のパターンを用いて, 言語的に注釈付けされた学術テキストのコーパスを検索できるシステムを提案する。 従来の係り受けベースの検索とは対照的に,ユーザが基礎となる言語表現の詳細を知る必要がなく,単純なマークアップと結合した例文を提供することでコーパスを問合せする軽量なクエリ言語を導入する。 効率的な言語グラフインデクシングと検索エンジンにより,対話的な速度で検索を行う。 これにより、ユーザクエリの迅速な探索、開発、洗練が可能になる。 14,446,243のPubMed抽象化を含むPubMedコーパスと,新型コロナウイルス研究に焦点を当てた45,000以上の研究論文集であるCORD-19データセットである。 システムはhttps://allenai.github.io/spikeで公開されている。

We present a system that allows life-science researchers to search a linguistically annotated corpus of scientific texts using patterns over dependency graphs, as well as using patterns over token sequences and a powerful variant of boolean keyword queries. In contrast to previous attempts to dependency-based search, we introduce a light-weight query language that does not require the user to know the details of the underlying linguistic representations, and instead to query the corpus by providing an example sentence coupled with simple markup. Search is performed at an interactive speed due to efficient linguistic graph-indexing and retrieval engine. This allows for rapid exploration, development and refinement of user queries. We demonstrate the system using example workflows over two corpora: the PubMed corpus including 14,446,243 PubMed abstracts and the CORD-19 dataset, a collection of over 45,000 research papers focused on COVID-19 research. The system is publicly available at https://allenai.github.io/spike
翻訳日:2022-11-24 08:21:40 公開日:2020-06-07
# 潜在変数重み付き論理プログラムのセミリング上のテンソル

Tensors over Semirings for Latent-Variable Weighted Logic Programs ( http://arxiv.org/abs/2006.04232v1 )

ライセンス: Link先を確認
Esma Balkir, Daniel Gildea and Shay Cohen(参考訳) semiring parseは半環重み付き論理プログラムを用いてパーサーを記述するためのエレガントなフレームワークである。 本稿では,この概念の一般化について述べる。 我々のフレームワークでは、任意の半環重み付き論理プログラムは、半環のスカラー値から半環のランクn配列、あるいはテンソルへの重み付けを変換し、半環解析フレームワーク内の潜在変数のモデリングを可能にする。 半環はテンソルを扱うときに強すぎる概念であり、より弱い構造、すなわち部分半環に頼る必要がある。 我々は、この一般化が元の半環フレームワークの所望のすべての性質を厳密に表現性を高めながら保ち続けることを証明している。

Semiring parsing is an elegant framework for describing parsers by using semiring weighted logic programs. In this paper we present a generalization of this concept: latent-variable semiring parsing. With our framework, any semiring weighted logic program can be latentified by transforming weights from scalar values of a semiring to rank-n arrays, or tensors, of semiring values, allowing the modelling of latent variables within the semiring parsing framework. Semiring is too strong a notion when dealing with tensors, and we have to resort to a weaker structure: a partial semiring. We prove that this generalization preserves all the desired properties of the original semiring framework while strictly increasing its expressiveness.
翻訳日:2022-11-24 08:21:16 公開日:2020-06-07
# EnK: 畳み込みにおける時間情報のエンコード

EnK: Encoding time-information in convolution ( http://arxiv.org/abs/2006.04198v1 )

ライセンス: Link先を確認
Avinash Kumar Singh and Chin-Teng Lin(参考訳) 近年の深層学習技術の発展は脳波信号の復号化や分類に注目されている。 脳波信号の異なる特徴を利用するいくつかの取り組みにもかかわらず、重要な研究課題は、局所的およびグローバル的特徴と組み合わせて時間依存的特徴を使用することである。 深層学習畳み込みニューラルネットワーク(CNN)を再構築し、手作りの特徴を取り入れ、入力データをより小さな時間ウィンドウにスライスし、繰り返し畳み込みを繰り返すことで、時間依存情報をキャプチャする試みがあった。 しかし、これらのアプローチは部分的に問題を解決しているが、同時にデータに存在する可能性のある未知の情報から学習するcnnの能力を妨げる。 そこで本研究では,cnnにおける畳み込み動作中に増大する時間情報を導入する新しい時間符号化カーネル(enk)手法を提案する。 EnKによるエンコードされた情報により、CNNはローカルおよびグローバル機能への付加的な時間依存機能を学ぶことができる。 認知コンフリクト(CC)、物理的人間ロボット協調(pHRC)、P300視覚誘発電位、運動関連大脳皮質電位(MRCP)といった脳波データセットについて広範な実験を行った。 EnKは、最先端を12\%(F1スコア)上回る。 さらに、EnKアプローチは学習するパラメータを1つだけ必要としており、最小限の努力で事実上すべてのCNNアーキテクチャに適用できる。 これらの結果は我々の方法論をサポートし、時系列データ全般におけるCNNの性能向上の可能性を示す。

Recent development in deep learning techniques has attracted attention in decoding and classification in EEG signals. Despite several efforts utilizing different features of EEG signals, a significant research challenge is to use time-dependent features in combination with local and global features. There have been several efforts to remodel the deep learning convolution neural networks (CNNs) to capture time-dependency information by incorporating hand-crafted features, slicing the input data in a smaller time-windows, and recurrent convolution. However, these approaches partially solve the problem, but simultaneously hinder the CNN's capability to learn from unknown information that might be present in the data. To solve this, we have proposed a novel time encoding kernel (EnK) approach, which introduces the increasing time information during convolution operation in CNN. The encoded information by EnK lets CNN learn time-dependent features in-addition to local and global features. We performed extensive experiments on several EEG datasets: cognitive conflict (CC), physical-human robot collaboration (pHRC), P300 visual-evoked potentials, movement-related cortical potentials (MRCP). EnK outperforms the state-of-art by 12\% (F1 score). Moreover, the EnK approach required only one additional parameter to learn and can be applied to a virtually any CNN architectures with minimal efforts. These results support our methodology and show high potential to improve CNN performance in the context of time-series data in general.
翻訳日:2022-11-24 08:21:03 公開日:2020-06-07
# Web上の生命科学(リンク?)オープンデータに関する実証メタ分析

An Empirical Meta-analysis of the Life Sciences (Linked?) Open Data on the Web ( http://arxiv.org/abs/2006.04161v1 )

ライセンス: Link先を確認
Maulik R. Kamdar and Mark A. Musen(参考訳) バイオメディカルコミュニティは過去10年間にいくつかの「オープンデータ」ソースを公開してきたが、ほとんどの研究者は依然として、複数のソースからの異種データと知識を発見し、クエリし、統合するための厳しい技術的課題を抱えている。 これらの課題に取り組むため、コミュニティはSemantic Webとリンクデータ技術を使って、Life Sciences Linked Open Data (LSLOD)クラウドを作成しました。 本稿では, LSLODスキーマグラフに公開されている80以上のバイオメディカルリンクデータグラフからスキーマを抽出し, LSLODクラウド全体にわたる意味的不均一性の程度を評価するために, 経験的メタ分析を行う。 いくつかのLCLODソースは、他のソースと相互にリンクしないスタンドアロンのデータソースとして存在し、最小限の再利用やマッピングを伴う未公開スキーマを使用し、バイオメディカルの観点からのデータ統合に役立たない要素を持つ。 LSLODスキーマグラフと本研究の成果は,Web上で複数のバイオメディカルソースからのデータと知識を同時にクエリし,統合したい研究者を支援することを期待する。

While the biomedical community has published several "open data" sources in the last decade, most researchers still endure severe logistical and technical challenges to discover, query, and integrate heterogeneous data and knowledge from multiple sources. To tackle these challenges, the community has experimented with Semantic Web and linked data technologies to create the Life Sciences Linked Open Data (LSLOD) cloud. In this paper, we extract schemas from more than 80 publicly available biomedical linked data graphs into an LSLOD schema graph and conduct an empirical meta-analysis to evaluate the extent of semantic heterogeneity across the LSLOD cloud. We observe that several LSLOD sources exist as stand-alone data sources that are not inter-linked with other sources, use unpublished schemas with minimal reuse or mappings, and have elements that are not useful for data integration from a biomedical perspective. We envision that the LSLOD schema graph and the findings from this research will aid researchers who wish to query and integrate data and knowledge from multiple biomedical sources simultaneously on the Web.
翻訳日:2022-11-24 08:15:32 公開日:2020-06-07
# sharingan: 合成データと実データを組み合わせた教師なし幾何推定

SharinGAN: Combining Synthetic and Real Data for Unsupervised Geometry Estimation ( http://arxiv.org/abs/2006.04026v1 )

ライセンス: Link先を確認
Koutilya PNVR, Hao Zhou, David Jacobs(参考訳) 本稿では,1つの画像から幾何情報を決定するためのトレーニングネットワークにおいて,合成画像と実画像を組み合わせる新しい手法を提案する。 両画像の型を1つの共有ドメインにマッピングする方法を提案する。 これはエンドツーエンドトレーニングのためのプライマリネットワークに接続されている。 理想的には、2つのドメインのイメージがプライマリネットワークに共有情報を提供する。 実験では,人間の顔表面の正常推定と屋外シーンの単眼深度推定という2つの重要な領域において,教師なし環境での最先端技術に対して有意な改善が示された。

We propose a novel method for combining synthetic and real images when training networks to determine geometric information from a single image. We suggest a method for mapping both image types into a single, shared domain. This is connected to a primary network for end-to-end training. Ideally, this results in images from two domains that present shared information to the primary network. Our experiments demonstrate significant improvements over the state-of-the-art in two important domains, surface normal estimation of human faces and monocular depth estimation for outdoor scenes, both in an unsupervised setting.
翻訳日:2022-11-24 08:14:29 公開日:2020-06-07
# ディープラーニングを用いた表情認識

Facial Expression Recognition using Deep Learning ( http://arxiv.org/abs/2006.04057v1 )

ライセンス: Link先を確認
Raghu Vamshi.N, Bharathi Raja S(参考訳) 様々な時代を通じて、表情は非言語コミュニケーションの普遍的な方法の1つになっている。 表情を認識する能力は、多くの新しい応用の道を開くだろう。 コントロールされた環境での従来のアプローチの成功にもかかわらず、これらのアプローチは部分的な顔からなる挑戦的なデータセットで失敗する。 本稿では,このようなデータセット fer-2013 を取り上げ,従来使用されていたアプローチや深層学習モデルよりも大幅に改善可能な深層学習モデルの実装を行う。

Throughout the various ages, facial expressions have become one of the universal ways of non-verbal communication. The ability to recognize facial expressions would pave the path for many novel applications. Despite the success of traditional approaches in a controlled environment, these approaches fail on challenging datasets consisting of partial faces. In this paper, I take one such dataset FER-2013 and will implement deep learning models that are able to achieve significant improvement over the previously used traditional approaches and even some of the deep learning models.
翻訳日:2022-11-24 08:13:58 公開日:2020-06-07
# 視覚的物体追跡のためのシームズキーポイント予測ネットワーク

Siamese Keypoint Prediction Network for Visual Object Tracking ( http://arxiv.org/abs/2006.04078v1 )

ライセンス: Link先を確認
Qiang Li, Zekui Qin, Wenbo Zhang, and Wen Zheng(参考訳) ビジュアルオブジェクト追跡は、初期バウンディングボックスからビデオシーケンス内の任意のターゲットの位置を推定することを目的としている。 オフラインの機能学習を活用することで、サイムズパラダイムは近年、ハイパフォーマンストラッキングの主要なフレームワークとなっている。 しかし、現在のsiameseトラッカーは複雑なアンカーベースの検出ネットワークに大きく依存するか、あるいは邪魔者に抵抗する能力がない。 本稿では,これらの課題に対処するキーポイント予測ネットワーク(SiamKPN)を提案する。 siamese backbone for features embedded では、siamkpn は粒度から粒度への予測モデリングのためのカスケードヒートマップ戦略の利点がある。 特に、ラベルのヒートマップのカバレッジをカスケードに沿って順次縮小し、緩やかに制限された中間監督を適用することにより、戦略が実現される。 推定では,連続ステージの予測熱マップは徐々に目標に集中し,散逸器に還元される。 SiamKPNは、リアルタイムに実行しながら、TB-100、VOT2018、LaSOT、GOT-10kを含む4つのベンチマークデータセット上で、ビジュアルオブジェクトトラッキングのための最先端のトラッカーに対してうまく機能する。

Visual object tracking aims to estimate the location of an arbitrary target in a video sequence given its initial bounding box. By utilizing offline feature learning, the siamese paradigm has recently been the leading framework for high performance tracking. However, current existing siamese trackers either heavily rely on complicated anchor-based detection networks or lack the ability to resist to distractors. In this paper, we propose the Siamese keypoint prediction network (SiamKPN) to address these challenges. Upon a Siamese backbone for feature embedding, SiamKPN benefits from a cascade heatmap strategy for coarse-to-fine prediction modeling. In particular, the strategy is implemented by sequentially shrinking the coverage of the label heatmap along the cascade to apply loose-to-strict intermediate supervisions. During inference, we find the predicted heatmaps of successive stages to be gradually concentrated to the target and reduced to the distractors. SiamKPN performs well against state-of-the-art trackers for visual object tracking on four benchmark datasets including OTB-100, VOT2018, LaSOT and GOT-10k, while running at real-time speed.
翻訳日:2022-11-24 08:13:34 公開日:2020-06-07
# E-ScooterとE-Bikeの利用パターンの比較分析:テキサス州オースチン市からの検討

A Comparative Analysis of E-Scooter and E-Bike Usage Patterns: Findings from the City of Austin, TX ( http://arxiv.org/abs/2006.04033v1 )

ライセンス: Link先を確認
Mohammed Hamad Almannaa, Huthaifa I. Ashqar, Mohammed Elhenawy, Mahmoud Masoud, Andry Rakotonirainy, and Hesham Rakha(参考訳) e-scooter-sharingとe-bike-sharing systemsは、密集した都市での交通の増大を緩和し、大幅に拡大している。 しかし、これらの新しいマイクロモビリティ輸送モードは、多くの運用および安全上の懸念を引き起こす。 本研究は,e-scooterおよびドックレスE-bike共有システムのユーザ行動を分析する。 本研究では,平日と日時によって平均走行速度がどう変化するかを検討する。 2018年12月から2019年5月まで,テキサス州オースチンのデータセットを使用していました。 以上の結果から,Eバイクの走行平均速度は3.1m/sから3.44m/sであり,Eスクーターよりも高い(2.19m/s)。 また,e-scooters と e-scooters の2日間の平均速度についても同様の使用パターンを示し,e-scooters と e-scooters の平均使用速度を1日の数時間にわたって異なる使用パターンを示した。 利用者は、通勤目的の乗車時間に比べて、レクリエーション目的の平均速度が遅いため、電動自転車や電動スクーターに乗る傾向にある。 この研究は、この分野におけるビルディングブロックであり、この種の第1段階として機能し、この新興の共有道路利用者の新たな理解の光を当てている。

E-scooter-sharing and e-bike-sharing systems are accommodating and easing the increased traffic in dense cities and are expanding considerably. However, these new micro-mobility transportation modes raise numerous operational and safety concerns. This study analyzes e-scooter and dockless e-bike sharing system user behavior. We investigate how average trip speed change depending on the day of the week and the time of the day. We used a dataset from the city of Austin, TX from December 2018 to May 2019. Our results generally show that the trip average speed for e-bikes ranges between 3.01 and 3.44 m/s, which is higher than that for e-scooters (2.19 to 2.78 m/s). Results also show a similar usage pattern for the average speed of e-bikes and e-scooters throughout the days of the week and a different usage pattern for the average speed of e-bikes and e-scooters over the hours of the day. We found that users tend to ride e-bikes and e-scooters with a slower average speed for recreational purposes compared to when they are ridden for commuting purposes. This study is a building block in this field, which serves as a first of its kind, and sheds the light of significant new understanding of this emerging class of shared-road users.
翻訳日:2022-11-24 08:06:25 公開日:2020-06-07
# クロスタスク一貫性によるロバスト学習

Robust Learning Through Cross-Task Consistency ( http://arxiv.org/abs/2006.04096v1 )

ライセンス: Link先を確認
Amir Zamir, Alexander Sax, Teresa Yeo, O\u{g}uzhan Kar, Nikhil Cheerla, Rohan Suri, Zhangjie Cao, Jitendra Malik, Leonidas Guibas(参考訳) 視覚的知覚は、例えば、オブジェクト検出、深さ推定など、幅広いタスクのセットを解決する必要がある。 同じイメージから複数のタスクに対して行われた予測は独立ではないため、一貫性が期待できる。 クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。 提案手法は任意のタスクのグラフ上の推論パス不変性に基づいている。 クロスタスク一貫性を持つ学習は、より正確な予測と、分布外入力への一般化をもたらすことを観察する。 この枠組みはまた、システムの本質的な一貫性の測定に基づいて、一貫性エネルギー(Consistency Energy)と呼ばれる情報的非教師付き量をもたらす。 整合性エネルギーは教師付き誤差(r=0.67)とよく相関しているため、教師なし信頼度測定や、配布外入力の検出にも使用できる(ROC-AUC=0.95)。 評価はTaskonomy、Replica、CocoDoom、ApolloScapeなど複数のデータセットで行われ、従来のマルチタスク学習、サイクル一貫性、分析一貫性など、さまざまなベースラインに対してクロスタスク一貫性をベンチマークする。

Visual perception entails solving a wide set of tasks, e.g., object detection, depth estimation, etc. The predictions made for multiple tasks from the same image are not independent, and therefore, are expected to be consistent. We propose a broadly applicable and fully computational method for augmenting learning with Cross-Task Consistency. The proposed formulation is based on inference-path invariance over a graph of arbitrary tasks. We observe that learning with cross-task consistency leads to more accurate predictions and better generalization to out-of-distribution inputs. This framework also leads to an informative unsupervised quantity, called Consistency Energy, based on measuring the intrinsic consistency of the system. Consistency Energy correlates well with the supervised error (r=0.67), thus it can be employed as an unsupervised confidence metric as well as for detection of out-of-distribution inputs (ROC-AUC=0.95). The evaluations are performed on multiple datasets, including Taskonomy, Replica, CocoDoom, and ApolloScape, and they benchmark cross-task consistency versus various baselines including conventional multi-task learning, cycle consistency, and analytical consistency.
翻訳日:2022-11-24 08:05:49 公開日:2020-06-07
# ミスマッチモデルにおける情報カスケードフレギリティの鋭いしきい値

Sharp Thresholds of the Information Cascade Fragility Under a Mismatched Model ( http://arxiv.org/abs/2006.04117v1 )

ライセンス: Link先を確認
Wasim Huleihel and Ofer Shayevitz(参考訳) 我々は、意思決定者(またはプレイヤー)が自身のプライベート情報と以前の意思決定者の行動に基づいて意思決定を行うシーケンシャルな意思決定モデルを分析する。 このような意思決定プロセスは、しばしば \emph{information cascade} や \emph{herding} と呼ばれる現象に繋がる。 特に、カスケードは、一部のプレイヤーが自身の個人情報を放棄し、以前のプレイヤーの行動を模倣することが合理的であるように見えるときに発達する。 しかし、リスクは、最初の決定が間違っていれば、カスケード全体が間違ってしまうことである。 それにもかかわらず、情報カスケードは脆弱であることが知られている: \emph{revealing} 確率 $\{p_{\ell}\}_{\ell\geq1}$ のシーケンスが存在し、もし確率 $p_{\ell}$ player $\ell$ が以前のプレイヤーの決定を無視し、彼のプライベート情報のみに依存するなら、間違ったカスケードは避けられる。 情報カスケードの脆弱性を研究する以前の関連論文は、明らかな確率がすべてのプレイヤーに完全に知られていると常に仮定している。 そこで,本研究では,プレイヤーが真に$\{p_\ell\}_{\ell\in\mathbb{n}}$であるとき,その出現確率が$\{q_\ell\}_{\ell\in\mathbb{n}}$であると考えるミスマッチモデルを検討し,このミスマッチが情報カスケードに与える影響について検討する。 確率的意思決定モデルと確率的意思決定モデルの両方を考察し、ある意思決定者に関連する誤り確率がゼロとなる最適学習率のクローズドフォーム式を導出する。 我々は,漸近学習率の行動にいくつかの新しい位相遷移を証明した。

We analyze a sequential decision making model in which decision makers (or, players) take their decisions based on their own private information as well as the actions of previous decision makers. Such decision making processes often lead to what is known as the \emph{information cascade} or \emph{herding} phenomenon. Specifically, a cascade develops when it seems rational for some players to abandon their own private information and imitate the actions of earlier players. The risk, however, is that if the initial decisions were wrong, then the whole cascade will be wrong. Nonetheless, information cascade are known to be fragile: there exists a sequence of \emph{revealing} probabilities $\{p_{\ell}\}_{\ell\geq1}$, such that if with probability $p_{\ell}$ player $\ell$ ignores the decisions of previous players, and rely on his private information only, then wrong cascades can be avoided. Previous related papers which study the fragility of information cascades always assume that the revealing probabilities are known to all players perfectly, which might be unrealistic in practice. Accordingly, in this paper we study a mismatch model where players believe that the revealing probabilities are $\{q_\ell\}_{\ell\in\mathbb{N}}$ when they truly are $\{p_\ell\}_{\ell\in\mathbb{N}}$, and study the effect of this mismatch on information cascades. We consider both adversarial and probabilistic sequential decision making models, and derive closed-form expressions for the optimal learning rates at which the error probability associated with a certain decision maker goes to zero. We prove several novel phase transitions in the behaviour of the asymptotic learning rate.
翻訳日:2022-11-24 08:04:44 公開日:2020-06-07
# 目標概念埋め込み学習によるユーザ生成テキストの医学的概念正規化

Medical Concept Normalization in User Generated Texts by Learning Target Concept Embeddings ( http://arxiv.org/abs/2006.04014v1 )

ライセンス: Link先を確認
Katikapalli Subramanyam Kalyan, S.Sangeetha(参考訳) 医学的概念正規化は、自由形式のテキストにおける標準概念、すなわち健康に関連する言及を語彙の標準概念にマッピングするのに役立つ。 単純な文字列マッチングをはるかに超え、概念記述の深い意味的理解を必要とする。 最近の研究は、テキスト分類またはテキストマッチングとして、正規化の概念を定めている。 現存する主な欠点は a) テキスト分類アプローチは、入力概念参照表現の学習において貴重な目標概念情報を無視している b)テキストマッチングアプローチは、時間とリソース消費であるターゲット概念の埋め込みを別々に生成する必要がある。 提案モデルでは,入力概念の参照とターゲット概念の表現を共同で学習することで,これらの欠点を克服する。 まず、RoBERTaを用いた入力概念参照表現を学習する。 第二に、入力概念の埋め込みとすべての対象概念の間のコサインの類似性を見出す。 ここで、ターゲット概念の埋め込みはランダムに初期化され、トレーニング中に更新される。 最後に、最大コサイン類似度を持つターゲット概念を入力概念参照に割り当てる。 我々のモデルは、精度を2.31%向上させることで、3つの標準データセットにまたがる既存のメソッドをすべて上回ります。

Medical concept normalization helps in discovering standard concepts in free-form text i.e., maps health-related mentions to standard concepts in a vocabulary. It is much beyond simple string matching and requires a deep semantic understanding of concept mentions. Recent research approach concept normalization as either text classification or text matching. The main drawback in existing a) text classification approaches is ignoring valuable target concepts information in learning input concept mention representation b) text matching approach is the need to separately generate target concept embeddings which is time and resource consuming. Our proposed model overcomes these drawbacks by jointly learning the representations of input concept mention and target concepts. First, it learns the input concept mention representation using RoBERTa. Second, it finds cosine similarity between embeddings of input concept mention and all the target concepts. Here, embeddings of target concepts are randomly initialized and then updated during training. Finally, the target concept with maximum cosine similarity is assigned to the input concept mention. Our model surpasses all the existing methods across three standard datasets by improving accuracy up to 2.31%.
翻訳日:2022-11-24 08:04:07 公開日:2020-06-07
# すべてのアクションベースセンサー

Every Action Based Sensor ( http://arxiv.org/abs/2006.04003v1 )

ライセンス: Link先を確認
Grace McFassel, Dylan A. Shell(参考訳) ロボットと計画問題の研究において、基本的な疑問は、ロボットがタスク完了を保証するために得られる最小限の情報である。 エルドマンのアクションベースセンサーの理論は、基本的な情報要求を特徴づける古典的なアプローチである。 このアプローチでは、目標に向かって進むアクションを規定する仮想センサーのタイプを導出する計画を採用している。 このようなセンサをバックチェーン計画を用いて取得する以前の方法は、いくつかのセンサを見落としている。 さらに、既存の方法では、アクションベースのセンサーが提供できないため、目標を達成することが保証される計画もある。 これらすべての計画に共通する機能を特定します。 そして、既存の治療が不十分な計画であっても、アクションベースのセンサーの作り方を示すが、これらのケースでは単一の標準センサーは存在しない。 その結果、このアプローチはセンサセットを生成するために一般化される。 最後に,これは,行動に基づくセンサが従来のセンサの概念にどのように変換されるのかを議論するための,行動に基づくセンサの完全な特徴付けであることを示す。

In studying robots and planning problems, a basic question is what is the minimal information a robot must obtain to guarantee task completion. Erdmann's theory of action-based sensors is a classical approach to characterizing fundamental information requirements. That approach uses a plan to derive a type of virtual sensor which prescribes actions that make progress toward a goal. We show that the established theory is incomplete: the previous method for obtaining such sensors, using backchained plans, overlooks some sensors. Furthermore, there are plans, that are guaranteed to achieve goals, where the existing methods are unable to provide any action-based sensor. We identify the underlying feature common to all such plans. Then, we show how to produce action-based sensors even for plans where the existing treatment is inadequate, although for these cases they have no single canonical sensor. Consequently, the approach is generalized to produce sets of sensors. Finally, we show also that this is a complete characterization of action-based sensors for planning problems and discuss how an action-based sensor translates into the traditional conception of a sensor.
翻訳日:2022-11-24 08:03:33 公開日:2020-06-07
# 数学的証明による単語ネットの曖昧化アルゴリズム

An Algorithm for Fuzzification of WordNets, Supported by a Mathematical Proof ( http://arxiv.org/abs/2006.04042v1 )

ライセンス: Link先を確認
Sayyed-Ali Hossayni, Mohammad-R Akbarzadeh-T, Diego Reforgiato Recupero, Aldo Gangemi, Esteve Del Acebo, Josep Llu\'is de la Rosa i Esteva(参考訳) WordNet-like Lexical Databases (WLD) は英語の単語を「シンセット」と呼ばれる同義語の集合に分類する。 標準的なWLDは、多くの成功したテキストマイニングアプリケーションで使われているが、ワードセンスは対応するシンセットに関連する意味を表現していると考えられており、一般的にはそうではない。 この制限を克服するために、いくつかのファジィバージョンのシンセットが提案されている。 これらの研究の共通する特徴は、我々の知る限り、既存のWLDのファジフィケーション版を作るのではなく、スクラッチから新しいWLDを構築することである。 本研究では、文書のコーパスと単語センスの曖昧さ (WSD) を与えられた任意の言語のWLDのファジィバージョンを構築するアルゴリズムを提案する。 そして,Open-American-National-Corpus と UKB WSD をアルゴリズム入力として使用し,英語 WordNet (FWN) のファジファイド版を構築し,公開する。 また,結果の有効性の理論的(数学的)証明も提案する。

WordNet-like Lexical Databases (WLDs) group English words into sets of synonyms called "synsets." Although the standard WLDs are being used in many successful Text-Mining applications, they have the limitation that word-senses are considered to represent the meaning associated to their corresponding synsets, to the same degree, which is not generally true. In order to overcome this limitation, several fuzzy versions of synsets have been proposed. A common trait of these studies is that, to the best of our knowledge, they do not aim to produce fuzzified versions of the existing WLD's, but build new WLDs from scratch, which has limited the attention received from the Text-Mining community, many of whose resources and applications are based on the existing WLDs. In this study, we present an algorithm for constructing fuzzy versions of WLDs of any language, given a corpus of documents and a word-sense disambiguation (WSD) system for that language. Then, using the Open-American-National-Corpus and UKB WSD as algorithm inputs, we construct and publish online the fuzzified version of English WordNet (FWN). We also propose a theoretical (mathematical) proof of the validity of its results.
翻訳日:2022-11-24 08:03:18 公開日:2020-06-07
# 非線形干し草スタックにおけるスパークニューラルネットワークの発見

What needles do sparse neural networks find in nonlinear haystacks ( http://arxiv.org/abs/2006.04041v1 )

ライセンス: Link先を確認
Sylvain Sardy, Nicolas W Hengartner, Nikolai Bonenko, Yen Ting Lin(参考訳) 人工ニューラルネットワーク(ANN)におけるスパーシティ誘導ペナルティの使用は、特にノイズが高く、トレーニングセットが特徴の数に比べて小さい状況において、過度な適合を避ける。 線形モデルの場合、そのようなアプローチは、十分に厳密なペナルティパラメータのレジームにおいて高い確率で重要な特徴を再現する。 ペナルティパラメータを設定する典型的な方法は、データセットを分割してクロスバリデーションを行うことであり、(1)計算コストが高く、(2)データセットが分割されてより小さい場合(例えば、全ゲノムシーケンスデータ)は望ましくない。 本研究では,ゼロ特徴仮定の下でゼロの損失関数の勾配の無限ノルムを高い確率で境界付けし,クロスバリデーションを行わずにペナルティパラメータを選択する理論的基礎を確立する。 我々のアプローチは、Donoho と Johnstone (1994) の普遍しきい値の非線形 ANN 学習への一般化である。 簡単なモデルを用いてモンテカルロの総合シミュレーションを行い,提案手法の有効性を示す数値実験を行った。

Using a sparsity inducing penalty in artificial neural networks (ANNs) avoids over-fitting, especially in situations where noise is high and the training set is small in comparison to the number of features. For linear models, such an approach provably also recovers the important features with high probability in regimes for a well-chosen penalty parameter. The typical way of setting the penalty parameter is by splitting the data set and performing the cross-validation, which is (1) computationally expensive and (2) not desirable when the data set is already small to be further split (for example, whole-genome sequence data). In this study, we establish the theoretical foundation to select the penalty parameter without cross-validation based on bounding with a high probability the infinite norm of the gradient of the loss function at zero under the zero-feature assumption. Our approach is a generalization of the universal threshold of Donoho and Johnstone (1994) to nonlinear ANN learning. We perform a set of comprehensive Monte Carlo simulations on a simple model, and the numerical results show the effectiveness of the proposed approach.
翻訳日:2022-11-24 07:57:15 公開日:2020-06-07
# BUDS: シャッフルによるユーティリティと差別的プライバシのバランス

BUDS: Balancing Utility and Differential Privacy by Shuffling ( http://arxiv.org/abs/2006.04125v1 )

ライセンス: Link先を確認
Poushali Sengupta, Sudipta Paul, Subhankar Mishra(参考訳) ユーティリティとディファレンシャルプライバシのバランス シャッフルあるいは \textit{buds} はクラウドソースの統計データベースへのアプローチであり、ディファレンシャルプライバシ理論を用いた強力なプライバシとユーティリティバランスを持つ。 本稿では,1ホットエンコーディングと繰り返しシャッフルと損失推定とリスク最小化手法を用いて,有用性とプライバシの両立を図る新しいアルゴリズムを提案する。 本研究では、異なるソースやクライアントからワンホットエンコードされたデータを収集した後、反復シャッフルを用いた新しい属性シャッフル手法(アナリストからの問い合わせに基づく)と、アップダデーション関数による損失推定とリスク最小化により、実用性とプライバシのバランスの取れた差分レポートを生成する。 バランスのとれたユーティリティとプライバシの実証テストの間、BUDSは$\epsilon = 0.02$を生成します。 このアルゴリズムは、$\epsilon = ln[t/((n_1 - 1)^s)]$と$c' \bigg|e^{ln[t/((n_1 - 1)^s)]}1\bigg|$というプライバシバウンドを保持します。

Balancing utility and differential privacy by shuffling or \textit{BUDS} is an approach towards crowd-sourced, statistical databases, with strong privacy and utility balance using differential privacy theory. Here, a novel algorithm is proposed using one-hot encoding and iterative shuffling with the loss estimation and risk minimization techniques, to balance both the utility and privacy. In this work, after collecting one-hot encoded data from different sources and clients, a step of novel attribute shuffling technique using iterative shuffling (based on the query asked by the analyst) and loss estimation with an updation function and risk minimization produces a utility and privacy balanced differential private report. During empirical test of balanced utility and privacy, BUDS produces $\epsilon = 0.02$ which is a very promising result. Our algorithm maintains a privacy bound of $\epsilon = ln [t/((n_1 - 1)^S)]$ and loss bound of $c' \bigg|e^{ln[t/((n_1 - 1)^S)]} - 1\bigg|$.
翻訳日:2022-11-24 07:56:59 公開日:2020-06-07
# 推薦のための単層グラフ畳み込みネットワーク

Single-Layer Graph Convolutional Networks For Recommendation ( http://arxiv.org/abs/2006.04164v1 )

ライセンス: Link先を確認
Yue Xu and Hao Chen and Zengde Deng and Junxiong Zhu and Yanghua Li and Peng He and Wenyao Gao and Wenjun Xu(参考訳) グラフ畳み込みネットワーク(GCN)とその変種は、様々なレコメンデーションタスクにおいて、最先端のパフォーマンスを達成した。 しかし、既存のGCNモデルの多くは、関連するすべてのノード間で再帰的な集約を行う傾向にあり、計算負荷が激しくなる。 さらに、複雑なモデリング技術とともに多層アーキテクチャを好んでいる。 効果はあるものの、過剰なモデルパラメータが現実世界のレコメンデーターシステムにおける応用を妨げる。 そこで,本稿では,従来のモデルに比べて非常に少ない複雑さで優れた性能を実現することができる単層gcnモデルを提案する。 私たちの主な貢献は3倍です。 まず,隣り合うサンプリング過程をガイドし,入力グラフの品質を明示的に評価できる分布認識類似度(da類似度)という原理的類似度指標を提案する。 また,da類似性は理論解析と実験シミュレーションの両方を通して最終性能と正の相関があることを証明した。 第2に,単層GCNを用いた簡易GCNアーキテクチャを提案し,DA類似性によってフィルタリングされた隣人からの情報を集約し,ノード表現を生成する。 さらに、アグリゲーションステップはパラメータフリーな操作であり、トレーニングと推論のコストをさらに削減するために前処理で行うことができる。 第3に,4つのデータセットについて広範な実験を行う。 その結果,提案モデルが既存のgcnモデルを大幅に上回り,レコメンデーション性能の面では最大数桁のスピードアップが得られることを確認した。

Graph Convolutional Networks (GCNs) and their variants have received significant attention and achieved start-of-the-art performances on various recommendation tasks. However, many existing GCN models tend to perform recursive aggregations among all related nodes, which arises severe computational burden. Moreover, they favor multi-layer architectures in conjunction with complicated modeling techniques. Though effective, the excessive amount of model parameters largely hinder their applications in real-world recommender systems. To this end, in this paper, we propose the single-layer GCN model which is able to achieve superior performance along with remarkably less complexity compared with existing models. Our main contribution is three-fold. First, we propose a principled similarity metric named distribution-aware similarity (DA similarity), which can guide the neighbor sampling process and evaluate the quality of the input graph explicitly. We also prove that DA similarity has a positive correlation with the final performance, through both theoretical analysis and empirical simulations. Second, we propose a simplified GCN architecture which employs a single GCN layer to aggregate information from the neighbors filtered by DA similarity and then generates the node representations. Moreover, the aggregation step is a parameter-free operation, such that it can be done in a pre-processing manner to further reduce red the training and inference costs. Third, we conduct extensive experiments on four datasets. The results verify that the proposed model outperforms existing GCN models considerably and yields up to a few orders of magnitude speedup in training, in terms of the recommendation performance.
翻訳日:2022-11-24 07:56:05 公開日:2020-06-07
# クリックスルー率予測のための特徴対話型ニューラルネットワーク

Feature Interaction based Neural Network for Click-Through Rate Prediction ( http://arxiv.org/abs/2006.05312v1 )

ライセンス: Link先を確認
Dafang Zou and Leiming Zhang and Jiafa Mao and Weiguo Sheng(参考訳) CTR(Click-Through Rate)予測は、広告やレコメンデーションシステムの計算において最も重要かつ困難である。 これらのデータを用いた機械学習システムを構築するためには,機能間のインタラクションを適切にモデル化することが重要である。 しかし、現在の多くの作品は、内部積や要素単位積のような単純な方法で特徴相互作用を計算する。 本稿では,CTR予測タスクにおける特徴間の情報を完全に活用し,深層ニューラルネットワークの性能を向上させることを目的とする。 本稿では,3次元関係テンソルを用いて特徴的相互作用をモデル化できる特徴的相互作用に基づくニューラルネットワーク(finn)を提案する。 FINNは、下位層上の機能相互作用と、高次の機能相互作用をモデル化するニューラルネットワークの非線形性を表現する。 我々は,従来のベースラインと比較してCTR予測タスクのモデルを評価し,このモデルがPNNやDeepFMといった最先端のディープモデルよりも優れていることを示す。 評価結果は,CTR予測の精度向上のための重要な情報を含む特徴的相互作用を示す。 また、我々のモデルが機能インタラクションを効果的に学習し、現実世界のデータセットでより良いパフォーマンスを達成できることも示しています。

Click-Through Rate (CTR) prediction is one of the most important and challenging in calculating advertisements and recommendation systems. To build a machine learning system with these data, it is important to properly model the interaction among features. However, many current works calculate the feature interactions in a simple way such as inner product and element-wise product. This paper aims to fully utilize the information between features and improve the performance of deep neural networks in the CTR prediction task. In this paper, we propose a Feature Interaction based Neural Network (FINN) which is able to model feature interaction via a 3-dimention relation tensor. FINN provides representations for the feature interactions on the the bottom layer and the non-linearity of neural network in modelling higher-order feature interactions. We evaluate our models on CTR prediction tasks compared with classical baselines and show that our deep FINN model outperforms other state-of-the-art deep models such as PNN and DeepFM. Evaluation results demonstrate that feature interaction contains significant information for better CTR prediction. It also indicates that our models can effectively learn the feature interactions, and achieve better performances in real-world datasets.
翻訳日:2022-11-24 07:54:25 公開日:2020-06-07
# admp:非教師なしクロスドメイン圧縮のための逆ダブルマスクベースのプルーニングフレームワーク

ADMP: An Adversarial Double Masks Based Pruning Framework For Unsupervised Cross-Domain Compression ( http://arxiv.org/abs/2006.04127v1 )

ライセンス: Link先を確認
Xiaoyu Feng, Zhuqing Yuan, Guijin Wang, Yongpan Liu(参考訳) ネットワークプルーニングの最近の進歩にもかかわらず、IoT(Internet of Things)アプリケーションに直接適用することはまだ2つの課題に直面している。 簡単な解決策のひとつは、unsupervised domain adaptation(uda)テクニックとpruningを組み合わせることだ。 例えば、モデルを最初にクラウド上で実行し、UDAによってクラウドからエンドツーエンドに転送する。 しかし、このようなナイーブな組み合わせは高い性能低下に直面している。 そこで本研究では,このようなクロスドメイン圧縮のためのadversarial Double Masks based Pruning (ADMP)を提案する。 admpでは,実サイズの教師と刈り取った生徒の出力差として,疑似ラベルを生成するだけでなく,ドメインの発散を測定するための知識蒸留フレームワークを構築した。 既存のマスクによるプルーニングとは異なり、admpでは2つの逆マスク、すなわちソフトマスクとハードマスクが採用されている。 したがってADMPは、強力なドメイン不変の特徴と堅牢な分類境界を抽出しながら、モデルを効果的に実行することができる。 トレーニング中、orternating Direction Multiplier Method は {0,1}-masks のバイナリ制約を克服するために使用される。 Office31とImageCLEF-DAデータセットでは、提案されたADMPは、それぞれ0.2%と0.3%の精度で60%のチャンネルをプーンすることができる。 最先端技術と比較して、約1.63倍のパラメータ削減と4.1%と5.1%の精度向上が達成できる。

Despite the recent progress of network pruning, directly applying it to the Internet of Things (IoT) applications still faces two challenges, i.e. the distribution divergence between end and cloud data and the missing of data label on end devices. One straightforward solution is to combine the unsupervised domain adaptation (UDA) technique and pruning. For example, the model is first pruned on the cloud and then transferred from cloud to end by UDA. However, such a naive combination faces high performance degradation. Hence this work proposes an Adversarial Double Masks based Pruning (ADMP) for such cross-domain compression. In ADMP, we construct a Knowledge Distillation framework not only to produce pseudo labels but also to provide a measurement of domain divergence as the output difference between the full-size teacher and the pruned student. Unlike existing mask-based pruning works, two adversarial masks, i.e. soft and hard masks, are adopted in ADMP. So ADMP can prune the model effectively while still allowing the model to extract strong domain-invariant features and robust classification boundaries. During training, the Alternating Direction Multiplier Method is used to overcome the binary constraint of {0,1}-masks. On Office31 and ImageCLEF-DA datasets, the proposed ADMP can prune 60% channels with only 0.2% and 0.3% average accuracy loss respectively. Compared with the state of art, we can achieve about 1.63x parameters reduction and 4.1% and 5.1% accuracy improvement.
翻訳日:2022-11-24 07:46:32 公開日:2020-06-07
# 部分空間の連合における自己表現に基づく非教師なし例選択

Self-Representation Based Unsupervised Exemplar Selection in a Union of Subspaces ( http://arxiv.org/abs/2006.04246v1 )

ライセンス: Link先を確認
Chong You, Chi Li, Daniel P. Robinson, Rene Vidal(参考訳) ラベルのないデータセットから少数の代表集合を見つけることは、データセットの要約や情報抽出など、幅広いアプリケーションにおいて核となる問題である。 k$-medoidsのような古典的なexemplar selectionメソッドは、データポイントがいくつかのクラスタセンタロイドに近いという仮定の下で動作し、データが部分空間の結合に近い場合は処理できない。 本稿では,表現係数の$\ell_1$ノルムで測定されたすべてのデータポイントを最もよく再構成する部分集合を探索する新しい例題選択モデルを提案する。 幾何学的には、この部分集合は、部分集合のミンコフスキー関数によって測定されたすべてのデータポイントを最もよくカバーする。 モデルを効率的に解くため,最遠の探索アルゴリズムを導入し,最短表現点を例示として反復的に選択する。 データセットが独立部分空間の和から引き出されるとき、我々の方法は各部分空間から十分な数の代表を選択できる。 さらに,不均衡データにロバストで大規模データに効率的であるexemplarベースのサブスペースクラスタリング法を開発した。 さらに,(ラベル付けされた場合)選択された例で訓練された分類器は,残りのデータポイントを正しく分類できることを示す。

Finding a small set of representatives from an unlabeled dataset is a core problem in a broad range of applications such as dataset summarization and information extraction. Classical exemplar selection methods such as $k$-medoids work under the assumption that the data points are close to a few cluster centroids, and cannot handle the case where data lie close to a union of subspaces. This paper proposes a new exemplar selection model that searches for a subset that best reconstructs all data points as measured by the $\ell_1$ norm of the representation coefficients. Geometrically, this subset best covers all the data points as measured by the Minkowski functional of the subset. To solve our model efficiently, we introduce a farthest first search algorithm that iteratively selects the worst represented point as an exemplar. When the dataset is drawn from a union of independent subspaces, our method is able to select sufficiently many representatives from each subspace. We further develop an exemplar based subspace clustering method that is robust to imbalanced data and efficient for large scale data. Moreover, we show that a classifier trained on the selected exemplars (when they are labeled) can correctly classify the rest of the data points.
翻訳日:2022-11-24 07:46:08 公開日:2020-06-07
# 動的物体追跡と把持のためのマルチタスク強化学習に基づく移動操作制御

Multi-Task Reinforcement Learning based Mobile Manipulation Control for Dynamic Object Tracking and Grasping ( http://arxiv.org/abs/2006.04271v1 )

ライセンス: Link先を確認
Cong Wang, Qifeng Zhang, Qiyan Tian, Shuo Li, Xiaohui Wang, David Lane, Yvan Petillot, Ziyang Hong, Sen Wang(参考訳) ロボットシステムと非構造的な作業環境が組み合わさった複雑さのため、移動マニピュレータのアジャイルコントロールは難しい。 ランダムな軌跡による動的物体の追跡と把握はさらに困難である。 本稿では,マルチタスク強化学習に基づく移動体操作制御フレームワークを提案する。 いくつかの基本的な動的軌跡がタスクトレーニングセットとして選択される。 実際の政策一般化を改善するために、トレーニングプロセス中にランダムノイズと動的ランダム化を導入する。 広範な実験により,我々の訓練したポリシーは,約0.1m追従誤差と75\%の動的物体の把持成功率を持つ無作為な動的トラジェクタに適応できることを示した。 トレーニングされたポリシーは、実際のモバイルマニピュレータにうまくデプロイできる。

Agile control of mobile manipulator is challenging because of the high complexity coupled by the robotic system and the unstructured working environment. Tracking and grasping a dynamic object with a random trajectory is even harder. In this paper, a multi-task reinforcement learning-based mobile manipulation control framework is proposed to achieve general dynamic object tracking and grasping. Several basic types of dynamic trajectories are chosen as the task training set. To improve the policy generalization in practice, random noise and dynamics randomization are introduced during the training process. Extensive experiments show that our policy trained can adapt to unseen random dynamic trajectories with about 0.1m tracking error and 75\% grasping success rate of dynamic objects. The trained policy can also be successfully deployed on a real mobile manipulator.
翻訳日:2022-11-24 07:45:26 公開日:2020-06-07
# FMA-ETA: FFNと注意に基づく旅行時間推定

FMA-ETA: Estimating Travel Time Entirely Based on FFN With Attention ( http://arxiv.org/abs/2006.04077v1 )

ライセンス: Link先を確認
Yiwen Sun, Yulu Wang, Kun Fu, Zheng Wang, Ziang Yan, Changshui Zhang, Jieping Ye(参考訳) 推定到着時刻(ETA)は知的輸送システムにおいて最も重要なサービスの一つであり、近年では時空間(ST)データマイニングの課題となっている。 現在、ディープラーニングベースの手法、特にリカレントニューラルネットワーク(RNN)ベースの手法は、ETAのための大量のデータからSTパターンをモデル化し、最先端技術に適応している。 しかしながら、RNNは並列コンピューティングに不便な構造であるため、遅いトレーニングと推論速度に悩まされている。 そこで本研究では,多要素自己認識(Multi-factor Self-Attention, FMA-ETA)を用いた ETA のフィードフォワードネットワーク (FFN) に基づく,新しい,簡潔かつ効果的なフレームワークを提案する。 異なるカテゴリの特徴に対処し,情報を意図的に集約する,新しい多要素自己認識機構を提案する。 実世界の車両走行データセットの広範な実験結果によると、fma-etaは予測精度と推定速度の面で最先端の手法と競合している。

Estimated time of arrival (ETA) is one of the most important services in intelligent transportation systems and becomes a challenging spatial-temporal (ST) data mining task in recent years. Nowadays, deep learning based methods, specifically recurrent neural networks (RNN) based ones are adapted to model the ST patterns from massive data for ETA and become the state-of-the-art. However, RNN is suffering from slow training and inference speed, as its structure is unfriendly to parallel computing. To solve this problem, we propose a novel, brief and effective framework mainly based on feed-forward network (FFN) for ETA, FFN with Multi-factor self-Attention (FMA-ETA). The novel Multi-factor self-attention mechanism is proposed to deal with different category features and aggregate the information purposefully. Extensive experimental results on the real-world vehicle travel dataset show FMA-ETA is competitive with state-of-the-art methods in terms of the prediction accuracy with significantly better inference speed.
翻訳日:2022-11-24 07:39:28 公開日:2020-06-07
# 半教師付き学習のための分類器の最適組み合わせ

Optimally Combining Classifiers for Semi-Supervised Learning ( http://arxiv.org/abs/2006.04097v1 )

ライセンス: Link先を確認
Zhiguo Wang, Liusha Yang, Feng Yin, Ke Lin, Qingjiang Shi, Zhi-Quan Luo(参考訳) 本稿では,表データの半教師付き学習について考察する。 木モデルに基づくxgboostは不均一な特徴にうまく作用することが広く知られているが、トランスダクティブサポートベクターマシンは低密度分離の仮定を活用できる。 しかし、エンドツーエンドの半教師付き学習のためにそれらを組み合わせる作業はほとんど行われていない。 本稿では,これら2つの手法は相補的特性と多様性が強く,Xgboostとトランスダクティブ支援ベクトルマシンの長所を適応的に組み合わせた半教師付き学習手法を提案する。 多数決ルールの代わりに、アンサンブルウェイトの観点から最適化問題を確立し、ラベルなしデータのより正確な擬似ラベルを得るのに役立つ。 UCIデータセットと実商用データセットの実験結果から,テスト精度を約3\%-4\%$に向上させる5つの最先端アルゴリズムよりも,提案手法の分類性能が優れていることが示された。 部分コードはhttps://github.com/hav-cam-mit/CTOで見ることができる。

This paper considers semi-supervised learning for tabular data. It is widely known that Xgboost based on tree model works well on the heterogeneous features while transductive support vector machine can exploit the low density separation assumption. However, little work has been done to combine them together for the end-to-end semi-supervised learning. In this paper, we find these two methods have complementary properties and larger diversity, which motivates us to propose a new semi-supervised learning method that is able to adaptively combine the strengths of Xgboost and transductive support vector machine. Instead of the majority vote rule, an optimization problem in terms of ensemble weight is established, which helps to obtain more accurate pseudo labels for unlabeled data. The experimental results on the UCI data sets and real commercial data set demonstrate the superior classification performance of our method over the five state-of-the-art algorithms improving test accuracy by about $3\%-4\%$. The partial code can be found at https://github.com/hav-cam-mit/CTO.
翻訳日:2022-11-24 07:38:45 公開日:2020-06-07
# 生成モデルを用いた不確実性を考慮した深層分類器

Uncertainty-Aware Deep Classifiers using Generative Models ( http://arxiv.org/abs/2006.04183v1 )

ライセンス: Link先を確認
Murat Sensoy, Lance Kaplan, Federico Cerutti, Maryam Saleki(参考訳) ディープニューラルネットワークは、しばしば、彼らが知らないことについて無知であり、インフォームド予測を行うときに過信する。 最近のアプローチでは、クラス境界やトレーニング分布の外部からのデータサンプルに対して高い不確実性を出力するようにモデルをトレーニングすることで、分類の不確実性を直接定量化している。 これらのアプローチでは、トレーニング中に補助データセットを使用して、分散サンプルを表現する。 しかし、特に画像のような高次元データに対して、そのような補助データセットの選択や生成は自明ではない。 本研究では,特徴空間における決定境界と分布外領域を区別するために,失語症とてんかんの不確実性の両方を表現できる新しいニューラルネットワークモデルを開発する。 この目的のために、変分オートエンコーダと生成型adversarial networkが組み込まれて、トレーニング用のアウトオブディストリビューションのexemplarが自動生成される。 広範な分析を通じて,提案手法は,ニューラルネットワークや異常検出手法に対するベイズ的アプローチなど,よく知られたデータセット上の不確実性評価や,最先端のアプローチに対する逆例を提供することを実証する。

Deep neural networks are often ignorant about what they do not know and overconfident when they make uninformed predictions. Some recent approaches quantify classification uncertainty directly by training the model to output high uncertainty for the data samples close to class boundaries or from the outside of the training distribution. These approaches use an auxiliary data set during training to represent out-of-distribution samples. However, selection or creation of such an auxiliary data set is non-trivial, especially for high dimensional data such as images. In this work we develop a novel neural network model that is able to express both aleatoric and epistemic uncertainty to distinguish decision boundary and out-of-distribution regions of the feature space. To this end, variational autoencoders and generative adversarial networks are incorporated to automatically generate out-of-distribution exemplars for training. Through extensive analysis, we demonstrate that the proposed approach provides better estimates of uncertainty for in- and out-of-distribution samples, and adversarial examples on well-known data sets against state-of-the-art approaches including recent Bayesian approaches for neural networks and anomaly detection methods.
翻訳日:2022-11-24 07:37:40 公開日:2020-06-07
# 堅牢性保証のためのランダム化平滑化の拡張と制限

Extensions and limitations of randomized smoothing for robustness guarantees ( http://arxiv.org/abs/2006.04208v1 )

ライセンス: Link先を確認
Jamie Hayes(参考訳) ランダム化平滑化(randomized smoothing)は、入力に対する分類器の決定を検証するための手法であり、逆雑音下で不変である。 ブラックボックスで動作するため、認証は分類器のアーキテクチャのサイズによって制限されない。 ここでは、Li et al の作業を拡張します。 平滑化尺度間のばらつきの選択が最終的な堅牢性保証にどのように影響するか、また平滑化尺度自体の選択が異なる脅威モデルにおける保証につながるかを研究する。 そこで我々は,任意の$\ell_p$ (p\in\mathbb{n}_{>0}$) の逆摂動を最小限に抑える方法を開発した。 すると、無作為な平滑化は次元の呪いに苦しむことを示し、$p$が増加するにつれて、入力周辺の有効半径は消滅する。

Randomized smoothing, a method to certify a classifier's decision on an input is invariant under adversarial noise, offers attractive advantages over other certification methods. It operates in a black-box and so certification is not constrained by the size of the classifier's architecture. Here, we extend the work of Li et al. \cite{li2018second}, studying how the choice of divergence between smoothing measures affects the final robustness guarantee, and how the choice of smoothing measure itself can lead to guarantees in differing threat models. To this end, we develop a method to certify robustness against any $\ell_p$ ($p\in\mathbb{N}_{>0}$) minimized adversarial perturbation. We then demonstrate a negative result, that randomized smoothing suffers from the curse of dimensionality; as $p$ increases, the effective radius around an input one can certify vanishes.
翻訳日:2022-11-24 07:37:18 公開日:2020-06-07
# ベイズ隠れ物理モデル:不確実性定量化によるデータからの非線形偏微分作用素の発見

Bayesian Hidden Physics Models: Uncertainty Quantification for Discovery of Nonlinear Partial Differential Operators from Data ( http://arxiv.org/abs/2006.04228v1 )

ライセンス: Link先を確認
Steven Atkinson(参考訳) 物理学についてのデータは何なのか? 機械学習モデルを用いてデータから微分方程式などの物理法則を規定することへの関心が高まっているが、現在の手法には信頼性を伝えるための不確実な定量化がない。 この研究はベイズの視点からこの欠点に対処している。 本稿では,異なる実験の時空間関数データをニューラルネットワークとして表現することを学ぶ「リーフ」モジュールと,その支配的非線形微分作用素をガウス過程として非パラメトリック分布を表す単一の「ルート」モジュールからなる新しいモデルを提案する。 自動微分は、根への入力として葉関数からの必要な部分微分を計算するために使われる。 提案手法は,演算子に対する後続分布の観点から学習物理の信頼性を定量化し,この不確実性を新しい初期有界値問題インスタンスの解に伝達する。 数値実験はいくつかの非線形PDE上での手法を実証する。

What do data tell us about physics-and what don't they tell us? There has been a surge of interest in using machine learning models to discover governing physical laws such as differential equations from data, but current methods lack uncertainty quantification to communicate their credibility. This work addresses this shortcoming from a Bayesian perspective. We introduce a novel model comprising "leaf" modules that learn to represent distinct experiments' spatiotemporal functional data as neural networks and a single "root" module that expresses a nonparametric distribution over their governing nonlinear differential operator as a Gaussian process. Automatic differentiation is used to compute the required partial derivatives from the leaf functions as inputs to the root. Our approach quantifies the reliability of the learned physics in terms of a posterior distribution over operators and propagates this uncertainty to solutions of novel initial-boundary value problem instances. Numerical experiments demonstrate the method on several nonlinear PDEs.
翻訳日:2022-11-24 07:36:59 公開日:2020-06-07
# 不確実なフィードバックによる学習行動

Learning Behaviors with Uncertain Human Feedback ( http://arxiv.org/abs/2006.04201v1 )

ライセンス: Link先を確認
Xu He, Haipeng Chen and Bo An(参考訳) 人間のフィードバックは多くの領域でエージェントの訓練に広く使われている。 しかしながら、特に訓練者にとって最適な行動が明らかでない場合に、人間がフィードバックを提供する際の不確実性を考慮することは稀である。 例えば、サブ最適アクションの報酬は確率的であり、ゲームや現実世界で一般的である最適なアクションの報酬を超えることがある。 トレーナーは、準最適行動に肯定的なフィードバックを与え、最適な行動に否定的なフィードバックを与え、混乱した状況ではフィードバックを提供しない可能性が高い。 予測最大化(EM)アルゴリズムを用いて、フィードバックモデルを隠れパラメータとして扱う既存の研究は、学習環境と人間のフィードバックの不確実性を考慮していない。 この課題に対処するために,人間のフィードバックの不確実性を考慮した新しいフィードバックモデルを提案する。 しかし、これはEMアルゴリズムに難解な計算をもたらす。 そこで本研究では,予測ステップをグラディエントDescent法で近似する新しい近似EMアルゴリズムを提案する。 人工シナリオと実世界のシナリオの双方において,提案手法の優れた性能を示す実験結果が得られた。

Human feedback is widely used to train agents in many domains. However, previous works rarely consider the uncertainty when humans provide feedback, especially in cases that the optimal actions are not obvious to the trainers. For example, the reward of a sub-optimal action can be stochastic and sometimes exceeds that of the optimal action, which is common in games or real-world. Trainers are likely to provide positive feedback to sub-optimal actions, negative feedback to the optimal actions and even do not provide feedback in some confusing situations. Existing works, which utilize the Expectation Maximization (EM) algorithm and treat the feedback model as hidden parameters, do not consider uncertainties in the learning environment and human feedback. To address this challenge, we introduce a novel feedback model that considers the uncertainty of human feedback. However, this incurs intractable calculus in the EM algorithm. To this end, we propose a novel approximate EM algorithm, in which we approximate the expectation step with the Gradient Descent method. Experimental results in both synthetic scenarios and two real-world scenarios with human participants demonstrate the superior performance of our proposed approach.
翻訳日:2022-11-24 07:31:03 公開日:2020-06-07
# ソフトグラディエントブースティングマシン

Soft Gradient Boosting Machine ( http://arxiv.org/abs/2006.04059v1 )

ライセンス: Link先を確認
Ji Feng, Yi-Xuan Xu, Yuan Jiang, Zhi-Hua Zhou(参考訳) グラディエントブースティングマシンは関数近似器として成功し、様々な分野で広く利用されている。 しかし,各学習者の学習手順は逐次順序を取らなければならないため,学習者間での学習プロセスの並列化が不可能である。 さらに,オンラインやインクリメンタルな学習環境下では,学習者が一度学習した環境に適応できないという事実から,GBMは準最適性能を達成した。 本研究では,複数の異なる基本学習者をつなぎ合わせることで,グラディエント・ブーピング・マシン(sGBM)を提案し,グラディエント・ブーピングから着想を得た局所的・大域的目的の両方を注入することにより,全ての基礎学習者を線形スピードアップで協調的に最適化することができる。 微分可能なソフト決定木をベースラーナとして使用する場合、この装置は余分な利益を伴う決定木を増加させる(ハード)勾配の代替版と見なすことができる。 実験の結果,sGBMは,オンラインとオフラインの両方で同一の学習者に対して,より高精度な時間効率を享受できることがわかった。

Gradient Boosting Machine has proven to be one successful function approximator and has been widely used in a variety of areas. However, since the training procedure of each base learner has to take the sequential order, it is infeasible to parallelize the training process among base learners for speed-up. In addition, under online or incremental learning settings, GBMs achieved sub-optimal performance due to the fact that the previously trained base learners can not adapt with the environment once trained. In this work, we propose the soft Gradient Boosting Machine (sGBM) by wiring multiple differentiable base learners together, by injecting both local and global objectives inspired from gradient boosting, all base learners can then be jointly optimized with linear speed-up. When using differentiable soft decision trees as base learner, such device can be regarded as an alternative version of the (hard) gradient boosting decision trees with extra benefits. Experimental results showed that, sGBM enjoys much higher time efficiency with better accuracy, given the same base learner in both on-line and off-line settings.
翻訳日:2022-11-24 07:28:38 公開日:2020-06-07
# 核融合リカレントニューラルネットワーク

Fusion Recurrent Neural Network ( http://arxiv.org/abs/2006.04069v1 )

ライセンス: Link先を確認
Yiwen Sun, Yulu Wang, Kun Fu, Zheng Wang, Changshui Zhang, Jieping Ye(参考訳) 実用化のためのディープシーケンス学習を考えると、LSTMとGRUの2つの代表的RNNが最初に思い浮かびます。 それでも他のRNNにはチャンスはありませんか? 将来的にはもっとよいRNNがあるのだろうか? 本稿では,新しい,簡潔かつ有望なRNN-Fusion Recurrent Neural Network (Fusion RNN)を提案する。 Fusion RNNはFusionモジュールとTransportモジュールで構成されている。 fusionモジュールは、入力と隠れ状態ベクトルのマルチラウンド融合を実現する。 主に単純なリカレントネットワークを指すトランスポートモジュールは、隠れた状態を計算し、次のタイムステップに渡す準備をする。 さらに、Fusion RNNのシーケンス特徴抽出能力を評価するために、シーケンスデータの代表データマイニングタスク、到着推定時間(ETA)を選択し、Fusion RNNに基づいた新しいモデルを提案する。 我々はDiDi Chuxingの大規模車両走行データに基づいて,本手法と他の ETA 用RNN の変種を比較した。 その結果, Fusion RNN は Fusion RNN よりも複雑で最先端の LSTM や GRU と同等であることがわかった。

Considering deep sequence learning for practical application, two representative RNNs - LSTM and GRU may come to mind first. Nevertheless, is there no chance for other RNNs? Will there be a better RNN in the future? In this work, we propose a novel, succinct and promising RNN - Fusion Recurrent Neural Network (Fusion RNN). Fusion RNN is composed of Fusion module and Transport module every time step. Fusion module realizes the multi-round fusion of the input and hidden state vector. Transport module which mainly refers to simple recurrent network calculate the hidden state and prepare to pass it to the next time step. Furthermore, in order to evaluate Fusion RNN's sequence feature extraction capability, we choose a representative data mining task for sequence data, estimated time of arrival (ETA) and present a novel model based on Fusion RNN. We contrast our method and other variants of RNN for ETA under massive vehicle travel data from DiDi Chuxing. The results demonstrate that for ETA, Fusion RNN is comparable to state-of-the-art LSTM and GRU which are more complicated than Fusion RNN.
翻訳日:2022-11-24 07:27:39 公開日:2020-06-07
# 対話的復元のためのマルチタスク学習手法

A Multitask Learning Approach for Diacritic Restoration ( http://arxiv.org/abs/2006.04016v1 )

ライセンス: Link先を確認
Sawsan Alqahtani and Ajay Mishra and Mona Diab(参考訳) アラビア語のような多くの言語では、発音や意味を特定するのに用いている。 このようなダイアクリティックは、しばしば文章中に省略され、単語の発音や意味を増加させる。 これにより、そのようなテキストの計算処理をより困難にする曖昧なテキストが得られる。 ダイアクリティック修復(diacritic restoration)は、文章に欠けているダイアクリティックを復元する作業である。 ほとんどの最先端のダイアクリティカルな復元モデルは、文字レベルの情報に基づいて構築されており、モデルが見えないデータに一般化するのに役立つが、おそらく単語レベルで有用な情報が失われる。 そこで本研究では,この損失を補うために,複数タスク学習を用いて単語分割,パート・オブ・音声タグ付け,構文的ダイアクリティカル化という,関連するNLP問題と共同でダイアクリティカルリカバリを行う。 共同モデリングで考慮するタスクに十分なデータリソースがあるため、アラビア語をケーススタディとして使用しています。 私たちのジョイントモデルはベースラインを著しく上回っており、形態素解析や多くのデータ(例えば方言データ)に依存するより複雑な最先端モデルに匹敵するものです。

In many languages like Arabic, diacritics are used to specify pronunciations as well as meanings. Such diacritics are often omitted in written text, increasing the number of possible pronunciations and meanings for a word. This results in a more ambiguous text making computational processing on such text more difficult. Diacritic restoration is the task of restoring missing diacritics in the written text. Most state-of-the-art diacritic restoration models are built on character level information which helps generalize the model to unseen data, but presumably lose useful information at the word level. Thus, to compensate for this loss, we investigate the use of multi-task learning to jointly optimize diacritic restoration with related NLP problems namely word segmentation, part-of-speech tagging, and syntactic diacritization. We use Arabic as a case study since it has sufficient data resources for tasks that we consider in our joint modeling. Our joint models significantly outperform the baselines and are comparable to the state-of-the-art models that are more complex relying on morphological analyzers and/or a lot more data (e.g. dialectal data).
翻訳日:2022-11-24 07:21:05 公開日:2020-06-07
# 因子分析器の制約混合による形状集団内の学習ポーズ変動

Learning pose variations within shape population by constrained mixtures of factor analyzers ( http://arxiv.org/abs/2006.04171v1 )

ライセンス: Link先を確認
Xilu Wang(参考訳) 人口の形状変動のマイニングと学習は、パラメトリック形状モデリング、3Dアニメーション、画像セグメント化などの応用の恩恵を受けている。 現在の統計形状モデリング手法は、明らかなポーズ変化(身体部位の相対的な回転)を伴わずに、非構造化形状変化の学習に有効である。 形状集団内のポーズの変化を研究するには、形状を異なる明瞭な部分に分割し、セグメント化された部分の変換を学ぶ必要がある。 本稿では,ポーズ学習問題を因子分析器の混合物として定式化する。 セグメンテーションは後確率成分によって得られ、ポーズ変動の回転は因子負荷行列によって学習される。 因子負荷行列が回転行列によって構成されることを保証するため、制約を課し、対応する閉形最適解を導出する。 提案手法に基づいて,所定の形状の個体群からポーズのバリエーションを自動的に学習する。 この方法は、トレーニングセット内の既存のポーズを補間して新たなポーズが生成されるモーションアニメーションに適用される。 得られた結果はスムーズでリアルです。

Mining and learning the shape variability of underlying population has benefited the applications including parametric shape modeling, 3D animation, and image segmentation. The current statistical shape modeling method works well on learning unstructured shape variations without obvious pose changes (relative rotations of the body parts). Studying the pose variations within a shape population involves segmenting the shapes into different articulated parts and learning the transformations of the segmented parts. This paper formulates the pose learning problem as mixtures of factor analyzers. The segmentation is obtained by components posterior probabilities and the rotations in pose variations are learned by the factor loading matrices. To guarantee that the factor loading matrices are composed by rotation matrices, constraints are imposed and the corresponding closed form optimal solution is derived. Based on the proposed method, the pose variations are automatically learned from the given shape populations. The method is applied in motion animation where new poses are generated by interpolating the existing poses in the training set. The obtained results are smooth and realistic.
翻訳日:2022-11-24 07:20:11 公開日:2020-06-07
# デュアルポリシー蒸留

Dual Policy Distillation ( http://arxiv.org/abs/2006.04061v1 )

ライセンス: Link先を確認
Kwei-Herng Lai, Daochen Zha, Yuening Li, Xia Hu(参考訳) 教員政策を学生政策に移行した政策蒸留は、深層強化学習の課題において大きな成功を収めた。 この教師教育の枠組みは、計算コストが高い訓練された教師モデルを必要とする。 さらに,教師モデルが最適でない場合,生徒モデルの性能は教師モデルによって制限される可能性がある。 協調学習の観点から,学生モデルの多様な視点から,共同的知的努力の実施の可能性を検討する。 本研究では,2人の学習者が同じ環境下で活動し,環境の異なる視点を探索し,相互に知識を抽出し,学習を促進するための2つの政策蒸留(DPD)を提案する。 このデュアルラーニングフレームワークを開発する上で重要な課題は、不完全でノイズの多いピアラーニング者から抽出した知識が役に立つかどうかが不明であるため、同時代の学習に基づく強化学習アルゴリズムにおいて、ピアラーニング者から有益な知識を特定することである。 この課題に対処するために,ピア学習者からの知識の蒸留が政策改善につながることを理論的に正当化し,理論的な結果に基づく不利な蒸留戦略を提案する。 提案手法は,高額な教師モデルを用いずに,学習エージェントと関数近似を用いて,優れた性能が得られることを示す。

Policy distillation, which transfers a teacher policy to a student policy has achieved great success in challenging tasks of deep reinforcement learning. This teacher-student framework requires a well-trained teacher model which is computationally expensive. Moreover, the performance of the student model could be limited by the teacher model if the teacher model is not optimal. In the light of collaborative learning, we study the feasibility of involving joint intellectual efforts from diverse perspectives of student models. In this work, we introduce dual policy distillation(DPD), a student-student framework in which two learners operate on the same environment to explore different perspectives of the environment and extract knowledge from each other to enhance their learning. The key challenge in developing this dual learning framework is to identify the beneficial knowledge from the peer learner for contemporary learning-based reinforcement learning algorithms, since it is unclear whether the knowledge distilled from an imperfect and noisy peer learner would be helpful. To address the challenge, we theoretically justify that distilling knowledge from a peer learner will lead to policy improvement and propose a disadvantageous distillation strategy based on the theoretical results. The conducted experiments on several continuous control tasks show that the proposed framework achieves superior performance with a learning-based agent and function approximation without the use of expensive teacher models.
翻訳日:2022-11-24 07:19:39 公開日:2020-06-07
# 関係系上の非パラメトリックベイズ推論としてのアナロジー

Analogy as Nonparametric Bayesian Inference over Relational Systems ( http://arxiv.org/abs/2006.04156v1 )

ライセンス: Link先を確認
Ruairidh M. Battleday and Thomas L. Griffiths(参考訳) 人間の学習と推論の多くは、関係一般化の計算問題の中に枠を組むことができる。 本稿では,従来の関係構造からの予測を類似的に重み付けすることで,関係知識を新しい環境に一般化するベイズモデルを提案する。 まず, この学習者は, 環境経験が小さい場合に, ランダム・ウィキペディア・システムから得られる関係データに対して, 素直な理論に基づく学習者より優れていることを示す。 次に、アナログ類似性の形式化がアナロジーの選択と重み付けにどのように変換するかを示す。 最後に,1つの非パラメトリックベイズモデルにおいて,類比と理論に基づく学習者を組み合わせることにより,類似に依拠する最適関係一般化から,その経験を積んだ新システムの理論構築へ移行することを示す。 観測されていない相互作用をどちらのベースラインよりも予測するだけでなく、この形式化はアナロジーの形成と抽象化に関する計算レベルの視点を与える。

Much of human learning and inference can be framed within the computational problem of relational generalization. In this project, we propose a Bayesian model that generalizes relational knowledge to novel environments by analogically weighting predictions from previously encountered relational structures. First, we show that this learner outperforms a naive, theory-based learner on relational data derived from random- and Wikipedia-based systems when experience with the environment is small. Next, we show how our formalization of analogical similarity translates to the selection and weighting of analogies. Finally, we combine the analogy- and theory-based learners in a single nonparametric Bayesian model, and show that optimal relational generalization transitions from relying on analogies to building a theory of the novel system with increasing experience in it. Beyond predicting unobserved interactions better than either baseline, this formalization gives a computational-level perspective on the formation and abstraction of analogies themselves.
翻訳日:2022-11-24 07:18:47 公開日:2020-06-07
# 会話理解のためのニューラルダイアログモデルの探索

Probing Neural Dialog Models for Conversational Understanding ( http://arxiv.org/abs/2006.08331v1 )

ライセンス: Link先を確認
Abdelrhman Saleh, Tovly Deutsch, Stephen Casper, Yonatan Belinkov, Stuart Shieber(参考訳) オープンドメインダイアログ生成に対する主要なアプローチは、チャットデータセット上のニューラルモデルのエンドツーエンドトレーニングに依存している。 しかしながら、このアプローチは、これらのモデルがダイアログへの関与について何を学ぶ(あるいは学習しない)かについての洞察をほとんど与えない。 本研究では,ニューラルオープンドメインダイアログシステムで学習した内部表現を分析し,これらの表現の質を評価する。 この結果から,標準オープンドメインダイアログシステムは,質問への回答や矛盾の推測,会話の話題の決定に苦慮していることが示唆された。 また、ダイアログのダイアログ的ターンテイク性は、これらのモデルによって完全には活用されない。 これらの制限を探索することで、ダイアログに関する高レベル情報をよりよくキャプチャできるアーキテクチャとトレーニング方法に関するさらなる研究の必要性を強調します。

The predominant approach to open-domain dialog generation relies on end-to-end training of neural models on chat datasets. However, this approach provides little insight as to what these models learn (or do not learn) about engaging in dialog. In this study, we analyze the internal representations learned by neural open-domain dialog systems and evaluate the quality of these representations for learning basic conversational skills. Our results suggest that standard open-domain dialog systems struggle with answering questions, inferring contradiction, and determining the topic of conversation, among other tasks. We also find that the dyadic, turn-taking nature of dialog is not fully leveraged by these models. By exploring these limitations, we highlight the need for additional research into architectures and training methods that can better capture high-level information about dialog.
翻訳日:2022-11-24 07:12:33 公開日:2020-06-07
# 共に成長する:n-Best Multi-Checkpoint Machine Translationによる人間の言語学習のモデル化

Growing Together: Modeling Human Language Learning With n-Best Multi-Checkpoint Machine Translation ( http://arxiv.org/abs/2006.04050v1 )

ライセンス: Link先を確認
El Moatez Billah Nagoudi, Muhammad Abdul-Mageed, Hasan Cavusoglu(参考訳) 本稿では,言語教育のための同時翻訳とパラフレーズに関する2020年のDuolingo Shared Taskへの提出について述べる(Mayhew et al., 2020)。 我々は、MTモデルを様々な訓練段階(チェックポイント)において、異なるレベルの人間の学習者とみなす。 したがって,同一モデルからの複数チェックポイントのアンサンブルを用いて,多様な流束レベルを持つ翻訳シーケンスを生成する。 各チェックポイントから、最良のモデルとして、ビーム幅=100のn-Best配列(n=10)をサンプリングする。 我々は、公式の英語からポルトガル語の共有タスクテストデータへの6つのチェックポイントモデルアンサンブルで37.57マクロF1を達成し、Amazonの21.30マクロF1のベースライン翻訳システムより優れ、最終的に直感的な手法の有用性を実証した。

We describe our submission to the 2020 Duolingo Shared Task on Simultaneous Translation And Paraphrase for Language Education (STAPLE) (Mayhew et al., 2020). We view MT models at various training stages (i.e., checkpoints) as human learners at different levels. Hence, we employ an ensemble of multi-checkpoints from the same model to generate translation sequences with various levels of fluency. From each checkpoint, for our best model, we sample n-Best sequences (n=10) with a beam width =100. We achieve 37.57 macro F1 with a 6 checkpoint model ensemble on the official English to Portuguese shared task test data, outperforming a baseline Amazon translation system of 21.30 macro F1 and ultimately demonstrating the utility of our intuitive method.
翻訳日:2022-11-24 07:11:52 公開日:2020-06-07
# サプライチェーンにおける多製品多ノード在庫管理のための強化学習

Reinforcement Learning for Multi-Product Multi-Node Inventory Management in Supply Chains ( http://arxiv.org/abs/2006.04037v1 )

ライセンス: Link先を確認
Nazneen N Sultana, Hardik Meisheri, Vinita Baniwal, Somjit Nath, Balaraman Ravindran, Harshad Khadilkar(参考訳) 本稿では,サプライチェーンにおける多製品在庫管理への強化学習(RL)の適用について述べる。 問題の説明と解決策はどちらも現実世界のビジネスソリューションから適応しています。 サプライチェーン文学におけるこの問題の目新しさは (i)共有容量を有する多数の製品(50~1000)の同時在庫管理について検討する。 (ii)3店舗の倉庫からなる多ノードサプライチェーンを考える。 (三)倉庫、店舗及び倉庫から店舗への輸送は、容量が有限である。 (四 倉庫及び店舗の補充は、異なる時間規模で、かつ、現実的なタイムラグで行われ、 (v)店舗での商品の需要は確率的である。 本稿では,並列化意思決定に使用可能なマルチエージェント(階層的)強化学習フレームワークにおける新しい定式化について述べる。 実験の結果,提案手法は製品販売の最大化と商品の無駄を最小化する多目的報酬を処理可能であることが示された。

This paper describes the application of reinforcement learning (RL) to multi-product inventory management in supply chains. The problem description and solution are both adapted from a real-world business solution. The novelty of this problem with respect to supply chain literature is (i) we consider concurrent inventory management of a large number (50 to 1000) of products with shared capacity, (ii) we consider a multi-node supply chain consisting of a warehouse which supplies three stores, (iii) the warehouse, stores, and transportation from warehouse to stores have finite capacities, (iv) warehouse and store replenishment happen at different time scales and with realistic time lags, and (v) demand for products at the stores is stochastic. We describe a novel formulation in a multi-agent (hierarchical) reinforcement learning framework that can be used for parallelised decision-making, and use the advantage actor critic (A2C) algorithm with quantised action spaces to solve the problem. Experiments show that the proposed approach is able to handle a multi-objective reward comprised of maximising product sales and minimising wastage of perishable products.
翻訳日:2022-11-24 07:11:17 公開日:2020-06-07
# 強化学習における人間不合理性の意義

Implications of Human Irrationality for Reinforcement Learning ( http://arxiv.org/abs/2006.04072v1 )

ライセンス: Link先を確認
Haiyang Chen, Hyung Jin Chang, Andrew Howes(参考訳) 行動科学における最近の研究は、人間の意思決定は不合理であり、最適であり、偏見の対象となるという長年の信念を覆し始めている。 これは、人間による意思決定が、機械学習の問題がどのように定義されているかを制限するための、より優れたアイデアの源である可能性を示唆している。 ある有望なアイデアは、選択コンテキストの明らかに無関係な側面に依存する人間の意思決定に関するものである。 以前の研究では、選択したコンテキストを考慮に入れ、リレーショナルな観察を行うことで、期待する価値を最大化できることが示されている。 他の研究は、部分的に観察可能なマルコフ決定プロセス(pomdps)が人間に似た決定問題を定式化する有用な方法であることを示している。 本稿では,文脈選択タスクのための新しいpomdpモデルを提案し,明らかな不合理性にもかかわらず,強化学習者が人間の意思決定方法を活用することができることを示す。 人間の不合理性は、AIアーキテクチャや機械学習手法の設計を改善するための、生産的なインスピレーション源となるかもしれない。

Recent work in the behavioural sciences has begun to overturn the long-held belief that human decision making is irrational, suboptimal and subject to biases. This turn to the rational suggests that human decision making may be a better source of ideas for constraining how machine learning problems are defined than would otherwise be the case. One promising idea concerns human decision making that is dependent on apparently irrelevant aspects of the choice context. Previous work has shown that by taking into account choice context and making relational observations, people can maximize expected value. Other work has shown that Partially observable Markov decision processes (POMDPs) are a useful way to formulate human-like decision problems. Here, we propose a novel POMDP model for contextual choice tasks and show that, despite the apparent irrationalities, a reinforcement learner can take advantage of the way that humans make decisions. We suggest that human irrationalities may offer a productive source of inspiration for improving the design of AI architectures and machine learning methods.
翻訳日:2022-11-24 07:11:00 公開日:2020-06-07
# マトリックスとテンソルファクトリゼーションを用いた効率的なオートMLパイプライン探索

Efficient AutoML Pipeline Search with Matrix and Tensor Factorization ( http://arxiv.org/abs/2006.04216v1 )

ライセンス: Link先を確認
Chengrun Yang, Jicong Fan, Ziyang Wu, Madeleine Udell(参考訳) 新たなデータセットで優れた教師付き学習モデルを求めるデータサイエンティストには、データの事前処理、機能の選択、おそらくは次元の削減、推定アルゴリズムの選択、パイプラインコンポーネント毎のハイパーパラメータの選択など、多くの選択肢がある。 新しいパイプラインコンポーネントによって、選択肢の数の組合せが爆発する! 本研究では,この課題に対処するために,教師付き学習パイプラインを設計する自動システムであるAutoMLシステムを設計する。 本システムは,合成パイプライン探索空間をモデル化するための代理モデルとして行列とテンソル分解を用いる。 これらのモデルに基づき,新しいデータセットに関する情報を効率的に収集する,欲求実験設計プロトコルを開発した。 実世界の分類問題に対する大規模なコーパス実験により,本手法の有効性が示された。

Data scientists seeking a good supervised learning model on a new dataset have many choices to make: they must preprocess the data, select features, possibly reduce the dimension, select an estimation algorithm, and choose hyperparameters for each of these pipeline components. With new pipeline components comes a combinatorial explosion in the number of choices! In this work, we design a new AutoML system to address this challenge: an automated system to design a supervised learning pipeline. Our system uses matrix and tensor factorization as surrogate models to model the combinatorial pipeline search space. Under these models, we develop greedy experiment design protocols to efficiently gather information about a new dataset. Experiments on large corpora of real-world classification problems demonstrate the effectiveness of our approach.
翻訳日:2022-11-24 07:10:42 公開日:2020-06-07