このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200422となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 衝突モデルにおける情報スクランブル Information scrambling in a collision model ( http://arxiv.org/abs/2002.04883v2 ) ライセンス: Link先を確認 | Yan Li, Xingli Li, and Jiasen Jin | (参考訳) 多体系における情報は、量子カオス力学、複雑性、重力と密接に関連している。
本稿では,全光学系における情報ダイナミクスをシミュレートする衝突モデルを提案する。
我々のモデルでは、情報は当初メモリに局所化され、多体相互作用と散逸の複合作用の下で進化する。
記憶粒子と環境粒子が互いに垂直な2方向に沿って交互に絞り込まれている場合,情報をスクランブル化することが判明した。
さらに、相互作用強度の障害や不完全性は、情報の流れを環境に流すのを防ぎ、記憶を揺るがす情報をもたらす傾向がある。
メモリ内の相関関係の空間分布を解析する。
本提案は,現在の実験手法で実現可能である。 The information scrambling in many-body systems is closely related to quantum chaotic dynamics, complexity, and gravity. Here we propose a collision model to simulate the information dynamics in an all-optical system. In our model the information is initially localized in the memory and evolves under the combined actions of many-body interactions and dissipation. We find that the information is scrambled if the memory and environmental particles are alternatively squeezed along two directions which are perpendicular to each other. Moreover, the disorder and imperfection of the interaction strength tend to prevent the information flow away to the environment and lead to the information scrambling in the memory. We analyze the spatial distributions of the correlations in the memory. Our proposal is possible to realize with current experimental techniques. | 翻訳日:2023-06-03 21:30:38 公開日:2020-04-22 |
# Berezin-Toeplitz量子化と最小非シャープ性原理 Berezin-Toeplitz quantization and the least unsharpness principle ( http://arxiv.org/abs/2003.10345v2 ) ライセンス: Link先を確認 | Louis Ioos, David Kazhdan and Leonid Polterovich | (参考訳) シンプレクティック多様体上の互換性のある概複素構造が最適量子化に対応することを示す。 We show that compatible almost-complex structures on symplectic manifolds correspond to optimal quantizations. | 翻訳日:2023-05-28 07:35:41 公開日:2020-04-22 |
# 量子重力の証人としての粒子検出器 Particle detectors as witnesses for quantum gravity ( http://arxiv.org/abs/2004.00724v2 ) ライセンス: Link先を確認 | R\'emi Faure, T. Rick Perche, Bruno de S.L. Torres | (参考訳) ラグランジュの定式化から線形化重力場と非相対論的量子系の結合モデルを提案する。
この結合は、量子場と相互作用するウンルー・デウィット検出器モデルによってよく近似された光-物質相互作用モデルに強く似ている。
次に、このモデルを線形化された量子重力に適用し、重力場の量子特性を原理的に探究できる検出器ベースの設定を提案する。 We present a model for the coupling of non-relativistic quantum systems with a linearized gravitational field from a Lagrangian formulation. The coupling strongly resembles the light-matter interaction models that are known to be well approximated by the Unruh-DeWitt detector model for interactions with quantum fields. We then apply our model to linearized quantum gravity, which allows us to propose a detector based setup that can in principle probe the quantum nature of the gravitational field. | 翻訳日:2023-05-27 05:22:54 公開日:2020-04-22 |
# 連続体の束縛状態は最小長の影響下で普遍的である Bound states in the continuum are universal under the effect of minimal length ( http://arxiv.org/abs/2004.06865v2 ) ライセンス: Link先を確認 | Zhang Xiao, Yang Bo, Wei Chaozhen, and Luo Maokang | (参考訳) 連続体(bics)の束縛状態は一般に異常な現象と見なされる。
本研究では,BICの発見に使用できる最小長の存在下での粒子境界状態の空間構造を解析する手法を提案する。
BICは最小長の影響下での普遍現象であることが示されている。
典型的なポテンシャルの例、すなわち無限ポテンシャル井戸、線形ポテンシャル、調和振動子、量子バウンサー、クーロンポテンシャルなどが、BICが普遍的であることを示すために提供される。
最初の3つの例の波動関数とエネルギーが提供される。
BICがシステムで容易に発見できるかどうかを判定する条件を得る。
この条件を用いることで、BICは普遍的な現象であるが、最小長の影響によって摂動される境界連続状態が観測できないため、多くの通常の環境では見つからないことが分かる。
結果は現在のBIC実験結果と一致している。
さらに,BICのメカニズムを明らかにする。
このメカニズムは、現在の研究が有界な離散状態が典型的であることを示す理由を説明しているが、BICは最小長が考慮されない特定の環境で常に見られる。 Bound states in the continuum (BICs) are generally considered unusual phenomena. In this work, we provide a method to analyze the spatial structure of particle's bound states in the presence of a minimal length, which can be used to find BICs. It is shown that the BICs are universal phenomena under the effect of the minimal length. Several examples of typical potentials, i.e., infinite potential well, linear potential, harmonic oscillator, quantum bouncer and Coulomb potential, et al, are provided to show the BICs are universal. The wave functions and energy of the first three examples are provided. A condition is obtained to determine whether the BICs can be readily found in systems. Using the condition, we find that although the BICs are universal phenomena, they are often hardly found in many ordinary environments since the bound continuous states perturbed by the effect of the minimal length are too weak to observe. The results are consistent with the current experimental results on BICs. In addition, we reveal a mechanism of the BICs. The mechanism explains why current research shows the bound discrete states are typical, whereas BICs are always found in certain particular environments when the minimal length is not considered. | 翻訳日:2023-05-23 11:39:10 公開日:2020-04-22 |
# 非ゼロ測度の量子状態の集合をマスキングする不可能性 Impossibility of masking a set of quantum states of nonzero measure ( http://arxiv.org/abs/2004.09667v2 ) ライセンス: Link先を確認 | Xiao-Bin Liang, Bo Li, Shao-Ming Fei and Heng Fan | (参考訳) 純状態に符号化された情報を二部分状態の相関に分配する等尺線形演算子に基づく量子情報マスキングについて検討する。
等尺線型作用素は純粋状態の任意の零測度集合を隠蔽することはできない。
マスク可能な集合の幾何学的特徴づけを示し、任意のマスク可能な集合がユークリッド空間の球円上になければならないことを示す。
秘密共有や量子暗号などの詳細な例と潜在的な応用について分析する。 We study the quantum information masking based on isometric linear operators that distribute the information encoded in pure states to the correlations in bipartite states. It is shown that a isometric linear operator can not mask any nonzero measure set of pure states. We present a geometric characterization of the maskable sets, and show that any maskable set must be on a spherical circle in certain Euclidean spaces. Detailed examples and potential applications in such as secret sharing and quantum cryptography are analyzed. | 翻訳日:2023-05-22 22:36:38 公開日:2020-04-22 |
# データ駆動アプローチによる多層ネットワーク型サービスエコシステムモデルの構築 A Data-driven Approach for Constructing Multilayer Network-based Service Ecosystem Models ( http://arxiv.org/abs/2004.10383v1 ) ライセンス: Link先を確認 | Mingyi Liu, Zhiying Tu, Xiaofei Xu, Zhongjie Wang | (参考訳) サービスはインターネットと現実世界の両方で飛躍的に繁栄している。
さらに、トランスバウンダリーなビジネスコラボレーションを促進するために、サービスはより相互接続され、顧客に明確な新しい価値を創造し、提供するようになりました。
様々なサービスエコシステムが研究と実践の両方に焦点を合わせています。
しかし、広く認知されているサービスエコシステムモデルとそのようなモデルを構築するための十分なデータがないため、サービスエコシステムに関する既存の研究は非常に狭い範囲に限られており、サービスエコシステムの設計、最適化、進化を効果的に導くことはできない。
本稿では,利害関係者,チャネル,機能的および非機能的特徴,ドメイン,特にそれらの間の構造的および進化的関係を含む,さまざまなサービス関連要素をカバーする多層ネットワークベースのサービスエコシステムモデルを提案する。
サービスエコシステムの進化のトリガーを説明するために"イベント"が導入される。
本稿では,メディアニュースや外部データソースからMSEMを構築するためのデータ駆動型アプローチを提案する。
最先端モデルとの質的な比較から、MSEMはサービスエコシステムにおけるきめ細かい要素/関係のカバレッジ度が高く、高い解釈可能性のためのよりリッチなセマンティクスを持っていることが分かる。
実ニュースコーパスで行った実験では,他のアプローチと比較して,低コストで高効率な実世界のサービスエコシステムのための大規模モデルを構築することが可能であった。 Services are flourishing drastically both on the Internet and in the real world. Additionally, services have become much more interconnected to facilitate transboundary business collaboration to create and deliver distinct new values to customers. Various service ecosystems have become a focus in both research and practice. However, due to the lack of widely recognized service ecosystem models and sufficient data for constructing such models, existing studies on service ecosystems are limited to very narrow scope and cannot effectively guide the design, optimization, and evolution of service ecosystems. We propose a Multilayer network-based Service Ecosystem Model, which covers a variety of service-related elements, including stakeholders, channels, functional and nonfunctional features, and domains, and especially, structural and evolutionary relations between them. "Events" are introduced to describe the triggers of service ecosystem evolution. We propose a data-driven approach for constructing MSEM from public media news and external data sources. Qualitative comparison with state-of-the-art models shows that MSEM has a higher coverage degree of fine-grained elements/relations in service ecosystems and richer semantics for higher interpretability. Experiments conducted on real news corpora show that compared with other approaches, our approach can construct large-scale models for real-world service ecosystems with lower cost and higher efficiency. | 翻訳日:2023-05-22 11:14:45 公開日:2020-04-22 |
# 1次元における複素時間発展のための局所的エスタイム Locality estimes for complex time evolution in 1D ( http://arxiv.org/abs/2004.10516v1 ) ライセンス: Link先を確認 | David P\'erez-Garc\'ia and Antonio P\'erez-Hern\'andez | (参考訳) 短距離1次元量子系には熱相転移がないという一般的な考えである。
しかし、このことが厳密に証明されている唯一のケースは、有限範囲変換不変相互作用の特別な場合である。
この証明は、1969年にアラキが論文の中で、局所可観測体に適用されたとき、複素平面全体においてその特異性を証明できる時間進化作用素の局所性推定のパイオニアとして得られた。
しかし、今のところ、相互作用の指数的な尾を許容するならば、1次元熱相転移の停止の数学的証明はない。
この研究では、アラキの結果を指数的(またはより速い)尾を含むように拡張する。
我々の主な結果は、実線を囲む適切なストリップ上の局所観測可能な時間進化作用素の解析性である。
その結果、1次元の熱状態は、相互作用崩壊の指数と0に崩壊する閾値温度以上の相関の指数的崩壊を示し、アラキの結果を特定の場合として回復する。
しかし, この結果から, 1次元熱短距離相転移の可能性が明らかとなった。
本研究では,Cirac等によるホログラフィック双対性による2次元格子上の射影角対状態(PEPS)のスペクトルギャップ問題への本結果の適用を結論とする。 It is a generalized belief that there are no thermal phase transitions in short range 1D quantum systems. However, the only known case for which this is rigorously proven is for the particular case of finite range translational invariant interactions. The proof was obtained by Araki in his seminal paper of 1969 as a consequence of pioneering locality estimates for the time-evolution operator that allowed him to prove its analiticity on the whole complex plane, when applied to a local observable. However, as for now there is no mathematical proof of the abscence of 1D thermal phase transitions if one allows exponential tails in the interactions. In this work we extend Araki's result to include exponential (or faster) tails. Our main result is the analyticity of the time-evolution operator applied on a local observable on a suitable strip around the real line. As a consequence we obtain that thermal states in 1D exhibit exponential decay of correlations above a threshold temperature that decays to zero with the exponent of the interaction decay, recovering Araki's result as a particular case. Our result however still leaves open the possibility of 1D thermal short range phase transitions. We conclude with an application of our result to the spectral gap problem for Projected Entangled Pair States (PEPS) on 2D lattices, via the holographic duality due to Cirac et al. | 翻訳日:2023-05-22 11:09:34 公開日:2020-04-22 |
# 計測デバイス独立設定におけるビットコミットメントとオブリベイト転送について On Bit Commitment and Oblivious Transfer in Measurement-Device Independent settings ( http://arxiv.org/abs/2004.10515v1 ) ライセンス: Link先を確認 | Jeremy Ribeiro and Stephanie Wehner | (参考訳) 量子暗号において最も研究されているタスクの1つは、2つの中央暗号プリミティブであるBit Commitment(BC)とOblivious Transfer(OT)である。
本稿では,測定デバイス独立(MDI)設定におけるこれらのタスクのプロトコルを初めて提案し,そのセキュリティを解析する。
まず、当事者が完全な1つの光子源(ノイズや損失の存在下でも)にアクセスできると仮定し、次に、それらは不完全な1つの光子源しか持たないと仮定する。
最初のケースでは、BCとOTの両方のプロトコルを提案し、そのセキュリティをノイズ量子ストレージモデルで証明します。
興味深いことに、正直な当事者が完全な光子ソースにアクセスできない場合、BCは依然として可能であるが、OTのセキュアなプロトコルを得るのが"もっと難しい"ことを発見した。
すべてのセキュリティ分析は、有限ラウンドレジームで行われます。 Among the most studied tasks in Quantum Cryptography one can find Bit Commitment (BC) and Oblivious Transfer (OT), two central cryptographic primitives. In this paper we propose for the first time protocols for these tasks in the measurement-device independent (MDI) settings and analyze their security. We analyze two different cases: first we assume the parties have access to perfect single photon sources (but still in the presence of noise and losses), and second we assume that they only have imperfect single photon sources. In the first case we propose a protocol for both BC and OT and prove their security in the Noisy Quantum Storage model. Interestingly, in the case where honest parties do not have access to perfect single photon sources, we find that BC is still possible, but that it is "more difficult" to get a secure protocol for OT: We show that there is a whole class of protocols that cannot be secure. All our security analyses are done in the finite round regime. | 翻訳日:2023-05-22 11:09:10 公開日:2020-04-22 |
# OUTBREAK: 疾患監視のためのユーザフレンドリーなジオレファレンスオンラインツール OUTBREAK: A user-friendly georeferencing online tool for disease surveillance ( http://arxiv.org/abs/2004.10490v1 ) ライセンス: Link先を確認 | Ra\'ul Arias-Carrasco, Jeevan Giddaluru, Lucas E. Cardozo, Felipe Martins, Vinicius Maracaja-Coutinho, Helder I. Nakaya | (参考訳) 新型コロナウイルス(COVID-19)のパンデミックは、すでに10万人以上の犠牲者を報告しており、今後数カ月でさらに死者が出る可能性がある。
ケースの数と場所を追跡できるツールは、監視にとって重要であり、アウトブレイクを制御するための政策決定に役立ちます。
現在の監視Webベースのダッシュボードはプロプライエタリなプラットフォーム上で動作しており、コストが高く、特定の計算知識を必要とすることが多い。
疫学データを研究・可視化するための新しいツール(OUTBREAK)を提案する。
非専門的なユーザでも、最も便利にデータを入力でき、アウトブレイクをリアルタイムで追跡できる。
このツールは、保健当局が感染拡大の影響を最小化し介入するのをガイドし助ける可能性がある。
http://outbreak.sysbio.tools/で無料で利用できる。 The current COVID-19 pandemic has already claimed more than 100,000 victims and it will cause more deaths in the coming months. Tools that can track the number and locations of cases are critical for surveillance and can help in making policy decisions for controlling the outbreak. The current surveillance web-based dashboards run on proprietary platforms, which are often expensive and require specific computational knowledge. We present a new tool (OUTBREAK) for studying and visualizing epidemiological data. It permits even non-specialist users to input data most conveniently and track outbreaks in real-time. This tool has the potential to guide and help health authorities to intervene and minimize the effects of the outbreaks. It is freely available at http://outbreak.sysbio.tools/. | 翻訳日:2023-05-22 11:08:52 公開日:2020-04-22 |
# 量子触媒による離散変調連続可変測定デバイス非依存量子鍵分布の促進 Enhancing discrete-modulated continuous-variable measurement-device-independent quantum key distribution via quantum catalysis ( http://arxiv.org/abs/2004.10432v1 ) ライセンス: Link先を確認 | Wei Ye, Ying Guo, Yun Mao, Hai Zhong and Liyun Hu | (参考訳) 離散変調は、全てのサイドチャネル攻撃に対して独自の利点を持つが、さらなる性能向上に挑戦する測定デバイス非依存連続変数量子鍵分布(mdi-cvqkd)における伝送距離の不足を補うことができる。
本稿では、離散変調(DM)MDI-CVQKDの性能を達成可能な秘密鍵レートで向上し、最大伝送距離を延長するための量子触媒(QC)アプローチを提案する。
数値シミュレーションの結果, ゼロ光子触媒(ZPC)演算を含む離散変調を持つQCベースのMDI-CVQKDは, 元のDMプロトコルよりも高い秘密鍵レートが得られるだけでなく, 対応する最適分散の合理的増加にも寄与することがわかった。
極端非対称および対称の場合については、ZPCが関与するDM MDI-CVQKDシステムの秘密鍵レートと最大伝送距離を同じパラメータでさらに改善することができる。
このアプローチにより、システムは和解効率の低下を許容し、最先端技術による実践的実装を促進することができる。 The discrete modulation can make up for the shortage of transmission distance in measurement-device-independent continuous-variable quantum key distribution (MDI-CVQKD) that has an unique advantage against all side-channel attacks but also challenging for the further performance improvement. Here we suggest a quantum catalysis (QC) approach for enhancing the performance of the discrete-modulated (DM) MDI-CVQKD in terms of the achievable secret key rate and lengthening the maximal transmission distance. The numerical simulation results show that the QC-based MDI-CVQKD with discrete modulation that involves a zero-photon catalysis (ZPC) operation can not only obtain a higher secret key rate than the original DM protocol, but also contributes to the reasonable increase of the corresponding optimal variance. As for the extreme asymmetric and symmetric cases, the secret key rate and maximal transmission distance of the ZPC-involved DM MDI-CVQKD system can be further improved under the same parameters. This approach enables the system to tolerate lower reconciliation efficiency, which will promote the practical implementations with state-of-art technology. | 翻訳日:2023-05-22 11:07:18 公開日:2020-04-22 |
# 低エネルギーフォノンモードからの六方晶窒化ホウ素中の量子エミッタの機械的分離 Mechanical Decoupling of Quantum Emitters in Hexagonal Boron Nitride from Low-Energy Phonon Modes ( http://arxiv.org/abs/2004.10826v1 ) ライセンス: Link先を確認 | Michael Hoese, Prithvi Reddy, Andreas Dietrich, Michael K. Koch, Konstantin G. Fehler, Marcus W. Doherty, Alexander Kubanek | (参考訳) 六方晶窒化ホウ素 (hBN) の量子放出体は, 最近, 室温のフーリエ変態限界に従って均一な直線幅を持つことが報告された。
この異常な観察は、エミッターがhbnホスト物質の2つの平面の間にある場合に生じる、平面内フォノンモードからの分離にさかのぼる。
本研究では,機械的デカップリングの起源について検討する。
試料調製法の改良により,hbnにおける欠陥中心の大きな欠点であった背景の低減と70倍のスペクトル拡散の低減が可能となり,低フォノン周波数での電子フォノンスペクトル密度のギャップが明らかにされた。
このフォノンからの分離は室温で持続し、観測されたフーリエ変換の制限線を最大300Kまで説明する。
さらに, 双極子放出方向について検討し, 欠陥中心の面外歪みの主張を支持するhBNフレーク側の光子放出について検討した。
我々の研究は、フーリエ変換限界線を室温まで持続するために基礎となる物理学の深い理解の基礎を築いた。
さらに、hBNの多数の欠陥中心内で機械的に単離されたエミッタを識別する方法についても記述している。
したがって、室温でhBNの欠陥中心を持つ量子光学応用の道を開く。 Quantum emitters in hexagonal Boron Nitride (hBN) were recently reported to hol a homogeneous linewidth according to the Fourier-Transform limit up to room temperature. This unusual observation was traced back to decoupling from in-plane phonon modes which can arise if the emitter is located between two planes of the hBN host material. In this work, we investigate the origins for the mechanical decoupling. Improved sample preparation enabled a reduced background and a 70-fold decrease of spectral diffusion which was so far the major drawback of defect center in hBN and allowed us to reveal a gap in the electron-phonon spectral density for low phonon frequencies. This decoupling from phonons persists at room temperature and explains the observed Fourier Transform limited lines up to 300K. Furthermore, we investigate the dipole emission directionality and show a preferred photon emission through the side of the hBN flakes supporting the claim for an out-of-plane distortion of the defect center. Our work lays the foundation to a deeper understanding of the underlying physics for the persistence of Fourier-Transform limit lines up to room temperature. It furthermore provides a description on how to identify the mechanically isolated emitter within the large number of defect centers in hBN. Therefore, it paves the way for quantum optics applications with defect centers in hBN at room temperature. | 翻訳日:2023-05-22 10:59:21 公開日:2020-04-22 |
# 量子増幅励起発光顕微鏡 Quantum-enhanced stimulated emission microscopy ( http://arxiv.org/abs/2004.10733v1 ) ライセンス: Link先を確認 | Gil Triginer Garces, Helen M. Chrzanowski, Shakib Daryanoosh, Valerian Thiel, Anna L. Marchant, Raj B. Patel, Peter C. Humphreys, Animesh Datta and Ian A. Walmsley | (参考訳) 非線形光学顕微鏡技術は生体イメージングのツールとして成功している。
励起放出顕微鏡は、蛍光標識を必要とせずに非蛍光試料を撮像できるポンププローブ技術のごく一部に属する。
しかし、その感度は最終的にプローブビームの量子ゆらぎによって制限されていることが示されている。
本研究は, インテンシティ・スケーズ状態のプローブパルスを調製し, サブショットノイズ限定励起発光顕微鏡を試作し, 試作した。
この手法は、標準量子揺らぎを超える感度で検出可能な蛍光を持たない繊細な生物学的サンプルを撮像する方法を創っている。 Nonlinear optical microscopy techniques have emerged as a set of successful tools for biological imaging. Stimulated emission microscopy belongs to a small subset of pump-probe techniques which can image non-fluorescent samples without requiring fluorescent labelling. However, its sensitivity has been shown to be ultimately limited by the quantum fluctuations in the probe beam. We propose and experimentally implement sub-shot-noise limited stimulated emission microscopy by preparing the probe pulse in an intensity-squeezed state. This technique paves the way for imaging delicate biological samples that have no detectable fluorescence with sensitivity beyond standard quantum fluctuations. | 翻訳日:2023-05-22 10:58:55 公開日:2020-04-22 |
# 隠れディラック点を持つ位相絶縁体におけるマヨラナ境界状態 Majorana bound states in topological insulators with hidden Dirac points ( http://arxiv.org/abs/2004.10623v1 ) ライセンス: Link先を確認 | Ferdinand Schulz, Kirill Plekhanov, Daniel Loss and Jelena Klinovaja | (参考訳) スペクトルにディラック点が隠された2次元トポロジカル絶縁体において、磁気-超伝導界面でマヨラナ境界状態を生成することができるかという問題に対処する。
この場合、エッジ状態のディラック点(dirac point of edge states)はバルク状態のエネルギーであり、2つの種類の状態が強くハイブリダイゼーションされている。
本稿では,磁気ストライプの幅がエッジ状態の局在長に匹敵するように選択された場合,ディラック点が隠れた材料であっても,よく定義されたマヨラ境界状態が得られることを示す。
得られた位相位相図はスペクトル中のディラック点の位置を正確に抽出することを可能にする。
輸送実験におけるマヨラナ境界状態による標準ゼロバイアスピーク特性に加えて,電荷とスピン偏極の測定による将来の実験を補完することを提案する。
特に、観測可能な2つの符号が位相相転移で反転するので、位相超伝導の存在の独立なシグネチャとなることを実証する。
全ての特徴は実質的に強い障害に対して安定している。 We address the issue whether it is possible to generate Majorana bound states at the magnetic-superconducting interface in two-dimensional topological insulators with hidden Dirac points in the spectrum. In this case, the Dirac point of edge states is located at the energies of the bulk states such that two types of states are strongly hybridized. Here, we show that well-defined Majorana bound states can be obtained even in materials with hidden Dirac point provided that the width of the magnetic strip is chosen to be comparable with the localization length of the edge states. The obtained topological phase diagram allows one to extract precisely the position of the Dirac point in the spectrum. In addition to standard zero-bias peak features caused by Majorana bound states in transport experiments, we propose to supplement future experiments with measurements of charge and spin polarization. In particular, we demonstrate that both observables flip their signs at the topological phase transition, thus, providing an independent signature of the presence of topological superconductivity. All features remain stable against substantially strong disorder. | 翻訳日:2023-05-22 10:57:12 公開日:2020-04-22 |
# dichotomies (複数形 dichotomies または dichotomies または dichotomies) The semiring of dichotomies and asymptotic relative submajorization ( http://arxiv.org/abs/2004.10587v1 ) ライセンス: Link先を確認 | Christopher Perry, P\'eter Vrana, Albert H. Werner | (参考訳) 事前順序付き半環上のストラッセンの定理の一般化を用いて、量子二コトミーと非対称微分可能性の資源理論を研究する。
非正規化ディコトミー上で定義される相対的部分大乗化の漸近的変種は、テンソル積の下で乗算され、直和の下で加法される実値単トンによって特徴づけられる。
これらの強い制約により、全てのモノトンを分類し、明示的に記述することができ、r\'enyi divergences を挟んだ最適化として表されるレート公式に繋がる。
応用として、量子仮説テストにおける強い逆誤差指数の新しい導出を与える。 We study quantum dichotomies and the resource theory of asymmetric distinguishability using a generalization of Strassen's theorem on preordered semirings. We find that an asymptotic variant of relative submajorization, defined on unnormalized dichotomies, is characterized by real-valued monotones that are multiplicative under the tensor product and additive under the direct sum. These strong constraints allow us to classify and explicitly describe all such monotones, leading to a rate formula expressed as an optimization involving sandwiched R\'enyi divergences. As an application we give a new derivation of the strong converse error exponent in quantum hypothesis testing. | 翻訳日:2023-05-22 10:56:57 公開日:2020-04-22 |
# 自由空間大気チャネル上の連続可変量子通信におけるビームキャッシングによる透過率変動の安定化 Stabilization of transmittance fluctuations caused by beam wandering in continuous-variable quantum communication over free-space atmospheric channels ( http://arxiv.org/abs/2004.10573v1 ) ライセンス: Link先を確認 | Vladyslav C. Usenko, Christian Peuntinger, Bettina Heim, Kevin G\"unthner, Ivan Derkach, Dominique Elser, Christoph Marquardt, Radim Filip, Gerd Leuchs | (参考訳) 乱流大気チャネルの透過性変動は、連続可変量子通信の適用性を制限する二次的過剰ノイズをもたらす。
このようなゆらぎは一般に受信開口部をビームがさまようことによって生じる。
本研究では,ビーム拡大による揺らぎの安定化の可能性について検討し,連続可変エンタングルメント共有と量子鍵分布に関して,このチャネル安定化を検証した。
本研究では, ビーム幅の異なる実自由空間大気チャネルの透過率測定を行い, 全体の損失を増大させることで, 透過率の変動を減少させることを示す。
また, 絡み合った状態を共有する可能性や, ビーム幅の異なる乱流大気チャネル上でのセキュアな量子鍵分布を確立する可能性についても理論的に検討した。
本稿では,連続可変量子通信におけるビーム展開によるチャネル安定化の正の効果と,秘密鍵レートや共有絡み合い量を最大化するための最適化の必要性を示す。
ビームのキャラクタリゼーションに基づくソースと検出器の適応制御を自律的に必要とせず、ビーム膨張の方法は、変動する自由空間の大気チャネルを安定化させる他の方法と組み合わせることができる。 Transmittance fluctuations in turbulent atmospheric channels result in quadrature excess noise which limits applicability of continuous-variable quantum communication. Such fluctuations are commonly caused by beam wandering around the receiving aperture. We study the possibility to stabilize the fluctuations by expanding the beam, and test this channel stabilization in regard of continuous-variable entanglement sharing and quantum key distribution. We perform transmittance measurements of a real free-space atmospheric channel for different beam widths and show that the beam expansion reduces the fluctuations of the channel transmittance by the cost of an increased overall loss. We also theoretically study the possibility to share an entangled state or to establish secure quantum key distribution over the turbulent atmospheric channels with varying beam widths. We show the positive effect of channel stabilization by beam expansion on continuous-variable quantum communication as well as the necessity to optimize the method in order to maximize the secret key rate or the amount of shared entanglement. Being autonomous and not requiring adaptive control of the source and detectors based on characterization of beam wandering, the method of beam expansion can be also combined with other methods aiming at stabilizing the fluctuating free-space atmospheric channels. | 翻訳日:2023-05-22 10:56:44 公開日:2020-04-22 |
# 2光子干渉イメージング Two-photon interference imaging ( http://arxiv.org/abs/2004.11257v1 ) ライセンス: Link先を確認 | Deyang Duan and Yunjie Xia | (参考訳) 本稿では,熱光源を用いた2光子干渉機構に基づく2光子干渉イメージングを提案する。
理論的および実験的結果は、2光子干渉イメージングの撮像品質と撮像速度が従来の光学イメージングと同等であり、従来の量子イメージング(ghost imaging)よりもはるかに優れていることを示している。
さらに、2光子干渉イメージングは、大気乱流やその他の厳しい光学環境の影響を効果的に克服することができる。
物理的本質は大気乱流に対する2光子干渉機構の阻害である。 In this article, we propose the two-photon interference imaging based on two-photon interference mechanism with thermal light source. Theoretical and experimental results show that the imaging quality and imaging speed of two-photon interference imaging are comparable to that of classical optical imaging, and much better than that of conventional quantum imaging (ghost imaging). Furthermore, Two-photon interference imaging can effectively overcome the effect of atmospheric turbulence and other harsh optical environments. The physical essence is the inhibition of two-photon interference mechanism on atmospheric turbulence. | 翻訳日:2023-05-22 10:49:16 公開日:2020-04-22 |
# 2面半透明鏡近傍における原子双極子の自然放出 Spontaneous emission of atomic dipoles near two-sided semi-transparent mirrors ( http://arxiv.org/abs/2004.10897v1 ) ライセンス: Link先を確認 | Benjamin Dawson, Nicholas Furtak-Wells, Thomas Mann, Gin Jose, Almut Beige | (参考訳) 光界面近くの原子場相互作用は、量子技術に幅広い応用がある。
そこで本稿では,二面半透明鏡の存在下での原子双極子の自発的放出について再検討する。
まず,半透過ミラー近傍の量子化された電磁界の主な特性について考察する。
そこで我々は,ここで検討する実験的な設定を類似した自由空間シナリオにマッピングする量子ミラー画像検出手法を提案する。
我々は、電磁場の状態の局所密度は、ミラー面の両側の反射率に依存することを強調する。
したがって、半透明ミラーの前にある原子双極子の自発的崩壊速度が両方の反射率に依存するのも驚きではない。
ここで説明する効果は、比較的短い原子ミラー距離しか持たないが、新しいフォトニクスデバイスの設計に役立つ。 Atom-field interactions near optical interfaces have a wide range of applications in quantum technology. Motivated by this, this paper revisits the spontaneous emission of atomic dipoles in the presence of a two sided semi-transparent mirror. First we review the main properties of the quantised electromagnetic field near a semi-transparent mirror. To do so, we employ a quantum mirror image detector method which maps the experimental setup which we consider here onto analogous free space scenarios. We emphasise that the local density of states of the electromagnetic field depends on the reflection rates of both sides of the mirror surface. Hence it is not surprising that also the spontaneous decay rate of an atomic dipole in front of a semi-transparent mirror depends on both reflectance rates. Although the effect which we describe here only holds for relatively short atom-mirror distances, it can aid the design of novel photonics devices. | 翻訳日:2023-05-22 10:48:55 公開日:2020-04-22 |
# フォトニック時間モードの遠隔投影状態 Remotely projecting states of photonic temporal modes ( http://arxiv.org/abs/2004.10890v1 ) ライセンス: Link先を確認 | Vahid Ansari, John M. Donohue, Benjamin Brecht, and Christine Silberhorn | (参考訳) 2光子時間周波数の絡み合いは、量子情報の貴重な資源である。
しかし、超短パルス単一光子の波束の解消は困難である。
本稿では, 非線形導波路におけるパラメトリックダウン変換(pdc)と量子パルスゲート(qpg)を用いて, 単一光子状態のリモートスペクトル形状を示し, 時間周波数領域における2光子量子相関のコヒーレンス特性を調べる。
PDC音源の共振スペクトル振幅関数を調整することにより、生成した光子対間の時間モード構造を制御し、時間周波数モード重畳範囲の遠隔状態投影を示す。 Two-photon time-frequency entanglement is a valuable resource in quantum information. Resolving the wavepacket of ultrashort pulsed single-photons, however, is a challenge. Here, we demonstrate remote spectral shaping of single photon states and probe the coherence properties of two-photon quantum correlations in the time-frequency domain, using engineered parametric down-conversion (PDC) and a quantum pulse gate (QPG) in nonlinear waveguides. Through tailoring the joint spectral amplitude function of our PDC source we control the temporal mode structure between the generated photon pairs and show remote state-projections over a range of time-frequency mode superpositions. | 翻訳日:2023-05-22 10:48:36 公開日:2020-04-22 |
# 確率的重力摂動のスカラー物質に対する脱コヒーレンス効果とその干渉検出の可能性について On the decoherence effect of a stochastic gravitational perturbation on scalar matter and the possibility of its interferometric detection ( http://arxiv.org/abs/1912.12732v2 ) ライセンス: Link先を確認 | Lorenzo Asprea, Angelo Bassi, Hendrik Ulbricht and Giulio Gasbarri | (参考訳) 本稿では,外部弱・確率的重力場と相互作用するスカラーボソニック粒子の量子力学に関する一般マスター方程式を提案する。
力学は運動量だけでなく位置のデコヒーレンスを予測する。
本稿では,主方程式が文献に現れる結果をどのように再現するかを,適切な限界を取ることによって示す。
我々は,物質波実験に適用し,重力デコヒーレンスの大きさを決定するための実用的な公式を提供する。
私たちはこれを標準的な実験的なデコヒーレンスソースと比較する。 We present a general master equation for the quantum dynamics of a scalar bosonic particle interacting with an external weak and stochastic gravitational field. The dynamics predicts decoherence in position as well as in momentum. We show how the master equation reproduces the results present in the literature by taking appropriate limits, thus explaining the apparent contradiction in their dynamical description. We apply our model to a matter wave experiment, providing a practical formula for determining of the magnitude of gravitational decoherence. We compare it with the standard experimental sources of decoherence. | 翻訳日:2023-01-17 08:11:40 公開日:2020-04-22 |
# 深層学習による作物被害評価のための物体検出法の比較 Comparison of object detection methods for crop damage assessment using deep learning ( http://arxiv.org/abs/1912.13199v3 ) ライセンス: Link先を確認 | Ali HamidiSepehr, Seyed Vahid Mirnezami, Jason K. Ward | (参考訳) 厳しい気象イベントは農夫に大きな損失をもたらす可能性がある。
被害の所在と重大さに関する詳細な情報は、農家、保険会社、災害対応機関が賢明な被害後判断を行うのに役立つだろう。
本研究の目的は、コンピュータビジョンと深層学習技術を用いて、空中画像から損傷した作物の面積を検知する概念実証である。
特定の目的は、既存のオブジェクト検出アルゴリズムを比較して、作物の損傷検出に最適なものを決定することだった。
トウモロコシ(トウモロコシ)生産に共通する作物被害の2つのモードをシミュレートした。
シミュレーションによる損傷は、トレーニングと分析データセットの作成に使用された。
RGBカメラを搭載した無人航空システム(UAS)が画像取得に使用された。
3つの人気の物体検出器(Faster R-CNN, YOLOv2, RetinaNet)がフィールド内の損傷領域を検出する能力について評価された。
平均精度は物体検出器の比較に用いられた。
YOLOv2とRetinaNetは、複数の後期成長段階にわたって作物の損傷を検出することができた。
高速なr-cnnは、他の2つの先進的な検出器ほど成功しなかった。
後の成長段階における作物の損傷の検出は、全ての試験対象検出器にとってより困難であった。
シミュレーションされた損傷プロットの雑草圧力とターゲット密度の増加は、さらなる複雑さを増した。 Severe weather events can cause large financial losses to farmers. Detailed information on the location and severity of damage will assist farmers, insurance companies, and disaster response agencies in making wise post-damage decisions. The goal of this study was a proof-of-concept to detect damaged crop areas from aerial imagery using computer vision and deep learning techniques. A specific objective was to compare existing object detection algorithms to determine which was best suited for crop damage detection. Two modes of crop damage common in maize (corn) production were simulated: stalk lodging at the lowest ear and stalk lodging at ground level. Simulated damage was used to create a training and analysis data set. An unmanned aerial system (UAS) equipped with a RGB camera was used for image acquisition. Three popular object detectors (Faster R-CNN, YOLOv2, and RetinaNet) were assessed for their ability to detect damaged regions in a field. Average precision was used to compare object detectors. YOLOv2 and RetinaNet were able to detect crop damage across multiple late-season growth stages. Faster R-CNN was not successful as the other two advanced detectors. Detecting crop damage at later growth stages was more difficult for all tested object detectors. Weed pressure in simulated damage plots and increased target density added additional complexity. | 翻訳日:2023-01-16 20:43:21 公開日:2020-04-22 |
# 材料接合部における黒と白の穴 Black and White Holes at Material Junctions ( http://arxiv.org/abs/2001.02625v2 ) ライセンス: Link先を確認 | Yaron Kedem, Emil J. Bergholtz and Frank Wilczek | (参考訳) II型ワイル半金属の電子は、内部から見たブラックホールの地平線と同様に、終端で完全に反射する挙動をサポートする一方向の伝播を示す。
I型とII型の接合は、ブラックホールの地平線に近いものと同じ方程式をもたらすが、我々が示唆する物理的含意は、その文脈において従来の予想とは全く異なる。
時間反転した「ホワイトホール」の構成も物理的にアクセス可能である。 Electrons in Type II Weyl semimetals display one-way propagation, which supports totally reflecting behavior at an endpoint, as one has for black hole horizons viewed from the inside. Junctions of Type I and Type II lead to equations identical to what one has near black hole horizons, but the physical implications, we suggest, are quite different from expectations which are conventional in that context. The time-reversed, "white hole" configuration is also physically accessible. | 翻訳日:2023-01-13 13:14:48 公開日:2020-04-22 |
# 確率的プログラミングと制御における保守性低減のためのカーネル平均埋め込み手法 A Kernel Mean Embedding Approach to Reducing Conservativeness in Stochastic Programming and Control ( http://arxiv.org/abs/2001.10398v2 ) ライセンス: Link先を確認 | Jia-Jie Zhu, Moritz Diehl, Bernhard Sch\"olkopf | (参考訳) カーネルの平均埋め込み法をサンプルベース確率最適化と制御に適用する。
具体的には,サンプルシナリオを破棄する手段として,縮小セット展開法を用いる。
このような制約除去の効果は、最適性を改善し、保守性を低下させる。
これは分布距離規則化最適化問題を解くことで達成される。
我々は、この最適化定式化が理論上よく動機付けられ、計算可能であり、数値アルゴリズムで有効であることを示した。 We apply kernel mean embedding methods to sample-based stochastic optimization and control. Specifically, we use the reduced-set expansion method as a way to discard sampled scenarios. The effect of such constraint removal is improved optimality and decreased conservativeness. This is achieved by solving a distributional-distance-regularized optimization problem. We demonstrated this optimization formulation is well-motivated in theory, computationally tractable and effective in numerical algorithms. | 翻訳日:2023-01-06 03:07:26 公開日:2020-04-22 |
# 意味的特徴操作による敵攻撃の防御 Defending Adversarial Attacks via Semantic Feature Manipulation ( http://arxiv.org/abs/2002.02007v2 ) ライセンス: Link先を確認 | Shuo Wang, Tianle Chen, Surya Nepal, Carsten Rudolph, Marthie Grobler, Shangyu Chen | (参考訳) 機械学習モデルは敵の攻撃に対する脆弱性を示しており、より具体的には敵の例を誤分類している。
本稿では,一対一で攻撃非依存な特徴操作(fm)を防御し,解釈可能かつ効率的な手法で敵の事例を検出し,浄化する手法を提案する。
直感的には、通常の画像の分類結果は一般に、手書き桁の厚さの変化など、非重要な内在的特徴変化に耐性がある。
対照的に、摂動は伝達性に欠けるため、敵の例はそのような変化に敏感である。
特徴の操作を可能にするために、複合変数オートエンコーダを適用して、意味的な特徴を露呈する不連続な潜在コードを学ぶ。
潜在コードの変化と再構成から派生した形態変化に対する耐性は、疑わしい入力を検出するために使用される。
さらに、コンボベールが強化され、クラス共有特徴とクラス統一特徴の両方を考慮して、敵の例を良質に浄化する。
我々は, 検出の有効性と清められた事例の質を実証的に示す。
3つのデータセットを用いた実験により,FM-Defense は,様々な最先端の敵攻撃によって生成される敵のサンプルを 100 % 近く検出できることがわかった。
通常の例の多様体を閉じた疑わしい例に対して、99\%以上の全体的な浄化精度を達成する。 Machine learning models have demonstrated vulnerability to adversarial attacks, more specifically misclassification of adversarial examples. In this paper, we propose a one-off and attack-agnostic Feature Manipulation (FM)-Defense to detect and purify adversarial examples in an interpretable and efficient manner. The intuition is that the classification result of a normal image is generally resistant to non-significant intrinsic feature changes, e.g., varying thickness of handwritten digits. In contrast, adversarial examples are sensitive to such changes since the perturbation lacks transferability. To enable manipulation of features, a combo-variational autoencoder is applied to learn disentangled latent codes that reveal semantic features. The resistance to classification change over the morphs, derived by varying and reconstructing latent codes, is used to detect suspicious inputs. Further, combo-VAE is enhanced to purify the adversarial examples with good quality by considering both class-shared and class-unique features. We empirically demonstrate the effectiveness of detection and the quality of purified instance. Our experiments on three datasets show that FM-Defense can detect nearly $100\%$ of adversarial examples produced by different state-of-the-art adversarial attacks. It achieves more than $99\%$ overall purification accuracy on the suspicious instances that close the manifold of normal examples. | 翻訳日:2023-01-04 08:48:23 公開日:2020-04-22 |
# 進化的サロゲート支援による効果的な強化学習 Effective Reinforcement Learning through Evolutionary Surrogate-Assisted Prescription ( http://arxiv.org/abs/2002.05368v2 ) ライセンス: Link先を確認 | Olivier Francon, Santiago Gonzalez, Babak Hodjat, Elliot Meyerson, Risto Miikkulainen, Xin Qiu, and Hormoz Shahrzad | (参考訳) 組織における意思決定に関する重要な歴史的データは、意思決定の問題、意思決定されたこと、成果がどの程度望ましいか、などで構成されています。
このデータを使用することで、代理モデルを学び、そのモデルで結果を最適化する意思決定戦略を進化させることができる。
本稿では、進化的サロゲート支援処方(ESP)と呼ばれる一般的なアプローチを紹介する。
代理は、例えばランダムな森林や勾配降下で訓練されたニューラルネットワークであり、その戦略は代理モデルの予測を最大化するために進化したニューラルネットワークである。
ESPはさらに、逐次意思決定タスクにまで拡張され、強化学習(RL)ベンチマークにおけるフレームワークの評価が可能となった。
ほとんどの評価はsurrogate上で行われるため、espはよりサンプル効率が高く、ばらつきが少なく、標準的なrlアプローチよりも後悔が少ない。
驚いたことに、surrogateとstrategy networkの両方が意思決定行動を規則化するので、ソリューションも優れている。
したがって、ESPは現実世界の問題における決定の最適化のための有望な基盤を形成する。 There is now significant historical data available on decision making in organizations, consisting of the decision problem, what decisions were made, and how desirable the outcomes were. Using this data, it is possible to learn a surrogate model, and with that model, evolve a decision strategy that optimizes the outcomes. This paper introduces a general such approach, called Evolutionary Surrogate-Assisted Prescription, or ESP. The surrogate is, for example, a random forest or a neural network trained with gradient descent, and the strategy is a neural network that is evolved to maximize the predictions of the surrogate model. ESP is further extended in this paper to sequential decision-making tasks, which makes it possible to evaluate the framework in reinforcement learning (RL) benchmarks. Because the majority of evaluations are done on the surrogate, ESP is more sample efficient, has lower variance, and lower regret than standard RL approaches. Surprisingly, its solutions are also better because both the surrogate and the strategy network regularize the decision-making behavior. ESP thus forms a promising foundation to decision optimization in real-world problems. | 翻訳日:2023-01-01 09:44:09 公開日:2020-04-22 |
# 極少数の測定値から量子系の多くの性質を予測する Predicting Many Properties of a Quantum System from Very Few Measurements ( http://arxiv.org/abs/2002.08953v2 ) ライセンス: Link先を確認 | Hsin-Yuan Huang, Richard Kueng, and John Preskill | (参考訳) 複雑な大規模量子システムの予測特性は、量子技術の発達に不可欠である。
量子状態の近似的な古典的記述を非常に少ない状態測定を用いて効率的に構築する手法を提案する。
古典的な影と呼ばれるこの記述は、多くの異なる特性を予測するのに使うことができる: Order $\log M$ Measurement suffice to correct $M$ different function of the state with high success probability。
測定数はシステムサイズとは独立であり、情報理論の下限を飽和させる。
さらに、測定が完了した後、予測対象特性を選択することができる。
我々は広範な数値実験で理論的な結果を支持する。
古典影を適用し,量子フィダリティ,絡み合いエントロピー,2点相関関数,局所可観測関数の期待値,多体局所ハミルトニアンのエネルギー分散を予測した。
数値的な結果は、既知の手法と比較して古典的な影の利点を浮き彫りにする。 Predicting properties of complex, large-scale quantum systems is essential for developing quantum technologies. We present an efficient method for constructing an approximate classical description of a quantum state using very few measurements of the state. This description, called a classical shadow, can be used to predict many different properties: order $\log M$ measurements suffice to accurately predict $M$ different functions of the state with high success probability. The number of measurements is independent of the system size, and saturates information-theoretic lower bounds. Moreover, target properties to predict can be selected after the measurements are completed. We support our theoretical findings with extensive numerical experiments. We apply classical shadows to predict quantum fidelities, entanglement entropies, two-point correlation functions, expectation values of local observables, and the energy variance of many-body local Hamiltonians. The numerical results highlight the advantages of classical shadows relative to previously known methods. | 翻訳日:2022-12-30 20:51:52 公開日:2020-04-22 |
# バイナリ整数型プログラミングによるストリートビュー画像からのfa\c{c}ade構築の高速化と正規化 Fast and Regularized Reconstruction of Building Fa\c{c}ades from Street-View Images using Binary Integer Programming ( http://arxiv.org/abs/2002.08549v3 ) ライセンス: Link先を確認 | Han Hu, Libin Wang, Mier Zhang, Yulin Ding, Qing Zhu | (参考訳) fa\c{c}ades 構築におけるプリミティブの規則的な配置は、都市環境の構造的再構築において重要である。
この問題を解決するために混合整数線形計画法が用いられたが、最先端の商用解法でも非常に時間がかかる。
この問題を軽減するため、この問題をバイナリ整数プログラミングにキャストし、実際の値パラメータの要件を省略し、より効率的に解決します。
まず、プリミティブのバウンディングボックスをリアルタイムにYOLOv3アーキテクチャを用いて検出する。
第二に、上隅の座標と境界箱の大きさは、幾何学的適合性、正則性、追加の制約を共同で考慮する二進整数計画最適化において自動的にクラスタ化される。
最後に、正規化境界ボックスは直接fa\c{c}ade再構成をインタラクティブなエンビローメントで導くために使うことができる。
実験により, プリミティブ抽出の精度は0.82以上であり, 以下の3次元再構成に十分であることがわかった。
提案されたアプローチは、以前のアプローチよりも10\%$から20\%$のランタイムしか必要とせず、バウンディングボックスの多様性を約20\%$から50\%$に削減する。 Regularized arrangement of primitives on building fa\c{c}ades to aligned locations and consistent sizes is important towards structured reconstruction of urban environment. Mixed integer linear programing was used to solve the problem, however, it is extreamly time consuming even for state-of-the-art commercial solvers. Aiming to alleviate this issue, we cast the problem into binary integer programming, which omits the requirements for real value parameters and is more efficient to be solved . Firstly, the bounding boxes of the primitives are detected using the YOLOv3 architecture in real-time. Secondly, the coordinates of the upper left corners and the sizes of the bounding boxes are automatically clustered in a binary integer programming optimization, which jointly considers the geometric fitness, regularity and additional constraints; this step does not require \emph{a priori} knowledge, such as the number of clusters or pre-defined grammars. Finally, the regularized bounding boxes can be directly used to guide the fa\c{c}ade reconstruction in an interactive envinronment. Experimental evaluations have revealed that the accuracies for the extraction of primitives are above 0.82, which is sufficient for the following 3D reconstruction. The proposed approach only takes about $ 10\% $ to $ 20\% $ of the runtime than previous approach and reduces the diversity of the bounding boxes to about $20\%$ to $50\%$. | 翻訳日:2022-12-30 07:43:15 公開日:2020-04-22 |
# imputer:インプテーションと動的プログラミングによるシーケンスモデリング Imputer: Sequence Modelling via Imputation and Dynamic Programming ( http://arxiv.org/abs/2002.08926v2 ) ライセンス: Link先を確認 | William Chan, Chitwan Saharia, Geoffrey Hinton, Mohammad Norouzi, Navdeep Jaitly | (参考訳) 本稿では,インプットによって繰り返し出力シーケンスを生成するニューラルシーケンスモデルImputerを提案する。
Imputerは反復生成モデルであり、入力トークンや出力トークンの数に依存しない一定の数の生成ステップしか必要としない。
インプターは、入力列と出力列の間の全ての可能なアライメント、および全ての可能な生成順序をほぼ限界化するように訓練することができる。
本稿では,ログ周縁確率の上限を低くする,扱いやすい動的プログラミング訓練アルゴリズムを提案する。
エンドツーエンド音声認識に適用すると、Imputerは従来の非自己回帰モデルよりも優れ、自己回帰モデルに対する競合的な結果が得られる。
LibriSpeechの他のテストでは、Imputerは11.1 WERを達成し、CTCは13.0 WER、Seq2seqは12.5 WERを上回った。 This paper presents the Imputer, a neural sequence model that generates output sequences iteratively via imputations. The Imputer is an iterative generative model, requiring only a constant number of generation steps independent of the number of input or output tokens. The Imputer can be trained to approximately marginalize over all possible alignments between the input and output sequences, and all possible generation orders. We present a tractable dynamic programming training algorithm, which yields a lower bound on the log marginal likelihood. When applied to end-to-end speech recognition, the Imputer outperforms prior non-autoregressive models and achieves competitive results to autoregressive models. On LibriSpeech test-other, the Imputer achieves 11.1 WER, outperforming CTC at 13.0 WER and seq2seq at 12.5 WER. | 翻訳日:2022-12-30 07:06:39 公開日:2020-04-22 |
# 非圧縮性層流に対する物理インフォームド深層学習 Physics-informed deep learning for incompressible laminar flows ( http://arxiv.org/abs/2002.10558v2 ) ライセンス: Link先を確認 | Chengping Rao, Hao Sun and Yang Liu | (参考訳) 物理インフォームド・ディープ・ラーニングは近年、計算物理学の問題を解決するために大きな関心を集めている。その基本的な概念は、信頼性のあるモデルをトレーニングするためのデータが少なくて済むように、ニューラルネットワークに物理法則を組み込むことである。
これは、物理方程式の残差を損失関数に組み込むことによって達成できる。
損失関数を最小化することで、ネットワークは解を近似することができる。
本稿では,流体力学のための物理インフォームドニューラルネットワーク(PINN)の混合変数スキームを提案し,それを用いてレイノルズ数が少なくて定常かつ過渡的な層流をシミュレートする。
パラメトリックな研究によれば、混合変数スキームはピントレーサビリティと解の精度を向上させることができる。
また,提案手法による予測速度と圧力場を基準数値解と比較した。
シミュレーションの結果,高精度な流体流動シミュレーションのためのPINNの可能性が示唆された。 Physics-informed deep learning has drawn tremendous interest in recent years to solve computational physics problems, whose basic concept is to embed physical laws to constrain/inform neural networks, with the need of less data for training a reliable model. This can be achieved by incorporating the residual of physics equations into the loss function. Through minimizing the loss function, the network could approximate the solution. In this paper, we propose a mixed-variable scheme of physics-informed neural network (PINN) for fluid dynamics and apply it to simulate steady and transient laminar flows at low Reynolds numbers. A parametric study indicates that the mixed-variable scheme can improve the PINN trainability and the solution accuracy. The predicted velocity and pressure fields by the proposed PINN approach are also compared with the reference numerical solutions. Simulation results demonstrate great potential of the proposed PINN for fluid flow simulation with a high accuracy. | 翻訳日:2022-12-29 04:46:37 公開日:2020-04-22 |
# 30歳になる: 帰納論理プログラミングの新しいアイデア Turning 30: New Ideas in Inductive Logic Programming ( http://arxiv.org/abs/2002.11002v4 ) ライセンス: Link先を確認 | Andrew Cropper, Sebastijan Duman\v{c}i\'c, and Stephen H. Muggleton | (参考訳) 最先端の機械学習に対する一般的な批判は、一般化の貧弱さ、解釈可能性の欠如、大量のトレーニングデータの必要性である。
我々は、データから論理プログラムを誘導する機械学習の一種であるインダクティブ・ロジック・プログラミング(ILP)の最近の研究を調査し、これらの制限に対処することを約束している。
我々は,いくつかの例から一般化した再帰的プログラムの学習方法,手作りの背景知識から \emph{learning} の背景知識へのシフト,解答セットプログラミングやニューラルネットワークなど,さまざまな技術の利用に焦点を当てた。
ILPが30に近づくにつれて、今後の研究の方向性についても論じる。 Common criticisms of state-of-the-art machine learning include poor generalisation, a lack of interpretability, and a need for large amounts of training data. We survey recent work in inductive logic programming (ILP), a form of machine learning that induces logic programs from data, which has shown promise at addressing these limitations. We focus on new methods for learning recursive programs that generalise from few examples, a shift from using hand-crafted background knowledge to \emph{learning} background knowledge, and the use of different technologies, notably answer set programming and neural networks. As ILP approaches 30, we also discuss directions for future research. | 翻訳日:2022-12-28 20:44:50 公開日:2020-04-22 |
# 合意による雑音ラベルの圧縮:協調正規化による共同学習法 Combating noisy labels by agreement: A joint training method with co-regularization ( http://arxiv.org/abs/2003.02752v3 ) ライセンス: Link先を確認 | Hongxin Wei, Lei Feng, Xiangyu Chen, Bo An | (参考訳) 雑音ラベルによるディープラーニングは、弱い教師付き学習において事実上難しい問題である。
最先端のアプローチである"decoupling"と"co-teaching+"は、"disagreement"戦略はノイズの多いラベルで学習する問題を緩和するために不可欠であると主張している。
本稿では,異なる視点から始めて,トレーニング中の2つのネットワークの多様性を減らすことを目的とした,jocorと呼ばれる堅牢な学習パラダイムを提案する。
具体的には、まず2つのネットワークを用いて、同一のミニバッチデータに基づいて予測を行い、トレーニング例ごとに協調正規化による共同損失を算出する。
次に,2つのネットワークのパラメータを同時に更新するために,小さな例を選択する。
合同損失によって訓練されたこれらの2つのネットワークは、共規則化の影響により、ますます類似している。
MNIST, CIFAR-10, CIFAR-100, CIFAR-100, Clothing1Mといったベンチマークデータセットの破損したデータに対する大規模な実験結果から, JoCoRはノイズラベルによる学習における最先端のアプローチよりも優れていることが示された。 Deep Learning with noisy labels is a practically challenging problem in weakly supervised learning. The state-of-the-art approaches "Decoupling" and "Co-teaching+" claim that the "disagreement" strategy is crucial for alleviating the problem of learning with noisy labels. In this paper, we start from a different perspective and propose a robust learning paradigm called JoCoR, which aims to reduce the diversity of two networks during training. Specifically, we first use two networks to make predictions on the same mini-batch data and calculate a joint loss with Co-Regularization for each training example. Then we select small-loss examples to update the parameters of both two networks simultaneously. Trained by the joint loss, these two networks would be more and more similar due to the effect of Co-Regularization. Extensive experimental results on corrupted data from benchmark datasets including MNIST, CIFAR-10, CIFAR-100 and Clothing1M demonstrate that JoCoR is superior to many state-of-the-art approaches for learning with noisy labels. | 翻訳日:2022-12-26 06:14:27 公開日:2020-04-22 |
# 視線追跡のためのシームズボックス適応ネットワーク Siamese Box Adaptive Network for Visual Tracking ( http://arxiv.org/abs/2003.06761v2 ) ライセンス: Link先を確認 | Zedu Chen, Bineng Zhong, Guorong Li, Shengping Zhang, Rongrong Ji | (参考訳) 既存のトラッカーの多くは、ターゲットのスケールとアスペクト比を正確に推定するために、マルチスケールの検索スキームか事前に定義されたアンカーボックスに頼っている。
残念ながら、彼らは通常退屈でヒューリスティックな構成を要求します。
この問題に対処するために,完全畳み込みネットワーク(FCN)の表現力を活用した,シンプルで効果的な視覚追跡フレームワーク(Siamese Box Adaptive Network, SiamBAN)を提案する。
siamban氏はビジュアルトラッキング問題を並列分類と回帰問題として捉えており、オブジェクトを直接分類し、結合ボックスを統一fcnでリグレッシブする。
no-prior boxデザインは、候補ボックスに関連するハイパーパラメータを回避し、siambanをより柔軟で汎用的にする。
VOT2018, VOT2019, OTB100, NFS, UAV123, LaSOTなどのビジュアルトラッキングベンチマークに関する大規模な実験では、SiamBANが最先端のパフォーマンスを達成し、40FPSで動作し、その有効性と効率を確認している。
コードはhttps://github.com/hqucv/siambanで入手できる。 Most of the existing trackers usually rely on either a multi-scale searching scheme or pre-defined anchor boxes to accurately estimate the scale and aspect ratio of a target. Unfortunately, they typically call for tedious and heuristic configurations. To address this issue, we propose a simple yet effective visual tracking framework (named Siamese Box Adaptive Network, SiamBAN) by exploiting the expressive power of the fully convolutional network (FCN). SiamBAN views the visual tracking problem as a parallel classification and regression problem, and thus directly classifies objects and regresses their bounding boxes in a unified FCN. The no-prior box design avoids hyper-parameters associated with the candidate boxes, making SiamBAN more flexible and general. Extensive experiments on visual tracking benchmarks including VOT2018, VOT2019, OTB100, NFS, UAV123, and LaSOT demonstrate that SiamBAN achieves state-of-the-art performance and runs at 40 FPS, confirming its effectiveness and efficiency. The code will be available at https://github.com/hqucv/siamban. | 翻訳日:2022-12-23 08:57:11 公開日:2020-04-22 |
# PanNukeデータセット拡張、インサイト、ベースライン PanNuke Dataset Extension, Insights and Baselines ( http://arxiv.org/abs/2003.10778v7 ) ライセンス: Link先を確認 | Jevgenij Gamper, Navid Alemi Koohbanani, Ksenija Benes, Simon Graham, Mostafa Jahanifar, Syed Ali Khurram, Ayesha Azam, Katherine Hewitt, Nasir Rajpoot | (参考訳) cpath(computational pathology, 計算病理学)の新たな分野は、がん組織スライドの全スライディング画像(wsis)における生のピクセルデータの量が多いことによる、深層学習(dl)法を医療に適用するための成熟した基盤である。
しかし、核レベルの詳細に依存したDLアルゴリズムが「臨床野」のデータに対処できることは必須であり、非常に難しい傾向にある。
我々は,最近リリースされたpannukeデータセットを,臨床上重要な5つのクラスに分類し,wsisの核の分割と分類の課題を解決した。
以前のパン・カンサー・データセットは、9つの異なる組織と21,000個の未ラベル核と24,000個以上のラベル付き核から構成されていた。
pannukeは19の異なる組織タイプで構成されており、半自動的な注釈と臨床病理学者によって品質管理されている。
提案するデータセットに適用した場合のセグメンテーションと分類モデルの性能について検討し,pannukeでトレーニングしたモデルの全体スライド画像への適用を示す。
実際のCPathアプリケーションに適用した場合、既存のDLツールの限界に対処するため、データセットに関する包括的な統計情報を提供し、推奨事項と研究の方向性を概説する。 The emerging area of computational pathology (CPath) is ripe ground for the application of deep learning (DL) methods to healthcare due to the sheer volume of raw pixel data in whole-slide images (WSIs) of cancerous tissue slides. However, it is imperative for the DL algorithms relying on nuclei-level details to be able to cope with data from `the clinical wild', which tends to be quite challenging. We study, and extend recently released PanNuke dataset consisting of ~200,000 nuclei categorized into 5 clinically important classes for the challenging tasks of segmenting and classifying nuclei in WSIs. Previous pan-cancer datasets consisted of only up to 9 different tissues and up to 21,000 unlabeled nuclei and just over 24,000 labeled nuclei with segmentation masks. PanNuke consists of 19 different tissue types that have been semi-automatically annotated and quality controlled by clinical pathologists, leading to a dataset with statistics similar to the clinical wild and with minimal selection bias. We study the performance of segmentation and classification models when applied to the proposed dataset and demonstrate the application of models trained on PanNuke to whole-slide images. We provide comprehensive statistics about the dataset and outline recommendations and research directions to address the limitations of existing DL tools when applied to real-world CPath applications. | 翻訳日:2022-12-20 09:44:28 公開日:2020-04-22 |
# 強化学習によるマルコフ決定過程におけるpctl仕様の統計的モデル検証 Statistically Model Checking PCTL Specifications on Markov Decision Processes via Reinforcement Learning ( http://arxiv.org/abs/2004.00273v2 ) ライセンス: Link先を確認 | Yu Wang, Nima Roohi, Matthew West, Mahesh Viswanathan, and Geir E. Dullerud | (参考訳) PCTL(Probabilistic Computation Tree Logic)は、確率的到達可能性や安全性などの制御目的を正式に指定するために頻繁に使用される。
本研究は,マルコフ決定過程(MDP)を統計的に検証し,例えば,ある目標状態に達する確率がしきい値より大きいような実行可能なポリシーが存在するかどうかを確認することに焦点を当てる。
我々は強化学習を用いてPCTL仕様に対するそのような実行可能なポリシーを探索し、その誤りを証明可能な保証付き統計モデル検査(SMC)手法を開発する。
具体的には、まず、上位信頼度(UCB)ベースのQラーニングを用いて、有界時間PCTL仕様のためのSMCアルゴリズムを設計し、PCTL仕様と否定を同時に確認することで、適切なトランケーション時間を特定することにより、このアルゴリズムを非有界時間仕様に拡張する。
最後に,本提案手法をケーススタディで評価する。 Probabilistic Computation Tree Logic (PCTL) is frequently used to formally specify control objectives such as probabilistic reachability and safety. In this work, we focus on model checking PCTL specifications statistically on Markov Decision Processes (MDPs) by sampling, e.g., checking whether there exists a feasible policy such that the probability of reaching certain goal states is greater than a threshold. We use reinforcement learning to search for such a feasible policy for PCTL specifications, and then develop a statistical model checking (SMC) method with provable guarantees on its error. Specifically, we first use upper-confidence-bound (UCB) based Q-learning to design an SMC algorithm for bounded-time PCTL specifications, and then extend this algorithm to unbounded-time specifications by identifying a proper truncation time by checking the PCTL specification and its negation at the same time. Finally, we evaluate the proposed method on case studies. | 翻訳日:2022-12-17 18:01:14 公開日:2020-04-22 |
# 外部微分可能なスタックを付加したリカレントネットワークを用いた長い文法列の認識 Recognizing Long Grammatical Sequences Using Recurrent Networks Augmented With An External Differentiable Stack ( http://arxiv.org/abs/2004.07623v2 ) ライセンス: Link先を確認 | Ankur Mali, Alexander Ororbia, Daniel Kifer, Clyde Lee Giles | (参考訳) リカレントニューラルネットワーク(RNN)は、シーケンスモデリング、生成、予測に広く使われているディープアーキテクチャである。
機械翻訳や音声認識などの応用は成功したが、ステートフルモデルにはいくつかの重大な欠点がある。
特に、RNNは、非常に長いシーケンスに対してあまり一般化せず、多くの重要な時間処理や時系列予測問題に適用性を制限する。
例えば、RNNは複雑な文脈自由言語(CFL)を認識するのに苦労し、トレーニングにおいて100%の精度に達することはなかった。
これらの欠点に対処する方法の1つは、スタックのような外部の異なるメモリ構造とRNNを結合することである。
しかし、先行研究における相異なる記憶は、CFLで広く研究されることも、トレーニングで見られるものよりも長いシーケンスで試験されることもない。
これらの研究は、連続的な微分可能なメモリ構造が複雑なCFLの一般化を損なうことを示しており、RNNは解釈しにくくなっている。
本稿では,メモリ拡張されたRNNを重要なアーキテクチャおよび状態更新機構で改善し,モデルが潜在状態と外部メモリとの適切なバランスをとることを確実にする。
改良されたRNNモデルは、より優れた一般化性能を示し、複雑な階層的文脈自由文法(CFG)によって生成される長い文字列を分類することができる。
我々は、dyck言語を含むcggsのモデルとpenn treebank言語モデリングタスクを評価し、これらのベンチマークで安定して堅牢なパフォーマンスを達成します。
さらに,我々のメモリ拡張ネットワークだけが,長さ160列までのメモリを長期間保持可能であることを示す。 Recurrent neural networks (RNNs) are a widely used deep architecture for sequence modeling, generation, and prediction. Despite success in applications such as machine translation and voice recognition, these stateful models have several critical shortcomings. Specifically, RNNs generalize poorly over very long sequences, which limits their applicability to many important temporal processing and time series forecasting problems. For example, RNNs struggle in recognizing complex context free languages (CFLs), never reaching 100% accuracy on training. One way to address these shortcomings is to couple an RNN with an external, differentiable memory structure, such as a stack. However, differentiable memories in prior work have neither been extensively studied on CFLs nor tested on sequences longer than those seen in training. The few efforts that have studied them have shown that continuous differentiable memory structures yield poor generalization for complex CFLs, making the RNN less interpretable. In this paper, we improve the memory-augmented RNN with important architectural and state updating mechanisms that ensure that the model learns to properly balance the use of its latent states with external memory. Our improved RNN models exhibit better generalization performance and are able to classify long strings generated by complex hierarchical context free grammars (CFGs). We evaluate our models on CGGs, including the Dyck languages, as well as on the Penn Treebank language modelling task, and achieve stable, robust performance across these benchmarks. Furthermore, we show that only our memory-augmented networks are capable of retaining memory for a longer duration up to strings of length 160. | 翻訳日:2022-12-16 22:45:18 公開日:2020-04-22 |
# Cuspカタストロフィモデルにおけるディープニューラルネットワーク Deep Neural Network in Cusp Catastrophe Model ( http://arxiv.org/abs/2004.02359v2 ) ライセンス: Link先を確認 | Ranadeep Daw, Zhuoqiong He | (参考訳) カタストロフ理論はもともと、入力の小さな変化から生じる行動の急変を示す力学系を研究するために提案された。
これらのモデルは、非線形動的モデルにおける急なジャンプの背後に合理的な説明を生み出すことができる。
さまざまなカタストロフィモデルの中で、Cusp Catastropheモデルは比較的単純なダイナミクスとリッチな応用領域のために最も注目を集めた。
応答の複雑な挙動のため、パラメータ空間は非常に非凸となり、生成パラメータを最適化するのが非常に困難になる。
これらの生成パラメータを解決する代わりに、モデルパラメータの生成を実際に解決することなく、cuspのカタストロフィーモデルのダイナミクスを学ぶために機械学習モデルをトレーニングする方法を実証した。
シミュレーション研究といくつかの有名なデータセットへの応用は、我々のアプローチを検証するために使用される。
私たちの知る限りでは、このようなニューラルネットワークベースのアプローチがcuspのカタストロフィーモデルに適用された最初の論文です。 Catastrophe theory was originally proposed to study dynamical systems that exhibit sudden shifts in behavior arising from small changes in input. These models can generate reasonable explanation behind abrupt jumps in nonlinear dynamic models. Among the different catastrophe models, the Cusp Catastrophe model attracted the most attention due to it's relatively simpler dynamics and rich domain of application. Due to the complex behavior of the response, the parameter space becomes highly non-convex and hence it becomes very hard to optimize to figure out the generating parameters. Instead of solving for these generating parameters, we demonstrated how a Machine learning model can be trained to learn the dynamics of the Cusp catastrophe models, without ever really solving for the generating model parameters. Simulation studies and application on a few famous datasets are used to validate our approach. To our knowledge, this is the first paper of such kind where a neural network based approach has been applied in Cusp Catastrophe model. | 翻訳日:2022-12-16 06:01:13 公開日:2020-04-22 |
# ランダム環境ゲーム,平均場ランゲヴィンシステム,ニューラルネットワーク Game on Random Environment, Mean-field Langevin System and Neural Networks ( http://arxiv.org/abs/2004.02457v2 ) ライセンス: Link先を確認 | Giovanni Conforti (CMAP), Anna Kazeykina (LMO), Zhenjie Ren (CEREMADE) | (参考訳) 本稿では,プレイヤーの戦略をランダム環境変数で結合した相対エントロピーによって規則化されたゲームの種類について検討する。
そのようなゲームの平衡の存在と特異性に加えて、対応する平均場ランゲヴィン系の限界法則が異なる設定でゲームの平衡に収束できることを証明する。
アプリケーションとして、動的ゲームは、時間軸を環境として扱う場合、ランダム環境上のゲームとして扱うことができる。
実際に,本研究の結果は,教師付き学習の文脈における深層ニューラルネットワークの確率勾配勾配アルゴリズムの解析や,生成的敵ネットワークの解析に応用できる。 In this paper we study a type of games regularized by the relative entropy, where the players' strategies are coupled through a random environment variable. Besides the existence and the uniqueness of equilibria of such games, we prove that the marginal laws of the corresponding mean-field Langevin systems can converge towards the games' equilibria in different settings. As applications, the dynamic games can be treated as games on a random environment when one treats the time horizon as the environment. In practice, our results can be applied to analysing the stochastic gradient descent algorithm for deep neural networks in the context of supervised learning as well as for the generative adversarial networks. | 翻訳日:2022-12-16 05:35:06 公開日:2020-04-22 |
# 大型のアラビアツイッター、新型コロナで Large Arabic Twitter Dataset on COVID-19 ( http://arxiv.org/abs/2004.04315v2 ) ライセンス: Link先を確認 | Sarah Alqurashi, Ahmad Alhindi, Eisa Alanazi | (参考訳) 2019年12月下旬に中国で発生した新型コロナウイルス(COVID-19)は、世界中で急速に拡大している。
本稿執筆時点で、全世界で確認された症例数は200万件を超え、死者は180,000人を超えている。
多くの国は、ウイルスの拡散を防ぐために厳格な社会的距離調整政策を施行している。
これにより、何千万という人々の日常生活が変わり、twitterのようなオンラインソーシャルメディアサイトを通じて、議論をオンラインにするよう人々に促した。
本稿では、2020年1月1日から収集してきたcovid-19に関する最初のアラビア語ツイートデータセットについて述べる。
このデータセットは、研究者や政策立案者がパンデミックに関連するさまざまな社会問題を研究するのに役立つだろう。
行動の変化、情報共有、誤報、噂の拡散に関する他の多くのタスクも分析できる。 The 2019 coronavirus disease (COVID-19), emerged late December 2019 in China, is now rapidly spreading across the globe. At the time of writing this paper, the number of global confirmed cases has passed two millions and half with over 180,000 fatalities. Many countries have enforced strict social distancing policies to contain the spread of the virus. This have changed the daily life of tens of millions of people, and urged people to turn their discussions online, e.g., via online social media sites like Twitter. In this work, we describe the first Arabic tweets dataset on COVID-19 that we have been collecting since January 1st, 2020. The dataset would help researchers and policy makers in studying different societal issues related to the pandemic. Many other tasks related to behavioral change, information sharing, misinformation and rumors spreading can also be analyzed. | 翻訳日:2022-12-15 03:12:17 公開日:2020-04-22 |
# 部分観測型および非観測型タスクスイッチングのための複合モデル--階層強化学習問題を静的および動的にトランスファー学習で解く Combined Model for Partially-Observable and Non-Observable Task Switching: Solving Hierarchical Reinforcement Learning Problems Statically and Dynamically with Transfer Learning ( http://arxiv.org/abs/2004.06213v2 ) ライセンス: Link先を確認 | Nibraas Khan and Joshua Phillips | (参考訳) 完全自律ロボットと人間の不可欠な機能は、無関係な知覚を無視しながら、特定の目標を達成するためにいくつかの関連する知覚に注意を向ける能力である。
人間と動物は、作業記憶(WM)と呼ばれるこの焦点を達成するために、PFC(Pre-Frontal Cortex)とBG(Basal Ganglia)の相互作用に依存している。
ワーキングメモリツールキット(wmtk)は、自律システムのための時間差学習(td)を伴うこの現象の計算神経科学モデルに基づいて開発された。
ツールキットの最近の適応では、抽象タスク表現(ATR)を用いて非可観測(NO)タスクを解くか、過去の入力機能の記憶によって部分可観測(PO)タスクを解くが、両方ではない。
本稿では,ATRと入力ストレージの両方のアプローチを静的あるいは動的に組み合わせた新しいモデルPONOWMtkを提案する。
実験の結果,PO,NO,あるいは両方の特性を示すタスクに対して,PONOWMtkが効果的に動作することがわかった。 An integral function of fully autonomous robots and humans is the ability to focus attention on a few relevant percepts to reach a certain goal while disregarding irrelevant percepts. Humans and animals rely on the interactions between the Pre-Frontal Cortex (PFC) and the Basal Ganglia (BG) to achieve this focus called Working Memory (WM). The Working Memory Toolkit (WMtk) was developed based on a computational neuroscience model of this phenomenon with Temporal Difference (TD) Learning for autonomous systems. Recent adaptations of the toolkit either utilize Abstract Task Representations (ATRs) to solve Non-Observable (NO) tasks or storage of past input features to solve Partially-Observable (PO) tasks, but not both. We propose a new model, PONOWMtk, which combines both approaches, ATRs and input storage, with a static or dynamic number of ATRs. The results of our experiments show that PONOWMtk performs effectively for tasks that exhibit PO, NO, or both properties. | 翻訳日:2022-12-14 00:02:25 公開日:2020-04-22 |
# 共同用語を用いたCoq Lemmaの名前の深部生成 Deep Generation of Coq Lemma Names Using Elaborated Terms ( http://arxiv.org/abs/2004.07761v2 ) ライセンス: Link先を確認 | Pengyu Nie, Karl Palmskog, Junyi Jessy Li, Milos Gligoric | (参考訳) 命名、スペーシング、その他の本質的にスタイル的特性のコーディング規約は、開発者が大規模ソフトウェアプロジェクトでソースコードを効果的に理解し、レビューし、修正するために必要である。
coqのような証明アシスタントに基づいた検証プロジェクトの一貫した規約は、プロジェクトのサイズとスコープが大きくなるにつれて重要性が増す。
規約は高コストで文書化と強制が可能だが、新しいアプローチでは大きなコードコーパスに統計的言語モデルを適用することで、javaライクな言語で慣用的な名前を自動的に学習し提案する。
しかし、その強力な言語拡張機能と型チェックと計算の融合により、Coqは自動学習技術の挑戦的なターゲットとなっている。
我々はCoqプロジェクトのための新しい生成モデルを提案し、補題名を提案する。
当社のモデルは、マルチインプットニューラルネットワークを基盤として、coqのlexer(lemma文のトケン)、parser(シンタックスツリー)、kernel(詳細用語)から構文と意味情報を最初に活用したモデルです。
我々はroosterizeというツールチェーンでモデルを実装し、その厳密なコーディング規約で知られている数学的なコンポーネントファミリから派生したコードの大規模なコーパスに適用しました。
以上の結果から,Roosterizeは,マルチインプットモデルと精巧な用語の使用の重要性を強調し,補題名を提案するベースラインを大幅に上回ることを示す。 Coding conventions for naming, spacing, and other essentially stylistic properties are necessary for developers to effectively understand, review, and modify source code in large software projects. Consistent conventions in verification projects based on proof assistants, such as Coq, increase in importance as projects grow in size and scope. While conventions can be documented and enforced manually at high cost, emerging approaches automatically learn and suggest idiomatic names in Java-like languages by applying statistical language models on large code corpora. However, due to its powerful language extension facilities and fusion of type checking and computation, Coq is a challenging target for automated learning techniques. We present novel generation models for learning and suggesting lemma names for Coq projects. Our models, based on multi-input neural networks, are the first to leverage syntactic and semantic information from Coq's lexer (tokens in lemma statements), parser (syntax trees), and kernel (elaborated terms) for naming; the key insight is that learning from elaborated terms can substantially boost model performance. We implemented our models in a toolchain, dubbed Roosterize, and applied it on a large corpus of code derived from the Mathematical Components family of projects, known for its stringent coding conventions. Our results show that Roosterize substantially outperforms baselines for suggesting lemma names, highlighting the importance of using multi-input models and elaborated terms. | 翻訳日:2022-12-12 22:05:13 公開日:2020-04-22 |
# グラフ集合としての薬物組み合わせ設計のためのネットワーク・プリンシパル・ディープジェネレーションモデル Network-principled deep generative models for designing drug combinations as graph sets ( http://arxiv.org/abs/2004.07782v2 ) ライセンス: Link先を確認 | Mostafa Karimi, Arman Hasanzadeh and Yang shen | (参考訳) 組み合わせ療法は副作用を減らしつつ治療効果を向上させることが示されている。
重要なのは、抗生物質、抗菌薬、抗がん剤の耐性を克服するための必須の戦略である。
膨大な化学空間と小さな分子の組み合わせのための不明確な設計原則に直面すると、計算薬物結合設計は、耐性に反する薬物結合の発見を加速する可能性を満たす生成モデルを見ていない。
我々は,グラフ構造ドメイン知識を併用し,強化学習に基づく化学グラフセット設計を反復的に訓練することにより,ドラッグコンビネーション設計のための最初の深層生成モデルを開発した。
まず,階層型変分グラフ自動エンコーダ(hvgae)を開発し,遺伝子・遺伝子・病原体・病原体ネットワークの組込みを行った。
関連遺伝子の表現から疾患の表現を学ぶために、新しい注意プーリングが導入された。
第2に, 学習表現における疾患を対象とし, 薬物結合設計問題をグラフ集合生成として再キャストし, 新たな報酬を伴う深層学習モデルを開発した。
具体的には, 化学効果の報奨の他に, 既知の薬物に類似した分布を持つ化学多様性分子に対して, 汎用スライスされたワッサースタインという, 新たな生成的敵意賞を導入した。
我々はまた、薬物の組み合わせに対するネットワーク原理に基づく報酬も設計した。
数値計算の結果,HVGAEはグラフ埋め込み法と比較して,より情報的,一般化可能な疾患表現を学習している。
4つの疾患のケーススタディでは、ネットワークに根ざした薬物の組み合わせは毒性が低い傾向にある。
生成された薬物の組み合わせは、fdaが承認した薬物の組み合わせと同様の疾患モジュールを包含し、新しいシステム薬理学戦略を示唆する可能性がある。 Combination therapy has shown to improve therapeutic efficacy while reducing side effects. Importantly, it has become an indispensable strategy to overcome resistance in antibiotics, anti-microbials, and anti-cancer drugs. Facing enormous chemical space and unclear design principles for small-molecule combinations, the computational drug-combination design has not seen generative models to meet its potential to accelerate resistance-overcoming drug combination discovery. We have developed the first deep generative model for drug combination design, by jointly embedding graph-structured domain knowledge and iteratively training a reinforcement learning-based chemical graph-set designer. First, we have developed Hierarchical Variational Graph Auto-Encoders (HVGAE) trained end-to-end to jointly embed gene-gene, gene-disease, and disease-disease networks. Novel attentional pooling is introduced here for learning disease-representations from associated genes' representations. Second, targeting diseases in learned representations, we have recast the drug-combination design problem as graph-set generation and developed a deep learning-based model with novel rewards. Specifically, besides chemical validity rewards, we have introduced a novel generative adversarial award, being generalized sliced Wasserstein, for chemically diverse molecules with distributions similar to known drugs. We have also designed a network principle-based reward for drug combinations. Numerical results indicate that, compared to graph embedding methods, HVGAE learns more informative and generalizable disease representations. Case studies on four diseases show that network-principled drug combinations tend to have low toxicity. The generated drug combinations collectively cover the disease module similar to FDA-approved drug combinations and could potentially suggest novel systems-pharmacology strategies. | 翻訳日:2022-12-12 21:21:13 公開日:2020-04-22 |
# 映像と人間の動作の分離:アスリート記録における実用的なイベント検出に向けて Decoupling Video and Human Motion: Towards Practical Event Detection in Athlete Recordings ( http://arxiv.org/abs/2004.09776v2 ) ライセンス: Link先を確認 | Moritz Einfalt, Rainer Lienhart | (参考訳) 本稿では,個人スポーツ記録における運動事象検出の問題点について述べる。
近年のエンド・ツー・エンドのアプローチとは対照的に,映像情報から人間の動きを分離する中間表現として,2次元のポーズシーケンスを用いることを提案する。
ドメイン適応型アスリートトラッキングと組み合わせることで,ポーズシーケンスのイベント検出と,水泳と運動という相補的な領域での評価を行う2つのアプローチについて述べる。
水泳では、データに制限があるにもかかわらず、F1スコアが91%を超え、スイミング開始時の異なる動きイベントを検出するために、ポーズ統計の頑健な決定ルールがいかに堅牢であるかを示す。
運動選手に対しては,ストライド関連事象を長時間・3回のジャンプ記録で推定するために畳み込みシーケンスモデルを用い,F1スコアの96%を時間差+/-5msで高精度に検出した。
本手法はこれらの領域に限らず,ポーズに基づく動作イベント検出の柔軟性を示す。 In this paper we address the problem of motion event detection in athlete recordings from individual sports. In contrast to recent end-to-end approaches, we propose to use 2D human pose sequences as an intermediate representation that decouples human motion from the raw video information. Combined with domain-adapted athlete tracking, we describe two approaches to event detection on pose sequences and evaluate them in complementary domains: swimming and athletics. For swimming, we show how robust decision rules on pose statistics can detect different motion events during swim starts, with a F1 score of over 91% despite limited data. For athletics, we use a convolutional sequence model to infer stride-related events in long and triple jump recordings, leading to highly accurate detections with 96% in F1 score at only +/- 5ms temporal deviation. Our approach is not limited to these domains and shows the flexibility of pose-based motion event detection. | 翻訳日:2022-12-11 07:06:10 公開日:2020-04-22 |
# 補足を超えて大きな論理プログラムを学ぶ Learning large logic programs by going beyond entailment ( http://arxiv.org/abs/2004.09855v2 ) ライセンス: Link先を確認 | Andrew Cropper and Sebastijan Duman\v{c}i\'c | (参考訳) 帰納論理プログラミング(ILP)における大きな課題は、大規模プログラムの学習である。
既存のシステムの鍵となる制限は、仮説探索を導くのに補足を用いることである。
仮説は例を含むか、そうでないかのどちらかであり、中間的な位置が存在しないため、このアプローチは限定される。
この制限に対処するために、我々はentailment を超えて \emph{example-dependent} 損失関数を使用して探索をガイドし、仮説が部分的に例をカバーできる。
サンプル依存の損失関数に導かれるベストファースト検索を用いて,プログラムを漸進的に構築する新しいilpシステムであるbruteに,このアイデアを実装した。
3つのプログラム合成領域(ロボット計画、文字列変換、ASCII技術)に関する実験により、Bruteは予測精度と学習時間の両方で既存のILPシステムを大幅に上回り、最先端のシステムより20倍大きいプログラムを学習できることを示した。 A major challenge in inductive logic programming (ILP) is learning large programs. We argue that a key limitation of existing systems is that they use entailment to guide the hypothesis search. This approach is limited because entailment is a binary decision: a hypothesis either entails an example or does not, and there is no intermediate position. To address this limitation, we go beyond entailment and use \emph{example-dependent} loss functions to guide the search, where a hypothesis can partially cover an example. We implement our idea in Brute, a new ILP system which uses best-first search, guided by an example-dependent loss function, to incrementally build programs. Our experiments on three diverse program synthesis domains (robot planning, string transformations, and ASCII art), show that Brute can substantially outperform existing ILP systems, both in terms of predictive accuracies and learning times, and can learn programs 20 times larger than state-of-the-art systems. | 翻訳日:2022-12-11 06:05:00 公開日:2020-04-22 |
# 機械学習を用いた南アフリカとシエラレオネの学校成績の類似性と差異の調査 Investigating similarities and differences between South African and Sierra Leonean school outcomes using Machine Learning ( http://arxiv.org/abs/2004.11369v1 ) ライセンス: Link先を確認 | Henry Wandera, Vukosi Marivate, David Sengeh | (参考訳) 学校改良支援のための資源配分決定のための情報提供や適切な情報提供は,世界規模で重要な課題である。
本稿では,南アフリカとシエラレオネの2つのアフリカの国において,高校の成績を決定する要因を特定するために,教育ビッグデータに機械学習と教育データマイニング技術を適用する。
研究の目的は、学校パフォーマンスの予測器を構築し、異なるコミュニティと学校レベルの機能の重要性を抽出することである。
木モデル上のSHAP値やLRの確率比といった機械学習手法による解釈可能なメトリクスをデプロイし、政策決定を支援する要因の相互作用を抽出する。
この2つの国では、パフォーマンスの決定要因が異なるため、異なる政策含意とリソース割り当ての推奨がある。 Available or adequate information to inform decision making for resource allocation in support of school improvement is a critical issue globally. In this paper, we apply machine learning and education data mining techniques on education big data to identify determinants of high schools' performance in two African countries: South Africa and Sierra Leone. The research objective is to build predictors for school performance and extract the importance of different community and school-level features. We deploy interpretable metrics from machine learning approaches such as SHAP values on tree models and odds ratios of LR to extract interactions of factors that can support policy decision making. Determinants of performance vary in these two countries, hence different policy implications and resource allocation recommendations. | 翻訳日:2022-12-10 18:54:13 公開日:2020-04-22 |
# 創発的物語の張力空間分析 Tension Space Analysis for Emergent Narrative ( http://arxiv.org/abs/2004.10808v1 ) ライセンス: Link先を確認 | Ben Kybartas, Clark Verbrugge, Jonathan Lessard | (参考訳) 創発的な物語は、シミュレーションを通じてインタラクティブなストーリーテリングに独特で魅力的なアプローチを提供し、ゲーム、物語生成、仮想エージェントに応用できる。
しかし、シミュレーションの本質的な複雑さは、特に開発段階における創発的物語の表現可能性を理解することを困難にしている。
本稿では,可能世界のナラトロジー理論を用いた創発的物語への新しいアプローチを提案し,表現範囲分析に触発された形式的分析手法を用いて,このようなシステムにおける作品の設計がどのように理解されるかを示す。
最後に,スケッチベースのインタフェースを用いて,創発的な物語システムのためにコンテンツが作成できる新しい方法を提案する。 Emergent narratives provide a unique and compelling approach to interactive storytelling through simulation, and have applications in games, narrative generation, and virtual agents. However the inherent complexity of simulation makes understanding the expressive potential of emergent narratives difficult, particularly at the design phase of development. In this paper, we present a novel approach to emergent narrative using the narratological theory of possible worlds and demonstrate how the design of works in such a system can be understood through a formal means of analysis inspired by expressive range analysis. Lastly, we propose a novel way through which content may be authored for the emergent narrative system using a sketch-based interface. | 翻訳日:2022-12-10 18:52:15 公開日:2020-04-22 |
# COVID-19パンデミックにおけるユニバーサルマスキングの緊急性:SEIRとエージェントベースモデル、実証的検証、政策勧告 Universal Masking is Urgent in the COVID-19 Pandemic: SEIR and Agent Based Models, Empirical Validation, Policy Recommendations ( http://arxiv.org/abs/2004.13553v1 ) ライセンス: Link先を確認 | De Kai, Guy-Philippe Goldstein, Alexey Morgunov, Vishal Nangalia, Anna Rotkirch | (参考訳) We present two models for the COVID-19 pandemic predicting the impact of universal face mask wearing upon the spread of the SARS-CoV-2 virus--one employing a stochastic dynamic network based compartmental SEIR (susceptible-exposed-infectious-recovered) approach, and the other employing individual ABM (agent-based modelling) Monte Carlo simulation--indicating (1) significant impact under (near) universal masking when at least 80% of a population is wearing masks, versus minimal impact when only 50% or less of the population is wearing masks, and (2) significant impact when universal masking is adopted early, by Day 50 of a regional outbreak, versus minimal impact when universal masking is adopted late.
これらの効果は、自家製のマスクの濾過率の低下にも影響する。
これらの理論モデルを検証するために、地域が普遍的なマスキング文化や政策を持っているか、日々のケース成長率、ピーク時のケース成長率からのパーセンテージ低下などを含む、新しい経験的データセットと比較した。
以上の結果から,初期ユニバーサルマスキングと日々のケース成長率の抑制,ピーク時のケース成長率の低下は,理論シミュレーションで予測したようにほぼ完全に相関することが示された。
我々の理論および実証的な結果は、普遍的なマスキングの緊急実施を主張する。
政府が社会的なロックダウンから抜け出す方法を計画する中で、鍵となるnpiとして登場しており、「口と鼻のロックダウン」は経済的、社会的、精神的な健康的な軸に対する「完全な身体的ロックダウン」よりもずっと持続可能なものである。
ABMシミュレーションのインタラクティブな可視化はhttp://dek.ai/masks4allにある。
マスキングの考え方を純粋な自己保護から、責任あるコミュニティを守るという願望的な目標へとシフトさせるため、即時マスク着用の勧告、正しい使用のための公式ガイドライン、そして啓発キャンペーンを推奨する。 We present two models for the COVID-19 pandemic predicting the impact of universal face mask wearing upon the spread of the SARS-CoV-2 virus--one employing a stochastic dynamic network based compartmental SEIR (susceptible-exposed-infectious-recovered) approach, and the other employing individual ABM (agent-based modelling) Monte Carlo simulation--indicating (1) significant impact under (near) universal masking when at least 80% of a population is wearing masks, versus minimal impact when only 50% or less of the population is wearing masks, and (2) significant impact when universal masking is adopted early, by Day 50 of a regional outbreak, versus minimal impact when universal masking is adopted late. These effects hold even at the lower filtering rates of homemade masks. To validate these theoretical models, we compare their predictions against a new empirical data set we have collected that includes whether regions have universal masking cultures or policies, their daily case growth rates, and their percentage reduction from peak daily case growth rates. Results show a near perfect correlation between early universal masking and successful suppression of daily case growth rates and/or reduction from peak daily case growth rates, as predicted by our theoretical simulations. Our theoretical and empirical results argue for urgent implementation of universal masking. As governments plan how to exit societal lockdowns, it is emerging as a key NPI; a "mouth-and-nose lockdown" is far more sustainable than a "full body lockdown", on economic, social, and mental health axes. An interactive visualization of the ABM simulation is at http://dek.ai/masks4all. We recommend immediate mask wearing recommendations, official guidelines for correct use, and awareness campaigns to shift masking mindsets away from pure self-protection, towards aspirational goals of responsibly protecting one's community. | 翻訳日:2022-12-10 18:52:03 公開日:2020-04-22 |
# 悪意のあるノードを注入したグラフデータのスケーラブルな攻撃 Scalable Attack on Graph Data by Injecting Vicious Nodes ( http://arxiv.org/abs/2004.13825v1 ) ライセンス: Link先を確認 | Jihong Wang, Minnan Luo, Fnu Suya, Jundong Li, Zijiang Yang, Qinghua Zheng | (参考訳) 近年の研究では、グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱であることが示されており、これは、目立たない摂動を伴うグラフ上の特定のノードの誤分類を引き起こすことを目的としている。
しかし、既存の作品の大部分は、その高い時間的複雑さのため、大規模なグラフを処理できない。
さらに、既存の作業は主にグラフ上の既存のノードを操作することに焦点を当てているが、実際には攻撃者は既存のノードの情報を変更する特権を持っていない。
本稿では,よりスケーラブルなフレームワークである近似高速勾配符号法(afgsm)を開発し,敵がグラフに新たな悪質なノードを注入するだけで元のグラフを制御できない,より実用的な攻撃シナリオを考察する。
方法論的には、攻撃したモデルを線形化し、より低コストで近似された閉解を導出するための近似戦略を提供する。
元のグラフを操作する既存の攻撃手法と公正に比較するために、悪質なノードを注入して新たな攻撃シナリオに適応する。
実験の結果,提案手法はGCNの分類精度を著しく低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速であることがわかった。 Recent studies have shown that graph convolution networks (GCNs) are vulnerable to carefully designed attacks, which aim to cause misclassification of a specific node on the graph with unnoticeable perturbations. However, a vast majority of existing works cannot handle large-scale graphs because of their high time complexity. Additionally, existing works mainly focus on manipulating existing nodes on the graph, while in practice, attackers usually do not have the privilege to modify information of existing nodes. In this paper, we develop a more scalable framework named Approximate Fast Gradient Sign Method (AFGSM) which considers a more practical attack scenario where adversaries can only inject new vicious nodes to the graph while having no control over the original graph. Methodologically, we provide an approximation strategy to linearize the model we attack and then derive an approximate closed-from solution with a lower time cost. To have a fair comparison with existing attack methods that manipulate the original graph, we adapt them to the new attack scenario by injecting vicious nodes. Empirical experimental results show that our proposed attack method can significantly reduce the classification accuracy of GCNs and is much faster than existing methods without jeopardizing the attack performance. | 翻訳日:2022-12-10 18:51:06 公開日:2020-04-22 |
# 制限ボルツマンマシンとポッツモデルに対するアイデンティティテストの硬さ Hardness of Identity Testing for Restricted Boltzmann Machines and Potts models ( http://arxiv.org/abs/2004.10805v1 ) ライセンス: Link先を確認 | Antonio Blanca, Zongchen Chen, Daniel \v{S}tefankovi\v{c} and Eric Vigoda | (参考訳) 我々は、制限ボルツマンマシン(rbms)のアイデンティティテスト、より一般的には無向グラフィカルモデルについて研究する。
未知または隠れたモデル $m^*$ に対応するgibbs ディストリビューションへのサンプルアクセスと、明示的なモデル $m$ が与えられると、$m = m^*$ か、あるいは(統計的に)遠く離れているかどうかを区別できるだろうか?
Daskalakis et al. (2018) は強磁性イジングモデルに対するアイデンティティテストのための多項式時間アルゴリズムを提示した。
対照的に、反強磁性(反発的)イジングモデルに対して、bez\'akov\'a et al. (2019) は、$rp=np$ でなければ、$\beta d=\omega(\log{n})$ が可視グラフの最大次数であり$\beta$ が絶対値の最大エッジウェイトであるとき、同一性テストアルゴリズムが存在しないことを証明した。
rbms(すなわち、二成分グラフ上の混合イジングモデル)の類似の硬さ結果が、潜在変数や外部フィールドが存在しない場合でも証明される。
具体的には、$RP \neq NP$ ならば、$\beta d=\omega(\log{n})$ は RBM の恒等性テストのための多項式時間アルゴリズムはなく、$\beta d =O(\log{n})$ ならば、Klivans と Meka (2017) の構造学習アルゴリズムを利用する効率的な恒等性テストアルゴリズムが存在することを示す。
さらに, 純強磁性RBMと非整合外部場, 強磁性ポッツモデルに対して, 同様の下界を証明した。
bez\'akov\'a et al. (2019) の同一性試験における以前のハードネスは、反強磁性イジングモデルの基底状態に対応する最大カットを見つけるハードネスを利用した。
RBMは二部グラフ上であるため、そのようなアプローチは実現不可能である。
代わりに、対応する近似計数問題から減少する一般的な方法を導入し、rbmsと平均場ポッツモデルによって示される相転移を利用する。 We study identity testing for restricted Boltzmann machines (RBMs), and more generally for undirected graphical models. Given sample access to the Gibbs distribution corresponding to an unknown or hidden model $M^*$ and given an explicit model $M$, can we distinguish if either $M = M^*$ or if they are (statistically) far apart? Daskalakis et al. (2018) presented a polynomial-time algorithm for identity testing for the ferromagnetic (attractive) Ising model. In contrast, for the antiferromagnetic (repulsive) Ising model, Bez\'akov\'a et al. (2019) proved that unless $RP=NP$ there is no identity testing algorithm when $\beta d=\omega(\log{n})$, where $d$ is the maximum degree of the visible graph and $\beta$ is the largest edge weight in absolute value. We prove analogous hardness results for RBMs (i.e., mixed Ising models on bipartite graphs), even when there are no latent variables or an external field. Specifically, we show that if $RP \neq NP$, then when $\beta d=\omega(\log{n})$ there is no polynomial-time algorithm for identity testing for RBMs; when $\beta d =O(\log{n})$ there is an efficient identity testing algorithm that utilizes the structure learning algorithm of Klivans and Meka (2017). In addition, we prove similar lower bounds for purely ferromagnetic RBMs with inconsistent external fields, and for the ferromagnetic Potts model. Previous hardness results for identity testing of Bez\'akov\'a et al. (2019) utilized the hardness of finding the maximum cuts, which corresponds to the ground states of the antiferromagnetic Ising model. Since RBMs are on bipartite graphs such an approach is not feasible. We instead introduce a general methodology to reduce from the corresponding approximate counting problem and utilize the phase transition that is exhibited by RBMs and the mean-field Potts model. | 翻訳日:2022-12-10 18:50:11 公開日:2020-04-22 |
# Qd-tree:ビッグデータ分析のためのデータレイアウト学習 Qd-tree: Learning Data Layouts for Big Data Analytics ( http://arxiv.org/abs/2004.10898v1 ) ライセンス: Link先を確認 | Zongheng Yang, Badrish Chandramouli, Chi Wang, Johannes Gehrke, Yinan Li, Umar Farooq Minhas, Per-{\AA}ke Larson, Donald Kossmann, Rajeev Acharya | (参考訳) 現在、企業は前例のないスピードでデータを収集し、大規模なデータセットでクエリを実行する必要性が高まっている。
カラム型ブロックベースのデータ編成や圧縮といった技術は、ほとんどの商用データベースシステムで標準となっている。
しかし、ストレージ上のデータブロックにレコードを割り当てる問題はまだ未解決である。
例えば、今日のシステムは、通常、到着時間でデータを行グループに分割するか、選択したフィールドに基づいてデータを範囲/ハッシュに分割します。
しかし、与えられたワークロードに対して、クエリによってアクセスされるブロック数の重要なメトリックを最適化することはできない。
このメトリクスは、ほとんどの分析クエリのi/oコストやパフォーマンスに直接関係しています。
さらに、このメトリクスをさらに下げるために、追加の利用可能なストレージを活用できない。
本稿では,この問題を解決するために,クエリデータルーティングツリー(qd-tree)と呼ばれる新しいフレームワークを提案する。
ベンチマークと実際のワークロードに対する実験では、qd-treeは現在のブロッキング方式と比較して1桁以上の物理的スピードアップを提供し、選択性に基づいてデータスキップを行う場合の下位境界の2倍以内に到達し、生成されたブロックの完全なセマンティック記述を提供する。 Corporations today collect data at an unprecedented and accelerating scale, making the need to run queries on large datasets increasingly important. Technologies such as columnar block-based data organization and compression have become standard practice in most commercial database systems. However, the problem of best assigning records to data blocks on storage is still open. For example, today's systems usually partition data by arrival time into row groups, or range/hash partition the data based on selected fields. For a given workload, however, such techniques are unable to optimize for the important metric of the number of blocks accessed by a query. This metric directly relates to the I/O cost, and therefore performance, of most analytical queries. Further, they are unable to exploit additional available storage to drive this metric down further. In this paper, we propose a new framework called a query-data routing tree, or qd-tree, to address this problem, and propose two algorithms for their construction based on greedy and deep reinforcement learning techniques. Experiments over benchmark and real workloads show that a qd-tree can provide physical speedups of more than an order of magnitude compared to current blocking schemes, and can reach within 2X of the lower bound for data skipping based on selectivity, while providing complete semantic descriptions of created blocks. | 翻訳日:2022-12-10 18:49:02 公開日:2020-04-22 |
# スマートフォンを用いた高ダイナミックレンジ写真の自動露光選択と融合 Automatic exposure selection and fusion for high-dynamic-range photography via smartphones ( http://arxiv.org/abs/2004.10365v1 ) ライセンス: Link先を確認 | Reza Pourreza, Nasser Kehtarnavaz | (参考訳) 高ダイナミックレンジ(hdr)撮影は、スマートフォンのような低ダイナミックレンジのデジタルカメラを補うために、異なる露出設定で撮影された画像のブラケットを使用する。
本稿では,カメラ特性関数に基づいて,このような画像の露出設定を自動的に選択する手法を提案する。
また、最適化定式化と重み付き平均化に基づく新しい融合法が導入された。
これらの手法はスマートフォンプラットフォーム上でHDRアプリケーションとして実装され,提案手法の実用性を示す。
導入した解の有効性と計算効率を示す既存の手法との比較を行った。 High-dynamic-range (HDR) photography involves fusing a bracket of images taken at different exposure settings in order to compensate for the low dynamic range of digital cameras such as the ones used in smartphones. In this paper, a method for automatically selecting the exposure settings of such images is introduced based on the camera characteristic function. In addition, a new fusion method is introduced based on an optimization formulation and weighted averaging. Both of these methods are implemented on a smartphone platform as an HDR app to demonstrate the practicality of the introduced methods. Comparison results with several existing methods are presented indicating the effectiveness as well as the computational efficiency of the introduced solution. | 翻訳日:2022-12-10 18:42:35 公開日:2020-04-22 |
# 極低照度生画像処理のための適応モデル学習 Learning an Adaptive Model for Extreme Low-light Raw Image Processing ( http://arxiv.org/abs/2004.10447v1 ) ライセンス: Link先を確認 | Qingxu Fu, Xiaoguang Di, and Yu Zhang | (参考訳) 低照度画像は厳しいノイズと低い照明に悩まされる。
実世界の画像で訓練された現在のディープラーニングモデルは、ノイズ低減に優れていますが、拡張パイプラインを完成させるためには、手動で比パラメータを選択する必要があります。
本研究では,パラメータハンドクラフトの回避と画質向上を目的とした適応型低照度生画像強調ネットワークを提案する。
提案手法は,輝度予測 (bp) と露出シフト (es) の2つのサブモデルに分類できる。
前者は、ガイドライン露光時間$t_1$を推定することにより、得られた画像の輝度を制御するように設計されている。
後者は、露光シフト演算子 $es$ を近似し、ローライト画像を実際の露光時間 $t_0$ から、ガイドライン露光時間 $t_1$ のノイズフリー画像に変換する。
さらに、画像品質向上のために構造類似性(SSIM)損失と画像強調ベクトル(IEV)を導入し、既存のデータセットの限界を克服し、提案モデルのトレーニングを監督するために、新しいキャンパスイメージデータセット(CID)を提案する。
提案モデルを用いて,1つの原画像から高品質な低照度画像強調を実現する。
定量的評価では,提案手法は最先端の低照度アルゴリズムと比較してノイズレベル推定(NLE)のスコアが低いことが示され,性能が優れていた。
さらに,提案手法は画像シーンの内容に応じて,グローバルな画像の明るさを適応的に制御できることを示す。
最後に,映像処理における潜在的な応用について概説する。 Low-light images suffer from severe noise and low illumination. Current deep learning models that are trained with real-world images have excellent noise reduction, but a ratio parameter must be chosen manually to complete the enhancement pipeline. In this work, we propose an adaptive low-light raw image enhancement network to avoid parameter-handcrafting and to improve image quality. The proposed method can be divided into two sub-models: Brightness Prediction (BP) and Exposure Shifting (ES). The former is designed to control the brightness of the resulting image by estimating a guideline exposure time $t_1$. The latter learns to approximate an exposure-shifting operator $ES$, converting a low-light image with real exposure time $t_0$ to a noise-free image with guideline exposure time $t_1$. Additionally, structural similarity (SSIM) loss and Image Enhancement Vector (IEV) are introduced to promote image quality, and a new Campus Image Dataset (CID) is proposed to overcome the limitations of the existing datasets and to supervise the training of the proposed model. Using the proposed model, we can achieve high-quality low-light image enhancement from a single raw image. In quantitative tests, it is shown that the proposed method has the lowest Noise Level Estimation (NLE) score compared with the state-of-the-art low-light algorithms, suggesting a superior denoising performance. Furthermore, those tests illustrate that the proposed method is able to adaptively control the global image brightness according to the content of the image scene. Lastly, the potential application in video processing is briefly discussed. | 翻訳日:2022-12-10 18:42:25 公開日:2020-04-22 |
# 四面体外殻を用いた1枚の画像からの3次元ヒト再建 TetraTSDF: 3D human reconstruction from a single image with a tetrahedral outer shell ( http://arxiv.org/abs/2004.10534v1 ) ライセンス: Link先を確認 | Hayato Onizuka, Zehra Hayirci, Diego Thomas, Akihiro Sugimoto, Hideaki Uchiyama, Rin-ichiro Taniguchi | (参考訳) 2次元の外観から人の3d形状を回復することは曖昧さのため不適切である。
それでも、畳み込みニューラルネットワーク(CNN)と3次元人体に関する事前知識の助けを借りて、そのような曖昧さを克服し、単一の画像から人間の体の詳細な3次元形状を復元することができる。
しかし、現在の解決策は、ゆるい服を着ている人の詳細を再構築することができない。
これはどちらかが原因で
(a)最新のGPUでも維持できない巨大なメモリ要件
(b)全ての詳細をエンコードできないコンパクトな3d表現。
本稿では,人体に対する四面体外殻容積切断符号距離関数(tetratsdf)モデルと,それに対応する3次元人体形状回帰のための部分接続ネットワーク(pcn)を提案する。
提案モデルはコンパクト,高密度,高精度であり,cnnに基づく回帰タスクに適している。
提案するPCNにより,一画像から四面体体積のTSDF分布をエンドツーエンドに学習することができる。
提案手法は, 単一のRGB画像から, ゆるい服を着ている人間の詳細な形状を復元できることを示す。 Recovering the 3D shape of a person from its 2D appearance is ill-posed due to ambiguities. Nevertheless, with the help of convolutional neural networks (CNN) and prior knowledge on the 3D human body, it is possible to overcome such ambiguities to recover detailed 3D shapes of human bodies from single images. Current solutions, however, fail to reconstruct all the details of a person wearing loose clothes. This is because of either (a) huge memory requirement that cannot be maintained even on modern GPUs or (b) the compact 3D representation that cannot encode all the details. In this paper, we propose the tetrahedral outer shell volumetric truncated signed distance function (TetraTSDF) model for the human body, and its corresponding part connection network (PCN) for 3D human body shape regression. Our proposed model is compact, dense, accurate, and yet well suited for CNN-based regression task. Our proposed PCN allows us to learn the distribution of the TSDF in the tetrahedral volume from a single image in an end-to-end manner. Results show that our proposed method allows to reconstruct detailed shapes of humans wearing loose clothes from single RGB images. | 翻訳日:2022-12-10 18:41:28 公開日:2020-04-22 |
# RGB-Dカメラを用いたリアルタイム3次元頭部モデリングと顔面モーションキャプチャ Real-time Simultaneous 3D Head Modeling and Facial Motion Capture with an RGB-D camera ( http://arxiv.org/abs/2004.10557v1 ) ライセンス: Link先を確認 | Diego Thomas | (参考訳) コンシューマグレードのRGB-Dカメラを用いたリアルタイムアニメーション3Dヘッドモデルの構築手法を提案する。
提案手法は,顔の動き追跡とユーザの頭部の詳細な3dモデルを同時に提供する最初の方法である。
頭はすぐに再構築でき、トレーニングや事前スキャンなしで顔の動きをキャプチャできます。
ユーザーは、最初のフレームで中立的な表情でカメラに向き始めるが、自由に動き、話し、顔の表情を変えることができる。
顔の動きはブレンド形状のアニメーションモデルでキャプチャされ、幾何学的詳細はテンプレートメッシュ上にマッピングされた偏差画像でキャプチャされる。
我々は,頭部の変形する3dモデルの成長と洗練をリアルタイムに行うための効率的なアルゴリズムを提案する。
多様な顔ポーズと表情を有する被験者に対して,ロバストで高忠実な同時顔モーションキャプチャと3次元頭部モデリング結果を示す。 We propose a method to build in real-time animated 3D head models using a consumer-grade RGB-D camera. Our proposed method is the first one to provide simultaneously comprehensive facial motion tracking and a detailed 3D model of the user's head. Anyone's head can be instantly reconstructed and his facial motion captured without requiring any training or pre-scanning. The user starts facing the camera with a neutral expression in the first frame, but is free to move, talk and change his face expression as he wills otherwise. The facial motion is captured using a blendshape animation model while geometric details are captured using a Deviation image mapped over the template mesh. We contribute with an efficient algorithm to grow and refine the deforming 3D model of the head on-the-fly and in real-time. We demonstrate robust and high-fidelity simultaneous facial motion capture and 3D head modeling results on a wide range of subjects with various head poses and facial expressions. | 翻訳日:2022-12-10 18:41:09 公開日:2020-04-22 |
# X線およびCT画像におけるコロナウイルス病(COVID-19)の自動検出:機械学習によるアプローチ Automatic Detection of Coronavirus Disease (COVID-19) in X-ray and CT Images: A Machine Learning-Based Approach ( http://arxiv.org/abs/2004.10641v1 ) ライセンス: Link先を確認 | Sara Hosseinzadeh Kassani, Peyman Hosseinzadeh Kassasni, Michal J. Wesolowski, Kevin A. Schneider, Ralph Deters | (参考訳) 新たに確認された新型コロナウイルス(covid-19)は感染率が高く病原性が高く、臨床で認可された抗ウイルス薬やワクチンは使用できない。
COVID-19の最も一般的な症状は、ドライ生地、喉の痛み、発熱である。
症状は、敗血症性ショック、肺浮腫、急性呼吸不全症候群、多臓器不全などの重篤な肺炎に進行することがある。
カナダでは、新型コロナウイルス(COVID-19)の早期診断に医療画像が推奨されていないが、コンピュータ支援の診断システムは、新型コロナウイルスの早期発見を支援し、疾患の進行を監視し、死亡率を低下させる可能性がある。
本研究では,新型コロナウイルスの自動分類のためのディープラーニングに基づく特徴抽出フレームワークの比較を行った。
学習の重要な要素である最も正確な特徴を得るために、深い畳み込みニューラルネットワークのプールの中から、MobileNet、DenseNet、Xception、ResNet、InceptionV3、InceptionResNetV2、VGGNet、NASNetが選ばれた。
抽出された機能は、covid-19のケースかコントロールのどちらかに分類するために、いくつかの機械学習分類器に送られた。
このアプローチはタスク固有のデータ前処理手法を回避し、見えないデータに対するより良い一般化機能をサポートする。
胸部X線およびCT画像の公開データセットを用いて,本手法の有効性を検証した。
バグングツリー分類器を備えた densenet121 特徴抽出器は,99% の分類精度で最高の性能を達成した。
第2の学習者は、LightGBMで訓練されたResNet50機能抽出器を98%の精度でハイブリッドした。 The newly identified Coronavirus pneumonia, subsequently termed COVID-19, is highly transmittable and pathogenic with no clinically approved antiviral drug or vaccine available for treatment. The most common symptoms of COVID-19 are dry cough, sore throat, and fever. Symptoms can progress to a severe form of pneumonia with critical complications, including septic shock, pulmonary edema, acute respiratory distress syndrome and multi-organ failure. While medical imaging is not currently recommended in Canada for primary diagnosis of COVID-19, computer-aided diagnosis systems could assist in the early detection of COVID-19 abnormalities and help to monitor the progression of the disease, potentially reduce mortality rates. In this study, we compare popular deep learning-based feature extraction frameworks for automatic COVID-19 classification. To obtain the most accurate feature, which is an essential component of learning, MobileNet, DenseNet, Xception, ResNet, InceptionV3, InceptionResNetV2, VGGNet, NASNet were chosen amongst a pool of deep convolutional neural networks. The extracted features were then fed into several machine learning classifiers to classify subjects as either a case of COVID-19 or a control. This approach avoided task-specific data pre-processing methods to support a better generalization ability for unseen data. The performance of the proposed method was validated on a publicly available COVID-19 dataset of chest X-ray and CT images. The DenseNet121 feature extractor with Bagging tree classifier achieved the best performance with 99% classification accuracy. The second-best learner was a hybrid of the a ResNet50 feature extractor trained by LightGBM with an accuracy of 98%. | 翻訳日:2022-12-10 18:40:52 公開日:2020-04-22 |
# 実世界ビデオにおける行動認識 Action recognition in real-world videos ( http://arxiv.org/abs/2004.10774v1 ) ライセンス: Link先を確認 | Waqas Sultani, Qazi Ammar Arshad, Chen Chen | (参考訳) 人間の行動認識の目標は、ビデオシーケンスにおける人間の行動の時間的または空間的局所化である。
時間的局在(つまり、映像中の動作の開始と終了のフレームを示す)は、フレームレベル検出 (frame level detection) と呼ばれる。
空間的局在化はより困難であり、アクションに対応する各アクションフレーム内のピクセルを識別することを意味する。
この設定は通常ピクセルレベルの検出と呼ばれる。
この章では、アクション、アクティビティ、イベントを相互に使用しています。 The goal of human action recognition is to temporally or spatially localize the human action of interest in video sequences. Temporal localization (i.e. indicating the start and end frames of the action in a video) is referred to as frame-level detection. Spatial localization, which is more challenging, means to identify the pixels within each action frame that correspond to the action. This setting is usually referred to as pixel-level detection. In this chapter, we are using action, activity, event interchangeably. | 翻訳日:2022-12-10 18:40:27 公開日:2020-04-22 |
# W2Sの深層学習による顕微鏡画像復元 Microscopy Image Restoration using Deep Learning on W2S ( http://arxiv.org/abs/2004.10884v1 ) ライセンス: Link先を確認 | Martin Chatton | (参考訳) 蛍光顕微鏡で取得した生体画像のデノベーションとスーパーリゾルジョンに深層学習技術を活用する。
本稿では,最近のW2S論文に記述されているネットワークと手法に基づくディープラーニングアルゴリズムを開発し,共同認知と超分解能の問題を解決する。
具体的には,広視野画像からのSIM画像の復元について述べる。
私たちのtensorflowモデルはセルイメージのw2sデータセットでトレーニングされ、このリポジトリでオンラインでアクセスできます。
テスト画像上では、モデルが視覚的拘束性を示し、入力画像と比較して2倍の分解能を増大させる。
512ドルの$\times$ 512の画像では、titan x gpuで1秒未満、共通のcpuで約15秒かかる。
さらに、トレーニングで使用する損失のバリエーションの異なる結果も提示する。 We leverage deep learning techniques to jointly denoise and super-resolve biomedical images acquired with fluorescence microscopy. We develop a deep learning algorithm based on the networks and method described in the recent W2S paper to solve a joint denoising and super-resolution problem. Specifically, we address the restoration of SIM images from widefield images. Our TensorFlow model is trained on the W2S dataset of cell images and is made accessible online in this repository: https://github.com/mchatton/w2s-tensorflow. On test images, the model shows a visually-convincing denoising and increases the resolution by a factor of two compared to the input image. For a 512 $\times$ 512 image, the inference takes less than 1 second on a Titan X GPU and about 15 seconds on a common CPU. We further present the results of different variations of losses used in training. | 翻訳日:2022-12-10 18:40:20 公開日:2020-04-22 |
# submanifold sparse 畳み込みによる効率的な近隣コンセンサスネットワーク Efficient Neighbourhood Consensus Networks via Submanifold Sparse Convolutions ( http://arxiv.org/abs/2004.10566v1 ) ライセンス: Link先を確認 | Ignacio Rocco, Relja Arandjelovi\'c, Josef Sivic | (参考訳) 本研究では,画像間の局所的対応を正確に推定する問題を対象とする。
我々は,最近の近所のコンセンサスネットワークを採用し,困難な対応問題に対して有望な性能を示すとともに,その主な制限を克服するための修正を提案する。
提案した修正により、メモリフットプリントと実行時間を10\times$以上削減できる。
これは、仮一致を含む相関テンソルと、それに続くサブマニフォールドスパース畳み込みを用いた4次元CNNで処理することで実現される。
メモリフットプリントの削減により可能となる高解像度の入力画像を処理し、新しい2段階対応再ローカライゼーションモジュールによって、ローカライズ精度を大幅に向上する。
提案手法は,HPatches Sequences と InLoc のビジュアルローカライゼーションベンチマーク,および Aachen Day-Night ベンチマークの競合結果に対して,最先端の結果を得る。 In this work we target the problem of estimating accurately localised correspondences between a pair of images. We adopt the recent Neighbourhood Consensus Networks that have demonstrated promising performance for difficult correspondence problems and propose modifications to overcome their main limitations: large memory consumption, large inference time and poorly localised correspondences. Our proposed modifications can reduce the memory footprint and execution time more than $10\times$, with equivalent results. This is achieved by sparsifying the correlation tensor containing tentative matches, and its subsequent processing with a 4D CNN using submanifold sparse convolutions. Localisation accuracy is significantly improved by processing the input images in higher resolution, which is possible due to the reduced memory footprint, and by a novel two-stage correspondence relocalisation module. The proposed Sparse-NCNet method obtains state-of-the-art results on the HPatches Sequences and InLoc visual localisation benchmarks, and competitive results in the Aachen Day-Night benchmark. | 翻訳日:2022-12-10 18:33:49 公開日:2020-04-22 |
# スケッチに基づくディープラーニングと転送学習を用いたダイアグラム画像検索 Diagram Image Retrieval using Sketch-Based Deep Learning and Transfer Learning ( http://arxiv.org/abs/2004.10780v1 ) ライセンス: Link先を確認 | Manish Bhattarai, Diane Oyen, Juan Castorena, Liping Yang, Brendt Wohlberg | (参考訳) 図形画像に対する画像検索の複雑な問題の解決は、まだ至っていない。
深層学習法は、自然画像に適用された物体の検出と画像分類の分野において、引き続き優れている。
しかしながら,テクスチャや色彩,強度情報といった重要な特徴が欠如しているため,バイナリ画像に適用する手法の適用は限られている。
本稿では,画像検索やスケッチベース手法において,既存の大規模自然画像リポジトリを活用して,画像に基づく2元特許画像検索を行う深層学習手法を提案する。
まず、深層学習を用いて自然画像からスケッチを生成して画像検索を行い、それからスケッチ上で第2の深層学習モデルを訓練する。
次に、手動でラベル付けした特許図画像の小さなセットをトランスファーラーニングを用いて、自然画像のスケッチから図への画像検索に適応させる。
本実験では,特許画像における同一に近いコピーの検出と類似画像の検索における転送学習を用いた深層学習の有効性を示す。 Resolution of the complex problem of image retrieval for diagram images has yet to be reached. Deep learning methods continue to excel in the fields of object detection and image classification applied to natural imagery. However, the application of such methodologies applied to binary imagery remains limited due to lack of crucial features such as textures,color and intensity information. This paper presents a deep learning based method for image-based search for binary patent images by taking advantage of existing large natural image repositories for image search and sketch-based methods (Sketches are not identical to diagrams, but they do share some characteristics; for example, both imagery types are gray scale (binary), composed of contours, and are lacking in texture). We begin by using deep learning to generate sketches from natural images for image retrieval and then train a second deep learning model on the sketches. We then use our small set of manually labeled patent diagram images via transfer learning to adapt the image search from sketches of natural images to diagrams. Our experiment results show the effectiveness of deep learning with transfer learning for detecting near-identical copies in patent images and querying similar images based on content. | 翻訳日:2022-12-10 18:32:36 公開日:2020-04-22 |
# オブジェクトインスタンスの継続的な学習 Continual Learning of Object Instances ( http://arxiv.org/abs/2004.10862v1 ) ライセンス: Link先を確認 | Kishan Parshotam and Mert Kilickaya | (参考訳) 連続学習の概念を同一のオブジェクトカテゴリのインスタンスを識別するタスクに適用する手法として,連続的なインスタンス学習を提案する。
私たちは特に自動車オブジェクトに注目し、メトリック学習で車のインスタンスを区別することを学びます。
本稿は,現在の技術を評価することから始める。
既往の手法では壊滅的な忘れが明らかであることを立証し、2つの治療法を提案する。
まず、正規化クロスエントロピーによるメトリック学習を規則化する。
次に,既存のモデルを合成データ転送により拡張する。
2つの異なるアーキテクチャを5つの連続学習法に用いた3つの大規模データセットに関する広範な実験により、正規化クロスエントロピーと合成転送が既存のテクニックを忘れることの少ない結果が得られた。 We propose continual instance learning - a method that applies the concept of continual learning to the task of distinguishing instances of the same object category. We specifically focus on the car object, and incrementally learn to distinguish car instances from each other with metric learning. We begin our paper by evaluating current techniques. Establishing that catastrophic forgetting is evident in existing methods, we then propose two remedies. Firstly, we regularise metric learning via Normalised Cross-Entropy. Secondly, we augment existing models with synthetic data transfer. Our extensive experiments on three large-scale datasets, using two different architectures for five different continual learning methods, reveal that Normalised cross-entropy and synthetic transfer leads to less forgetting in existing techniques. | 翻訳日:2022-12-10 18:32:17 公開日:2020-04-22 |
# 関係抽出改善のための文脈付きグラフ注意 Contextualised Graph Attention for Improved Relation Extraction ( http://arxiv.org/abs/2004.10624v1 ) ライセンス: Link先を確認 | Angrosh Mandya, Danushka Bollegala and Frans Coenen | (参考訳) 本稿では,エッジ特徴と複数のサブグラフを組み合わせたコンテキスト化グラフアテンションネットワークを提案する。
グラフベースのネットワークにおいて,複数のサブグラフを用いてリッチノード表現を学習する手法を提案する。
これにより、単一の依存木から複数のサブグラフを得る。
GATモデルとGCNモデルとを効果的に組み合わせて関係抽出に適用する2種類のエッジ特徴を提案する。
提案したモデルは、Semeval 2010 Task 8データセットで最先端のパフォーマンスを実現し、F1スコア86.3を達成する。 This paper presents a contextualized graph attention network that combines edge features and multiple sub-graphs for improving relation extraction. A novel method is proposed to use multiple sub-graphs to learn rich node representations in graph-based networks. To this end multiple sub-graphs are obtained from a single dependency tree. Two types of edge features are proposed, which are effectively combined with GAT and GCN models to apply for relation extraction. The proposed model achieves state-of-the-art performance on Semeval 2010 Task 8 dataset, achieving an F1-score of 86.3. | 翻訳日:2022-12-10 18:31:41 公開日:2020-04-22 |
# 抽象化によるスケーリング -- devitoを用いた地震インバージョンのための高性能ベクトル波シミュレーション Scaling through abstractions -- high-performance vectorial wave simulations for seismic inversion with Devito ( http://arxiv.org/abs/2004.10519v1 ) ライセンス: Link先を確認 | Mathias Louboutin, Fabio Luporini, Philipp Witte, Rhodri Nelson, George Bisbas, Jan Thorbecke, Felix J. Herrmann, and Gerard Gorman | (参考訳) Devitoは、ドメイン固有の言語とコンパイラ技術に基づくオープンソースのPythonプロジェクトです。
地震探査における高速HPCアプリケーション開発の要件により、言語とコンパイラは開始以来大きく進化してきた。
高度化境界条件、テンソル収縮、スパース演算、スタッガーグリッドやサブドメインといった機能はすべてサポートされており、本質的に任意の複雑性を持つ演算子を生成することができる。
この柔軟性を保ちながら、データ依存分析をスケジュールループに利用し、並列性などの計算能力を検出する。
本稿では、傾斜した横方向等方性媒体における擬音響波動方程式と弾性波動方程式に対するMPI並列プロパゲータの生成とシミュレーションについて述べる。
HPCクラウドシステムにおける産業規模の合成モデルを用いてシミュレーションを行い,28TFLOP/sの性能を達成した。 [Devito] is an open-source Python project based on domain-specific language and compiler technology. Driven by the requirements of rapid HPC applications development in exploration seismology, the language and compiler have evolved significantly since inception. Sophisticated boundary conditions, tensor contractions, sparse operations and features such as staggered grids and sub-domains are all supported; operators of essentially arbitrary complexity can be generated. To accommodate this flexibility whilst ensuring performance, data dependency analysis is utilized to schedule loops and detect computational-properties such as parallelism. In this article, the generation and simulation of MPI-parallel propagators (along with their adjoints) for the pseudo-acoustic wave-equation in tilted transverse isotropic media and the elastic wave-equation are presented. Simulations are carried out on industry scale synthetic models in a HPC Cloud system and reach a performance of 28TFLOP/s, hence demonstrating Devito's suitability for production-grade seismic inversion problems. | 翻訳日:2022-12-10 18:30:54 公開日:2020-04-22 |
# ディープラーニングからの構文構造 Syntactic Structure from Deep Learning ( http://arxiv.org/abs/2004.10827v1 ) ライセンス: Link先を確認 | Tal Linzen and Marco Baroni | (参考訳) 現代のディープニューラルネットワークは、機械翻訳のような広範な言語スキルを必要とするエンジニアリングアプリケーションにおいて、素晴らしいパフォーマンスを達成する。
この成功は、これらのモデルが生のデータから人間のような文法的知識を誘導しているかどうかを探究する関心を呼び起こし、その結果、言語獲得に必要な自然構造に関する長年の議論に新たな光を当てることができるかどうかを探った。
本稿では,深層ネットワークの構文能力に関する代表的な研究を調査し,この研究が理論的言語学に与える影響について考察する。 Modern deep neural networks achieve impressive performance in engineering applications that require extensive linguistic skills, such as machine translation. This success has sparked interest in probing whether these models are inducing human-like grammatical knowledge from the raw data they are exposed to, and, consequently, whether they can shed new light on long-standing debates concerning the innate structure necessary for language acquisition. In this article, we survey representative studies of the syntactic abilities of deep networks, and discuss the broader implications that this work has for theoretical linguistics. | 翻訳日:2022-12-10 18:24:16 公開日:2020-04-22 |
# 協調的身体的タスクのためのdyadic戦略の進化 Evolving Dyadic Strategies for a Cooperative Physical Task ( http://arxiv.org/abs/2004.10558v1 ) ライセンス: Link先を確認 | Saber Sheybani, Eduardo J. Izquierdo, Eatai Roth | (参考訳) 多くの協調的な物理的なタスクでは、個人が専門的な役割(例えばリーダー-フォロー)を果たす必要がある。
人間は協力者であり、これらの役割と役割間の遷移を内発的に交渉する。
しかし、どのように役割を委譲し、再配置するかは、よく分かっていない。
遺伝的アルゴリズムを用いて,シミュレートエージェントを進化させ,実現可能なロールスイッチングポリシーの空間を探索する。
これらのスイッチングポリシーを協調的な手動タスクに適用すると、エージェントは視覚的および触覚的な手掛かりを処理し、いつ役割を切り替えるかを決定する。
次に,協調関係の典型的属性である負荷共有と時間協調について,進化した仮想集団を解析した。
我々は、最高のパフォーマンスdyadは高い時間的コーディネーション(反同期)を示すことが分かる。
そして、反同期性は、協調剤のパラメータ間の対称性と相関する。
これらのシミュレーションは、人間の協力者がディアド作業における役割をどのように仲介するかを仮定している。 Many cooperative physical tasks require that individuals play specialized roles (e.g., leader-follower). Humans are adept cooperators, negotiating these roles and transitions between roles innately. Yet how roles are delegated and reassigned is not well understood. Using a genetic algorithm, we evolve simulated agents to explore a space of feasible role-switching policies. Applying these switching policies in a cooperative manual task, agents process visual and haptic cues to decide when to switch roles. We then analyze the evolved virtual population for attributes typically associated with cooperation: load sharing and temporal coordination. We find that the best performing dyads exhibit high temporal coordination (anti-synchrony). And in turn, anti-synchrony is correlated to symmetry between the parameters of the cooperative agents. These simulations furnish hypotheses as to how human cooperators might mediate roles in dyadic tasks. | 翻訳日:2022-12-10 18:23:33 公開日:2020-04-22 |
# Yoga-82:人間行動のきめ細かい分類のための新しいデータセット Yoga-82: A New Dataset for Fine-grained Classification of Human Poses ( http://arxiv.org/abs/2004.10362v1 ) ライセンス: Link先を確認 | Manisha Verma, Sudhakar Kumawat, Yuta Nakashima, Shanmuganathan Raman | (参考訳) 人間のポーズ推定は、関節の位置を特定するコンピュータビジョンにおいてよく知られた問題である。
ポーズの学習のための既存のデータセットは、ポーズの多様性、オブジェクトのオクルージョン、ビューポイントの面では不十分である。
これにより、ポーズアノテーションプロセスが比較的簡単になり、トレーニングされたモデルの適用が制限される。
人間のポーズをより多様に扱うために,ポーズ推定を分類タスクとして定式化する,きめ細かな階層的なポーズ分類の概念を提案し,82クラスからなる大規模なヨガポーズ認識のためのデータセットであるYoga-82を提案する。
Yoga-82は、細かいアノテーションができない複雑なポーズで構成されている。
これを解決するために,ポーズの身体構成に基づいたヨガポーズの階層ラベルを提供する。
データセットには、体位、体位の変化、実際のポーズ名を含む3段階の階層が含まれている。
ヨガ82における最先端の畳み込みニューラルネットワークアーキテクチャの分類精度について述べる。
また,階層ラベルを利用するために,いくつかの階層的変種を提案する。 Human pose estimation is a well-known problem in computer vision to locate joint positions. Existing datasets for the learning of poses are observed to be not challenging enough in terms of pose diversity, object occlusion, and viewpoints. This makes the pose annotation process relatively simple and restricts the application of the models that have been trained on them. To handle more variety in human poses, we propose the concept of fine-grained hierarchical pose classification, in which we formulate the pose estimation as a classification task, and propose a dataset, Yoga-82, for large-scale yoga pose recognition with 82 classes. Yoga-82 consists of complex poses where fine annotations may not be possible. To resolve this, we provide hierarchical labels for yoga poses based on the body configuration of the pose. The dataset contains a three-level hierarchy including body positions, variations in body positions, and the actual pose names. We present the classification accuracy of the state-of-the-art convolutional neural network architectures on Yoga-82. We also present several hierarchical variants of DenseNet in order to utilize the hierarchical labels. | 翻訳日:2022-12-10 18:23:22 公開日:2020-04-22 |
# グラフベースキンシップ推論ネットワーク Graph-based Kinship Reasoning Network ( http://arxiv.org/abs/2004.10375v1 ) ライセンス: Link先を確認 | Wanhua Li, Yingqiang Zhang, Kangchen Lv, Jiwen Lu, Jianjiang Feng, and Jie Zhou | (参考訳) 本稿では,画像ペアの抽出特徴に基づく関係推論を効果的に行うことを目的とした,親族検証のためのグラフベース親族推論(GKR)ネットワークを提案する。
識別的特徴の学習方法に主眼を置いている既存の方法とは異なり,抽出した特徴対を比較・融合して親類関係を解明する方法を検討する。
提案したGKRは、各周辺ノードが1つの特徴次元における情報比較を表現し、中心ノードが周辺ノード間の情報通信のブリッジとして使用される、親和関係グラフと呼ばれる星グラフを構築する。
そして、GKRはこのグラフ上で再帰的メッセージパッシングを伴う関係推論を行う。
KinFaceW-IとKinFaceW-IIデータセットの大規模な実験結果から、提案したGKRは最先端の手法よりも優れていることが示された。 In this paper, we propose a graph-based kinship reasoning (GKR) network for kinship verification, which aims to effectively perform relational reasoning on the extracted features of an image pair. Unlike most existing methods which mainly focus on how to learn discriminative features, our method considers how to compare and fuse the extracted feature pair to reason about the kin relations. The proposed GKR constructs a star graph called kinship relational graph where each peripheral node represents the information comparison in one feature dimension and the central node is used as a bridge for information communication among peripheral nodes. Then the GKR performs relational reasoning on this graph with recursive message passing. Extensive experimental results on the KinFaceW-I and KinFaceW-II datasets show that the proposed GKR outperforms the state-of-the-art methods. | 翻訳日:2022-12-10 18:23:05 公開日:2020-04-22 |
# ローン計測における画像処理失敗とディープラーニング成功 Image Processing Failure and Deep Learning Success in Lawn Measurement ( http://arxiv.org/abs/2004.10382v1 ) ライセンス: Link先を確認 | J. Wilkins, M. V. Nguyen, B. Rahmani | (参考訳) 芝生面積の測定は画像処理とディープラーニングの応用である。
研究者たちは階層ネットワーク、セグメンテーション画像、その他多くの方法を使って芝生面積を測定している。
有効性と正確性は様々である。
このプロジェクトでは、画像処理と深層学習法を比較し、芝生の面積を測定する最善の方法を見出した。
OpenCVを用いた3つの画像処理手法は、最も有名で効果的なディープラーニング手法の一つである畳み込みニューラルネットワークと比較されている。
我々はKerasとTensorFlowを使って芝生の面積を推定した。
畳み込みニューラルネットワーク(CNN)は、この目的に対して非常に高い精度(94-97%)を示す。
画像処理では,芝生面積の測定には80~87%の精度とエッジ検出のしきい値が有効であるが,26~31%の精度では芝生面積を計算できない。
深層学習法,特にcnnは,画像処理や他の深層学習法と比較して,最善の探索法であると考えられる。 Lawn area measurement is an application of image processing and deep learning. Researchers have been used hierarchical networks, segmented images and many other methods to measure lawn area. Methods effectiveness and accuracy varies. In this project Image processing and deep learning methods has been compared to find the best way to measure the lawn area. Three Image processing methods using OpenCV has been compared to Convolutional Neural network which is one of the most famous and effective deep learning methods. We used Keras and TensorFlow to estimate the lawn area. Convolutional Neural Network or shortly CNN shows very high accuracy (94-97%) for this purpose. In image processing methods, Thresholding with 80-87% accuracy and Edge detection are effective methods to measure the lawn area but Contouring with 26-31% accuracy does not calculate the lawn area successfully. We may conclude that deep learning methods especially CNN could be the best detective method comparing to image processing and other deep learning techniques. | 翻訳日:2022-12-10 18:22:51 公開日:2020-04-22 |
# 軌道予測のための再帰的社会行動グラフ Recursive Social Behavior Graph for Trajectory Prediction ( http://arxiv.org/abs/2004.10402v1 ) ライセンス: Link先を確認 | Jianhua Sun, Qinhong Jiang, Cewu Lu | (参考訳) 社会的相互作用は、可塑性経路を生成するための人間の軌道予測において重要なトピックである。
本稿では,歩行者間の関係を探究するグループ型ソーシャルインタラクションモデルの新たな知見を提案する。
グループベースのアノテーションによって管理される社会的表現を再帰的に抽出し、それを再帰的社会行動グラフと呼ばれる社会行動グラフに定式化する。
我々の再帰的なメカニズムは表現力を大きく探求する。
グラフ畳み込みニューラルネットワークは、そのようなグラフで社会的相互作用情報を伝達するために使用される。
再帰的社会行動グラフの指導により、eth と ucy データセットの最先端の手法を ade では11.1%、fde では10.8% で上回り、複雑な社会行動の予測に成功している。 Social interaction is an important topic in human trajectory prediction to generate plausible paths. In this paper, we present a novel insight of group-based social interaction model to explore relationships among pedestrians. We recursively extract social representations supervised by group-based annotations and formulate them into a social behavior graph, called Recursive Social Behavior Graph. Our recursive mechanism explores the representation power largely. Graph Convolutional Neural Network then is used to propagate social interaction information in such a graph. With the guidance of Recursive Social Behavior Graph, we surpass state-of-the-art method on ETH and UCY dataset for 11.1% in ADE and 10.8% in FDE in average, and successfully predict complex social behaviors. | 翻訳日:2022-12-10 18:22:36 公開日:2020-04-22 |
# 畳み込みトレース解析によるディープフェイク検出 DeepFake Detection by Analyzing Convolutional Traces ( http://arxiv.org/abs/2004.10448v1 ) ライセンス: Link先を確認 | Luca Guarnera (1 and 2), Oliver Giudice (1), Sebastiano Battiato (1 and 2) ((1) University of Catania, (2) iCTLab s.r.l. - Spin-off of University of Catania) | (参考訳) ディープフェイク現象は、主にgan(ad-hoc generative adversarial networks)に基づいて、ディープラーニングツールを使用して信じられないほどリアルなイメージを作成できる可能性によって、現在非常に人気がある。
本研究では,人間の顔のディープフェイクの分析に焦点をあて,画像に隠された法医学的痕跡を検出できる新たな検出方法(画像生成プロセスに残されている指紋の一種)を作成することを目的とした。
提案手法は, 予測最大化(EM)アルゴリズムを用いて, 基礎となる畳み込み生成過程をモデル化するための局所的特徴の集合を抽出する。
5つの異なるアーキテクチャ(GDWCT, STARGAN, ATTGAN, STYLEGAN, STYLEGAN2)上で, CELEBAデータセットを非フェイクのグラウンドトルースとして, ナイーブ分類器を用いて実験的に検証した。
その結果、異なるアーキテクチャと対応する生成過程を区別する手法の有効性が示された。 The Deepfake phenomenon has become very popular nowadays thanks to the possibility to create incredibly realistic images using deep learning tools, based mainly on ad-hoc Generative Adversarial Networks (GAN). In this work we focus on the analysis of Deepfakes of human faces with the objective of creating a new detection method able to detect a forensics trace hidden in images: a sort of fingerprint left in the image generation process. The proposed technique, by means of an Expectation Maximization (EM) algorithm, extracts a set of local features specifically addressed to model the underlying convolutional generative process. Ad-hoc validation has been employed through experimental tests with naive classifiers on five different architectures (GDWCT, STARGAN, ATTGAN, STYLEGAN, STYLEGAN2) against the CELEBA dataset as ground-truth for non-fakes. Results demonstrated the effectiveness of the technique in distinguishing the different architectures and the corresponding generation process. | 翻訳日:2022-12-10 18:22:20 公開日:2020-04-22 |
# 事前学習した言語モデルによるキーフレーズ予測 Keyphrase Prediction With Pre-trained Language Model ( http://arxiv.org/abs/2004.10462v1 ) ライセンス: Link先を確認 | Rui Liu, Zheng Lin, Weiping Wang | (参考訳) 近年、キーフレーズ予測において、ソーステキストに現れる現在のキーフレーズと、ソーステキストにマッチしないキーフレーズの両方を生成する能力により、生成手法が広く使われている。
しかし、先行研究は主に複写機構と選択語を段階的に踏襲する生成モデルを用いているため、現在のキーフレーズ予測の性能を犠牲にして、欠落したキーフレーズが生成される。
さらに、テキストスパンを直接抽出する抽出モデルは、現在のキーフレーズを予測するのにより適している。
抽出法と生成法の違いを考慮して,キーフレーズ予測を2つのサブタスク,すなわち現在キーフレーズ抽出(PKE)と欠キーフレーズ生成(AKG)に分割し,それぞれの利点をフル活用することを提案する。
この観点から、BERTを2つのサブタスクで活用するために、共同推論フレームワークが提案されている。
PKEでは、事前学習された言語モデルBERTのシーケンスラベル問題としてこの問題に取り組む。
AKG では,PKE から学んだキーフレーズの知識を細調整した BERT で完全に統合した Transformer ベースのアーキテクチャを提案する。
実験の結果,ベンチマークデータセットの両タスクにおいて最先端の結果が得られることがわかった。 Recently, generative methods have been widely used in keyphrase prediction, thanks to their capability to produce both present keyphrases that appear in the source text and absent keyphrases that do not match any source text. However, the absent keyphrases are generated at the cost of the performance on present keyphrase prediction, since previous works mainly use generative models that rely on the copying mechanism and select words step by step. Besides, the extractive model that directly extracts a text span is more suitable for predicting the present keyphrase. Considering the different characteristics of extractive and generative methods, we propose to divide the keyphrase prediction into two subtasks, i.e., present keyphrase extraction (PKE) and absent keyphrase generation (AKG), to fully exploit their respective advantages. On this basis, a joint inference framework is proposed to make the most of BERT in two subtasks. For PKE, we tackle this task as a sequence labeling problem with the pre-trained language model BERT. For AKG, we introduce a Transformer-based architecture, which fully integrates the present keyphrase knowledge learned from PKE by the fine-tuned BERT. The experimental results show that our approach can achieve state-of-the-art results on both tasks on benchmark datasets. | 翻訳日:2022-12-10 18:15:14 公開日:2020-04-22 |
# コンテキストはどこにありますか?
--最近の対話データセットの批判 Where is the context? -- A critique of recent dialogue datasets ( http://arxiv.org/abs/2004.10473v1 ) ライセンス: Link先を確認 | Johannes E. M. Mosig, Vladimir Vlasov, Alan Nichol | (参考訳) multiwoz 2.1やtaskmaster-1といった最近の対話データセットは、現在の対話モデルにとって最も難しいタスクであり、システム評価に広く使われている。
上記のデータセットには、履歴独立、強い知識ベース依存、曖昧なシステム応答など、いくつかの問題がある。
最後に、対話型人工知能の構築にもっと適していると思われる将来のデータセットについて、重要なデシデラタを概説する。 Recent dialogue datasets like MultiWOZ 2.1 and Taskmaster-1 constitute some of the most challenging tasks for present-day dialogue models and, therefore, are widely used for system evaluation. We identify several issues with the above-mentioned datasets, such as history independence, strong knowledge base dependence, and ambiguous system responses. Finally, we outline key desiderata for future datasets that we believe would be more suitable for the construction of conversational artificial intelligence. | 翻訳日:2022-12-10 18:14:51 公開日:2020-04-22 |
# 教師なしのニューラルマシン翻訳はいつ、なぜ役に立たないのか? When and Why is Unsupervised Neural Machine Translation Useless? ( http://arxiv.org/abs/2004.10581v1 ) ライセンス: Link先を確認 | Yunsu Kim, Miguel Gra\c{c}a, Hermann Ney | (参考訳) 本稿では,ニューラルマシン翻訳(NMT)における最先端の教師なし手法の実用性について検討する。
様々なデータ設定を持つ10の翻訳タスクにおいて、教師なし手法が妥当な翻訳を生成できない条件を分析する。
本報告では, 言語的相違やドメインミスマッチにより, その性能に深刻な影響があることが示される。
このような条件は、教師なし学習が不十分な低リソース言語ペアに共通している。
全実験において,50k文のバイリンガルデータを用いた教師なしおよび半教師なしのベースラインは,教師なしの結果よりも優れていた。
本解析は,現在教師なしのnmtの限界を突き止め,即時研究の方向性を示唆する。 This paper studies the practicality of the current state-of-the-art unsupervised methods in neural machine translation (NMT). In ten translation tasks with various data settings, we analyze the conditions under which the unsupervised methods fail to produce reasonable translations. We show that their performance is severely affected by linguistic dissimilarity and domain mismatch between source and target monolingual data. Such conditions are common for low-resource language pairs, where unsupervised learning works poorly. In all of our experiments, supervised and semi-supervised baselines with 50k-sentence bilingual data outperform the best unsupervised results. Our analyses pinpoint the limits of the current unsupervised NMT and also suggest immediate research directions. | 翻訳日:2022-12-10 18:14:43 公開日:2020-04-22 |
# R-VGAE:教師なし連鎖学習のための関係変分グラフオートエンコーダ R-VGAE: Relational-variational Graph Autoencoder for Unsupervised Prerequisite Chain Learning ( http://arxiv.org/abs/2004.10610v1 ) ライセンス: Link先を確認 | Irene Li, Alexander Fabbri, Swapnil Hingmire and Dragomir Radev | (参考訳) 概念連鎖学習の課題は、概念ペア間の前提連鎖の存在を自動的に決定することである。
本稿では,学習中にラベル付き概念ペアにアクセスできない教師なしタスクとして,概念間の必須関係を学習する。
本稿では,関係変数グラフオートエンコーダ(r-vgae)と呼ばれるモデルを提案し,概念と資源ノードからなるグラフ内の概念関係を予測する。
その結果, 教師なし手法は, グラフベースの半教師付き手法やベースライン法よりも9.77%, 10.47%, 前提条件関係予測精度とF1スコアに優れていた。
提案手法は,教師なし事前学習のタスクに深層学習表現を適用しようとする最初のグラフベースモデルである。
また,既存のコーパスを拡張し,英語自然言語処理(NLP)に関連する講義スライドファイルと手動概念ペアアノテーションを322のトピックにまとめる。 The task of concept prerequisite chain learning is to automatically determine the existence of prerequisite relationships among concept pairs. In this paper, we frame learning prerequisite relationships among concepts as an unsupervised task with no access to labeled concept pairs during training. We propose a model called the Relational-Variational Graph AutoEncoder (R-VGAE) to predict concept relations within a graph consisting of concept and resource nodes. Results show that our unsupervised approach outperforms graph-based semi-supervised methods and other baseline methods by up to 9.77% and 10.47% in terms of prerequisite relation prediction accuracy and F1 score. Our method is notably the first graph-based model that attempts to make use of deep learning representations for the task of unsupervised prerequisite learning. We also expand an existing corpus which totals 1,717 English Natural Language Processing (NLP)-related lecture slide files and manual concept pair annotations over 322 topics. | 翻訳日:2022-12-10 18:14:34 公開日:2020-04-22 |
# リンク予測のための多言語記述の活用による意味的エンティティエンリッチメント Semantic Entity Enrichment by Leveraging Multilingual Descriptions for Link Prediction ( http://arxiv.org/abs/2004.10640v1 ) ライセンス: Link先を確認 | Genet Asefa Gesese, Mehwish Alam and Harald Sack | (参考訳) 多くの知識グラフ(KG)は、様々な自然言語のエンティティのテキスト記述を含んでいる。
これらの実体の記述は、KGの構造部分で明示的に表現されない貴重な情報を提供する。
この事実に基づいて、エンティティのテキスト記述に提示される情報を利用したリンク予測手法が提案され、(単言語)KGの表現を学習している。
しかし、これらの手法は1つの言語でのみエンティティ記述を使用し、異なる言語で与えられた記述が相補的な情報を提供し、追加のセマンティクスを提供するという事実を無視する。
本稿では,KGsにおけるリンク予測のための多言語実体記述を効果的に活用する問題と,その問題の潜在的な解決策について論じる。 Most Knowledge Graphs (KGs) contain textual descriptions of entities in various natural languages. These descriptions of entities provide valuable information that may not be explicitly represented in the structured part of the KG. Based on this fact, some link prediction methods which make use of the information presented in the textual descriptions of entities have been proposed to learn representations of (monolingual) KGs. However, these methods use entity descriptions in only one language and ignore the fact that descriptions given in different languages may provide complementary information and thereby also additional semantics. In this position paper, the problem of effectively leveraging multilingual entity descriptions for the purpose of link prediction in KGs will be discussed along with potential solutions to the problem. | 翻訳日:2022-12-10 18:14:14 公開日:2020-04-22 |
# Universal Dependencies v2: 成長を続ける多言語ツリーバンクコレクション Universal Dependencies v2: An Evergrowing Multilingual Treebank Collection ( http://arxiv.org/abs/2004.10643v1 ) ライセンス: Link先を確認 | Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Haji\v{c}, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, Daniel Zeman | (参考訳) universal dependenciesは、依存ベースのレキシカリストフレームワーク内で、多くの言語でクロス言語的に一貫性のあるツリーバンクアノテーションを作成するためのオープンコミュニティの取り組みである。
アノテーションは、言語的に動機づけられた単語分割と、補題、普遍的な形容詞タグ、標準化された形態素的特徴からなる形態素層と、述語、引数、修飾子間の構文的関係に焦点を当てた構文層からなる。
本稿では,ガイドライン(UD v2)のバージョン2について述べるとともに,UD v1からUD v2への大幅な変更について論じ,現在利用可能な90言語用ツリーバンクの概要を紹介する。 Universal Dependencies is an open community effort to create cross-linguistically consistent treebank annotation for many languages within a dependency-based lexicalist framework. The annotation consists in a linguistically motivated word segmentation; a morphological layer comprising lemmas, universal part-of-speech tags, and standardized morphological features; and a syntactic layer focusing on syntactic relations between predicates, arguments and modifiers. In this paper, we describe version 2 of the guidelines (UD v2), discuss the major changes from UD v1 to UD v2, and give an overview of the currently available treebanks for 90 languages. | 翻訳日:2022-12-10 18:14:01 公開日:2020-04-22 |
# 一握りの例を与えられた意図とスロットラベルを分類する学習 Learning to Classify Intents and Slot Labels Given a Handful of Examples ( http://arxiv.org/abs/2004.10793v1 ) ライセンス: Link先を確認 | Jason Krone, Yi Zhang, Mona Diab | (参考訳) インテント分類(IC)とスロットフィリング(SF)は、ほとんどのゴール指向対話システムにおいて中核的なコンポーネントである。
現在のIC/SFモデルは、クラスごとのトレーニング例の数が少ないとパフォーマンスが悪くなります。
超低リソースシナリオにおいて、トレーニング時に見えないクラスにおいて、ICモデルとSFモデルの性能を研究・改善するために、新しい数ショット学習タスク、IC/SFを提案する。
我々は,ATIS,TOP,Snipsの3つの公開IC/SFデータセットに対して,数ショットの分割を定義することで,数ショットのIC/SFベンチマークを確立する。
モデル非依存型メタラーニング(MAML)とプロトタイプネットワークという2つの一般的な数ショット学習アルゴリズムが,このベンチマークの微調整ベースラインを上回っていることを示す。
原型ネットワークはATISおよびTOPデータセット上でのIC性能の大幅な向上を実現し、一方、原型ネットワークとMAMLはいずれも3つのデータセットのSFに対してベースラインを上回っている。
さらに,事前学習された言語モデルである elmo と bert を併用した共同学習が,これらの数少ない学習手法を補完し,さらなる成果をもたらすことを実証した。 Intent classification (IC) and slot filling (SF) are core components in most goal-oriented dialogue systems. Current IC/SF models perform poorly when the number of training examples per class is small. We propose a new few-shot learning task, few-shot IC/SF, to study and improve the performance of IC and SF models on classes not seen at training time in ultra low resource scenarios. We establish a few-shot IC/SF benchmark by defining few-shot splits for three public IC/SF datasets, ATIS, TOP, and Snips. We show that two popular few-shot learning algorithms, model agnostic meta learning (MAML) and prototypical networks, outperform a fine-tuning baseline on this benchmark. Prototypical networks achieves significant gains in IC performance on the ATIS and TOP datasets, while both prototypical networks and MAML outperform the baseline with respect to SF on all three datasets. In addition, we demonstrate that joint training as well as the use of pre-trained language models, ELMo and BERT in our case, are complementary to these few-shot learning methods and yield further gains. | 翻訳日:2022-12-10 18:13:38 公開日:2020-04-22 |
# 言語間単語埋め込みのためのコンテキストウィンドウの再検討 Revisiting the Context Window for Cross-lingual Word Embeddings ( http://arxiv.org/abs/2004.10813v1 ) ライセンス: Link先を確認 | Ryokan Ri and Yoshimasa Tsuruoka | (参考訳) マッピングに基づく言語間埋め込みに対する既存のアプローチは、ソースとターゲットの埋め込み空間が構造的に似ているという仮定に基づいている。
埋め込み空間の構造は、コンテキストウィンドウの選択が決定する各単語の共起統計に大きく依存する。
コンテキストウィンドウとマッピングベースの言語間埋め込みの間に明らかな関係があるにもかかわらず、それらの関係は以前の作業では過小評価されている。
本研究では,様々な言語,ドメイン,タスクにおいて,異なるコンテキストウィンドウで訓練されたバイリンガル埋め込みの徹底的な評価を行う。
本研究のハイライトは,ソースとターゲットのウィンドウサイズが大きくなると,バイリンガル語彙誘導の性能が向上し,特に頻度の高い名詞での性能が向上する点である。 Existing approaches to mapping-based cross-lingual word embeddings are based on the assumption that the source and target embedding spaces are structurally similar. The structures of embedding spaces largely depend on the co-occurrence statistics of each word, which the choice of context window determines. Despite this obvious connection between the context window and mapping-based cross-lingual embeddings, their relationship has been underexplored in prior work. In this work, we provide a thorough evaluation, in various languages, domains, and tasks, of bilingual embeddings trained with different context windows. The highlight of our findings is that increasing the size of both the source and target window sizes improves the performance of bilingual lexicon induction, especially the performance on frequent nouns. | 翻訳日:2022-12-10 18:13:04 公開日:2020-04-22 |
# 畳み込みニューラルネットワークを用いた自動ポリープ分割 Automatic Polyp Segmentation Using Convolutional Neural Networks ( http://arxiv.org/abs/2004.10792v1 ) ライセンス: Link先を確認 | Sara Hosseinzadeh Kassani, Peyman Hosseinzadeh Kassani, Michal J. Wesolowski, Kevin A. Schneider, Ralph Deters | (参考訳) 大腸癌は、肺がんと乳がんの3番目に多いがん関連死である。
大腸内視鏡検査ではポリープの早期診断により大腸癌発症リスクを軽減できる。
コンピュータ支援診断システムは,ポリプスクリーニングや欠落ポリープ数の削減に応用できる可能性がある。
本稿では,U-Netアーキテクチャのエンコーダ部におけるResNet,DenseNet,InceptionV3,InceptionResNetV2,SE-ResNeXtなど,さまざまなディープラーニングアーキテクチャの性能を特徴抽出器として比較する。
我々は,CVC-Clinic (GIANA 2018)データセット上で提示されたアンサンブルモデルの性能を検証した。
DenseNet169の特徴抽出器とU-Netアーキテクチャが組み合わされ、99.15\%の精度、90.87%のDice類似度係数、83.82%のJaccardインデックスが達成された。 Colorectal cancer is the third most common cancer-related death after lung cancer and breast cancer worldwide. The risk of developing colorectal cancer could be reduced by early diagnosis of polyps during a colonoscopy. Computer-aided diagnosis systems have the potential to be applied for polyp screening and reduce the number of missing polyps. In this paper, we compare the performance of different deep learning architectures as feature extractors, i.e. ResNet, DenseNet, InceptionV3, InceptionResNetV2 and SE-ResNeXt in the encoder part of a U-Net architecture. We validated the performance of presented ensemble models on the CVC-Clinic (GIANA 2018) dataset. The DenseNet169 feature extractor combined with U-Net architecture outperformed the other counterparts and achieved an accuracy of 99.15\%, Dice similarity coefficient of 90.87%, and Jaccard index of 83.82%. | 翻訳日:2022-12-10 18:06:36 公開日:2020-04-22 |
# 土地利用分類における不均質領域適応のためのサイクルGANアプローチ A Cycle GAN Approach for Heterogeneous Domain Adaptation in Land Use Classification ( http://arxiv.org/abs/2004.11245v1 ) ライセンス: Link先を確認 | Claire Voreiter (OBELIX), Jean-Christophe Burnel (OBELIX), Pierre Lassalle (CNES), Marc Spigai (TAS), Romain Hugues (TAS), Nicolas Courty (FT R&D, OBELIX) | (参考訳) リモートセンシングの分野、特に地球観測の分野では、異なるセンサーから得られる新しいデータが毎日利用可能である。
分類タスクにおけるこれらのデータを活用するには、運用環境では現実的ではない強力なラベリングタスクの価格がかかる。
ドメイン適応はこの問題を解決するのに有用であるが、一般的な方法のほとんどは、適応するデータは同等(それらは同じ距離空間に属する)であると仮定している。
不均一領域適応法はこの問題の特定の解である。
本稿では,分類損失と距離空間アライメント項を組み込んだ改良型サイクルGANを用いて,そのようなケースに対処する新しい手法を提案する。
我々は、Google EarthとSentinel-2の画像を用いて、土地利用分類タスクのパワーを実証する。 In the field of remote sensing and more specifically in Earth Observation, new data are available every day, coming from different sensors. Leveraging on those data in classification tasks comes at the price of intense labelling tasks that are not realistic in operational settings. While domain adaptation could be useful to counterbalance this problem, most of the usual methods assume that the data to adapt are comparable (they belong to the same metric space), which is not the case when multiple sensors are at stake. Heterogeneous domain adaptation methods are a particular solution to this problem. We present a novel method to deal with such cases, based on a modified cycleGAN version that incorporates classification losses and a metric space alignment term. We demonstrate its power on a land use classification tasks, with images from both Google Earth and Sentinel-2. | 翻訳日:2022-12-10 18:06:20 公開日:2020-04-22 |
# モデルプルーニングとコンパイラ最適化によるモバイルプラットフォームでのリアルタイムdnn推論 Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning and Compiler Optimization ( http://arxiv.org/abs/2004.11250v1 ) ライセンス: Link先を確認 | Wei Niu, Pu Zhao, Zheng Zhan, Xue Lin, Yanzhi Wang, Bin Ren | (参考訳) ハイエンドなモバイルプラットフォームは、広範囲のDeep Neural Network (DNN)アプリケーションのためのプライマリコンピューティングデバイスとして急速に機能している。
しかし、これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムDNN推論実行に依然として大きな課題を生んでいる。
そこで本研究では,モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
このデモでは、これらの最適化により、スタイル転送、DNNカラー化、スーパー解像度など、複数のDNNアプリケーションのリアルタイムモバイル実行が可能になる。 High-end mobile platforms rapidly serve as primary computing devices for a wide range of Deep Neural Network (DNN) applications. However, the constrained computation and storage resources on these devices still pose significant challenges for real-time DNN inference executions. To address this problem, we propose a set of hardware-friendly structured model pruning and compiler optimization techniques to accelerate DNN executions on mobile devices. This demo shows that these optimizations can enable real-time mobile execution of multiple DNN applications, including style transfer, DNN coloring and super resolution. | 翻訳日:2022-12-10 18:06:07 公開日:2020-04-22 |
# ブリッジアイインスペクションにおけるピクセル単位のレバー露光 Per-pixel Classification Rebar Exposures in Bridge Eye-inspection ( http://arxiv.org/abs/2004.12805v1 ) ライセンス: Link先を確認 | Takato Yasuno, Nakajima Michihiro, and Noda Kazuhiro | (参考訳) 完成から50年を経過した民間インフラでは,効率的な検査と正確な診断が必要である。
特に市町村では、技術スタッフの不足と修理費の予算制約が問題となっている。
5段階の目視判定と対応分類に加えて、検査記録の記録から自動的に1ピクセル当たりの損傷写真を検出することができれば、補修が必要か、どの程度のダメージ利息を暴露するかに関わらず、より柔軟に対策情報を提供できる可能性がある。
検出対象が撮影される範囲が1%以上で、損傷の周囲をズームしない限り、ダメージ写真はスパースされることが多い。
一般的には、反バーの露出が頻繁に発生し、補修措置を判断する機会も多い。
本稿では,人間の目視の損傷写真を用いて,低画素画像のセマンティックセグメンテーションを可能にするトランスファー学習の3つの損傷検出手法を提案する。
また、回転するランダムな作物が生成される前処理により、スクラッチから深層畳み込みネットワークを構築しようとした。
実世界106本の橋上208枚の残響画像を用いて,本手法を適用した。
最後に,損傷検出モデリングの今後の課題について述べる。 Efficient inspection and accurate diagnosis are required for civil infrastructures with 50 years since completion. Especially in municipalities, the shortage of technical staff and budget constraints on repair expenses have become a critical problem. If we can detect damaged photos automatically per-pixels from the record of the inspection record in addition to the 5-step judgment and countermeasure classification of eye-inspection vision, then it is possible that countermeasure information can be provided more flexibly, whether we need to repair and how large the expose of damage interest. A piece of damage photo is often sparse as long as it is not zoomed around damage, exactly the range where the detection target is photographed, is at most only 1%. Generally speaking, rebar exposure is frequently occurred, and there are many opportunities to judge repair measure. In this paper, we propose three damage detection methods of transfer learning which enables semantic segmentation in an image with low pixels using damaged photos of human eye-inspection. Also, we tried to create a deep convolutional network from scratch with the preprocessing that random crops with rotations are generated. In fact, we show the results applied this method using the 208 rebar exposed images on the 106 real-world bridges. Finally, future tasks of damage detection modeling are mentioned. | 翻訳日:2022-12-10 18:05:58 公開日:2020-04-22 |
# Bluetooth低エネルギー測定によるSARS-CoV-2伝送のリスク推定 Risk Estimation of SARS-CoV-2 Transmission from Bluetooth Low Energy Measurements ( http://arxiv.org/abs/2004.11841v1 ) ライセンス: Link先を確認 | Felix Sattler, Jackie Ma, Patrick Wagner, David Neumann, Markus Wenzel, Ralf Sch\"afer, Wojciech Samek, Klaus-Robert M\"uller, Thomas Wiegand | (参考訳) Bluetooth Low Energy (BLE) に基づくデジタル接触追跡手法は、SARS-CoV-2パンデミックのような感染症の発生を効果的に封じ込め、遅らせる可能性がある。
本研究は,感染リスクの高い近距離で十分な時間を費やした被験者を確実に検出するための,機械学習に基づく新しいアプローチを提案する。
私たちの研究は、新型コロナウイルスの急速な拡大を遅らせるべく、疫学的な政策のバッテリーを補助する重要な概念実証です。 Digital contact tracing approaches based on Bluetooth low energy (BLE) have the potential to efficiently contain and delay outbreaks of infectious diseases such as the ongoing SARS-CoV-2 pandemic. In this work we propose a novel machine learning based approach to reliably detect subjects that have spent enough time in close proximity to be at risk of being infected. Our study is an important proof of concept that will aid the battery of epidemiological policies aiming to slow down the rapid spread of COVID-19. | 翻訳日:2022-12-10 18:04:50 公開日:2020-04-22 |
# 自然言語生成における多様性と品質の取引 Trading Off Diversity and Quality in Natural Language Generation ( http://arxiv.org/abs/2004.10450v1 ) ライセンス: Link先を確認 | Hugh Zhang, Daniel Duckworth, Daphne Ippolito, Arvind Neelakantan | (参考訳) ストーリーテリングや対話のようなオープンな言語生成タスクでは、生成品質と多様性のトレードオフを制御するために適切な復号アルゴリズムを選択することが重要である。
しかし、現在、どの復号処理が最適か、あるいは比較する基準について合意が得られていない。
応答品質と多様性の両方を同時に最大化することを目的とした多目的最適化問題としてデコーディングをキャストすることで、これらの問題に対処する。
提案手法は,品質・多様性スペクトル全体に沿ってデコード法を初めて大規模に評価することを可能にする。
多様性が優先される場合、全ての手法が同様に動作するが、品質がより重要であると判断された場合、最近提案された核サンプリング(Holtzman et al. 2019)は、他の評価された復号アルゴリズムよりも優れている。
また,「類似トラップ」の存在も確認し,高い確率列が驚くほど低品質であることの反直感的観察を行った。
我々はこの結果を利用して,グローバル正規化温度サンプリングを気軽に近似するアルゴリズム \emph{selective sampling} の作成と評価を行った。 For open-ended language generation tasks such as storytelling and dialogue, choosing the right decoding algorithm is critical to controlling the tradeoff between generation quality and diversity. However, there presently exists no consensus on which decoding procedure is best or even the criteria by which to compare them. We address these issues by casting decoding as a multi-objective optimization problem aiming to simultaneously maximize both response quality and diversity. Our framework enables us to perform the first large-scale evaluation of decoding methods along the entire quality-diversity spectrum. We find that when diversity is a priority, all methods perform similarly, but when quality is viewed as more important, the recently proposed nucleus sampling (Holtzman et al. 2019) outperforms all other evaluated decoding algorithms. Our experiments also confirm the existence of the `likelihood trap', the counter-intuitive observation that high likelihood sequences are often surprisingly low quality. We leverage our findings to create and evaluate an algorithm called \emph{selective sampling} which tractably approximates globally-normalized temperature sampling. | 翻訳日:2022-12-10 18:04:24 公開日:2020-04-22 |
# 単純再帰単位を用いた深いガウス過程に基づく音声合成のための発話レベル逐次モデリング Utterance-level Sequential Modeling For Deep Gaussian Process Based Speech Synthesis Using Simple Recurrent Unit ( http://arxiv.org/abs/2004.10823v1 ) ライセンス: Link先を確認 | Tomoki Koriyama, Hiroshi Saruwatari | (参考訳) 本稿では,音声シーケンスモデリングのための繰り返しアーキテクチャを用いたディープガウス過程(DGP)モデルを提案する。
dgpはベイズ深層モデルであり、モデルの複雑さを考慮して効果的に訓練することができ、高い表現可能性を持つカーネル回帰モデルである。
従来の研究では、DGPに基づく音声合成は、両方のモデルがフィードフォワードアーキテクチャを使用したニューラルネットワークよりも優れていた。
本稿では、合成音声の自然性を改善するために、繰り返しアーキテクチャモデルを用いた発話レベルモデリングにDGPを適用することができることを示す。
本稿では,SRUの高並列化特性を用いて,高速な音声パラメータ生成を実現するため,提案モデルにSRU(Simple Recurrent Unit)を適用した。
目的および主観評価結果から,提案したSRU-DGPに基づく音声合成は,フィードフォワードDGPだけでなく,SRU-および長短期記憶(LSTM)ベースのニューラルネットワークを自動調整した。 This paper presents a deep Gaussian process (DGP) model with a recurrent architecture for speech sequence modeling. DGP is a Bayesian deep model that can be trained effectively with the consideration of model complexity and is a kernel regression model that can have high expressibility. In the previous studies, it was shown that the DGP-based speech synthesis outperformed neural network-based one, in which both models used a feed-forward architecture. To improve the naturalness of synthetic speech, in this paper, we show that DGP can be applied to utterance-level modeling using recurrent architecture models. We adopt a simple recurrent unit (SRU) for the proposed model to achieve a recurrent architecture, in which we can execute fast speech parameter generation by using the high parallelization nature of SRU. The objective and subjective evaluation results show that the proposed SRU-DGP-based speech synthesis outperforms not only feed-forward DGP but also automatically tuned SRU- and long short-term memory (LSTM)-based neural networks. | 翻訳日:2022-12-10 17:58:03 公開日:2020-04-22 |
# シェイプレット変換の地震・風・波動データの時系列分類への応用 Applications of shapelet transform to time series classification of earthquake, wind and wave data ( http://arxiv.org/abs/2004.11243v1 ) ライセンス: Link先を確認 | Monica Arul and Ahsan Kareem | (参考訳) 時系列分類を用いた大規模データベースからの望ましいイベントの自動検出は、建物、橋、塔、およびオフショアプラットフォームを含む多数のエンジニアリング構造物の長期にわたる健康モニタリングの結果、土木工学においてますます重要になっている。
本稿では,時系列列列の形状の局所的類似性に基づく比較的新しい時系列表現である「シェープレット変換」の適用法を提案する。
地震・風・海洋工学における時系列信号特有の特性を考慮すると、この変換の適用により、新しい形状に基づく特徴表現が得られる。
この形状に基づく表現と標準機械学習アルゴリズムを組み合わせることで、真に「ホワイトボックス」な機械学習モデルを理解可能な特徴と透明なアルゴリズムで提案する。
このモデルは、ドメイン実践者の介入なしにイベント検出を自動化し、実用的なイベント検出手順を提供する。
The efficacy of this proposed shapelet transform-based autonomous detection procedure is demonstrated by examples, to identify known and unknown earthquake events from continuously recorded ground-motion measurements, to detect pulses in the velocity time history of ground motions to distinguish between near-field and far-field ground motions, to identify thunderstorms from continuous wind speed measurements, to detect large-amplitude wind-induced vibrations from the bridge monitoring data, and to identify plunging breaking waves that have a significant impact on offshore structures. Autonomous detection of desired events from large databases using time series classification is becoming increasingly important in civil engineering as a result of continued long-term health monitoring of a large number of engineering structures encompassing buildings, bridges, towers, and offshore platforms. In this context, this paper proposes the application of a relatively new time series representation named "Shapelet transform", which is based on local similarity in the shape of the time series subsequences. In consideration of the individual attributes distinctive to time series signals in earthquake, wind and ocean engineering, the application of this transform yields a new shape-based feature representation. Combining this shape-based representation with a standard machine learning algorithm, a truly "white-box" machine learning model is proposed with understandable features and a transparent algorithm. This model automates event detection without the intervention of domain practitioners, yielding a practical event detection procedure. The efficacy of this proposed shapelet transform-based autonomous detection procedure is demonstrated by examples, to identify known and unknown earthquake events from continuously recorded ground-motion measurements, to detect pulses in the velocity time history of ground motions to distinguish between near-field and far-field ground motions, to identify thunderstorms from continuous wind speed measurements, to detect large-amplitude wind-induced vibrations from the bridge monitoring data, and to identify plunging breaking waves that have a significant impact on offshore structures. | 翻訳日:2022-12-10 17:57:45 公開日:2020-04-22 |
# ニューラルネットワークのアンダリング:ディープニューラルネットワークからブラックボックスバックドアウォーターマークを取り除く Neural Network Laundering: Removing Black-Box Backdoor Watermarks from Deep Neural Networks ( http://arxiv.org/abs/2004.11368v1 ) ライセンス: Link先を確認 | William Aiken, Hyoungshick Kim, Simon Woo | (参考訳) 最先端のディープラーニングシステムを構築するには膨大なデータ、専門知識、ハードウェアが必要になるが、ニューラルネットワークの著作権保護に関する研究は限られている。
このような保護を達成する主要な方法の1つは、バックドア攻撃に対するニューラルネットワークの感受性に依存するが、これらの戦術の堅牢性は、主に刈り取り、微調整、モデル反転攻撃に対して評価されている。
本研究では,ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
mnistおよびcifar-10の97%以上,80%以上の精度で,最近の防御・著作権保護機構に使用される透かしを効果的に除去することができる。
そこで本論文では, バックドア透かし法において, 透かしのロバスト性は, 元々の主張よりも著しく弱いことがわかった。
また,本アルゴリズムがより複雑なタスクで実現可能であること,また,元のトレーニングセットサイズの1%未満で,敵が効率的な洗浄攻撃を行うことができるような現実的なシナリオにおいても,既存のバックドアウォーターマークがクレームに到達するには不十分であることを示す。 Creating a state-of-the-art deep-learning system requires vast amounts of data, expertise, and hardware, yet research into embedding copyright protection for neural networks has been limited. One of the main methods for achieving such protection involves relying on the susceptibility of neural networks to backdoor attacks, but the robustness of these tactics has been primarily evaluated against pruning, fine-tuning, and model inversion attacks. In this work, we propose a neural network "laundering" algorithm to remove black-box backdoor watermarks from neural networks even when the adversary has no prior knowledge of the structure of the watermark. We are able to effectively remove watermarks used for recent defense or copyright protection mechanisms while achieving test accuracies above 97% and 80% for both MNIST and CIFAR-10, respectively. For all backdoor watermarking methods addressed in this paper, we find that the robustness of the watermark is significantly weaker than the original claims. We also demonstrate the feasibility of our algorithm in more complex tasks as well as in more realistic scenarios where the adversary is able to carry out efficient laundering attacks using less than 1% of the original training set size, demonstrating that existing backdoor watermarks are not sufficient to reach their claims. | 翻訳日:2022-12-10 17:57:27 公開日:2020-04-22 |
# ML-LBM: 多孔質媒体における機械学習支援フローシミュレーション ML-LBM: Machine Learning Aided Flow Simulation in Porous Media ( http://arxiv.org/abs/2004.11675v1 ) ライセンス: Link先を確認 | Ying Da Wang, Traiwit Chung, Ryan T. Armstrong, and Peyman Mostaghimi | (参考訳) 多孔質媒質中の流体のシミュレーションは、マイクロスケール(細胞膜、フィルター、岩石)からマクロスケール(地下水、炭化水素貯留層、地熱)に至るまで、多くの応用がある。
多孔質媒質内の流れの直接シミュレーションは、妥当な時間枠で解くために重要な計算資源を必要とする。
流体流の予測(高速・限定的精度)と直接流シミュレーション(スロー・高精度)を組み合わせた統合手法について概説する。
多孔質媒質の逆流経路において,畳み込みニューラルネットワーク(cnns)に基づく深層学習手法を用いて,(全ての軸において)定常速度場を正確に推定し,その拡張によりマクロスケール透過性を示す。
この推定は、計算時間のごく一部で完全に正確な結果に達するために、as-isや直接シミュレーションの初期条件として使うことができる。
相関場によって生成された2次元および3次元多孔質媒体のデータセットと、直接lbmシミュレーションから計算した定常速度場に基づいて、ゲート型u-net畳み込みニューラルネットワークを訓練する。
感度解析により,(1)領域のトルトゥース性,(2)畳み込みフィルタのサイズ,(3)距離マップの入力,(4)質量保存損失関数の利用にネットワーク精度が依存することが示された。
これらの予測フィールドからの透過性推定は、80\%のケースで90\%以上の精度に達する。
さらに, 溶質輸送シミュレーションに使用する場合, これらの速度場は誤差が高いことが示された。
予測速度場を初期条件として用いることで, 物理的に真の定常状態条件への直接流れシミュレーションを, 計算時間の桁違いに加速できることを示した。
複雑な細孔構造において、流れのシミュレーションを定常状態に加速するためにディープラーニング予測(または他の近似法)を用いると、境界流体モデリングを推し進める技術として期待できる。 Simulation of fluid flow in porous media has many applications, from the micro-scale (cell membranes, filters, rocks) to macro-scale (groundwater, hydrocarbon reservoirs, and geothermal) and beyond. Direct simulation of flow in porous media requires significant computational resources to solve within reasonable timeframes. An integrated method combining predictions of fluid flow (fast, limited accuracy) with direct flow simulation (slow, high accuracy) is outlined. In the tortuous flow paths of porous media, Deep Learning techniques based on Convolutional Neural Networks (CNNs) are shown to give an accurate estimate of the steady state velocity fields (in all axes), and by extension, the macro-scale permeability. This estimate can be used as-is, or as initial conditions in direct simulation to reach a fully accurate result in a fraction of the compute time. A Gated U-Net Convolutional Neural Network is trained on a datasets of 2D and 3D porous media generated by correlated fields, with their steady state velocity fields calculated from direct LBM simulation. Sensitivity analysis indicates that network accuracy is dependent on (1) the tortuosity of the domain, (2) the size of convolution filters, (3) the use of distance maps as input, (4) the use of mass conservation loss functions. Permeability estimation from these predicted fields reaches over 90\% accuracy for 80\% of cases. It is further shown that these velocity fields are error prone when used for solute transport simulation. Using the predicted velocity fields as initial conditions is shown to accelerate direct flow simulation to physically true steady state conditions an order of magnitude less compute time. Using Deep Learning predictions (or potentially any other approximation method) to accelerate flow simulation to steady state in complex pore structures shows promise as a technique push the boundaries fluid flow modelling. | 翻訳日:2022-12-10 17:56:49 公開日:2020-04-22 |
# 中期電力負荷予測のためのパターンベース長期記憶 Pattern-based Long Short-term Memory for Mid-term Electrical Load Forecasting ( http://arxiv.org/abs/2004.11834v1 ) ライセンス: Link先を確認 | Pawe{\l} Pe{\l}ka and Grzegorz Dudek | (参考訳) 本研究は,1年間の電力需要時系列を予測するためのLong Short-Term Memory (LSTM)ネットワークを提案する。
この研究の新規性は、分解の代替として季節時系列のパターン表現を使用することである。
パターン表現は複雑な非線形および非定常時系列を単純化し、トレンドをフィルタリングし、分散を等化する。
xパターンとyパターンの2つのパターンが定義されている。
前者は、コーディング変数のさらなる予測を必要とする。
後者は、プロセス履歴からコーディング変数を決定する。
x-パターンに基づくハイブリッドアプローチは、生の時系列に基づく標準LSTMアプローチよりも正確であることが判明した。
この結合アプローチでは、シーケンス-シーケンスlstmネットワークを用いてxパターンを予測し、符号変数を指数平滑化を用いて予測する。
欧州35か国における月次電力需要時系列のシミュレーション研究により、提案モデルの性能と、ARIMAのような古典的モデルとの競争性、指数的スムージング、およびMLPニューラルネットワークモデルの有効性が確認された。 This work presents a Long Short-Term Memory (LSTM) network for forecasting a monthly electricity demand time series with a one-year horizon. The novelty of this work is the use of pattern representation of the seasonal time series as an alternative to decomposition. Pattern representation simplifies the complex nonlinear and nonstationary time series, filtering out the trend and equalizing variance. Two types of patterns are defined: x-pattern and y-pattern. The former requires additional forecasting for the coding variables. The latter determines the coding variables from the process history. A hybrid approach based on x-patterns turned out to be more accurate than the standard LSTM approach based on a raw time series. In this combined approach an x-pattern is forecasted using a sequence-to-sequence LSTM network and the coding variables are forecasted using exponential smoothing. A simulation study performed on the monthly electricity demand time series for 35 European countries confirmed the high performance of the proposed model and its competitiveness to classical models such as ARIMA and exponential smoothing as well as the MLP neural network model. | 翻訳日:2022-12-10 17:56:17 公開日:2020-04-22 |
# 神経配列ラベリングモデルを用いたボイラープレート除去 Boilerplate Removal using a Neural Sequence Labeling Model ( http://arxiv.org/abs/2004.14294v1 ) ライセンス: Link先を確認 | Jurek Leonhardt, Avishek Anand, Megha Khosla | (参考訳) ウェブページからメインコンテンツを取り出すことは、ウェブブラウザのニュース記事の読者ビューから情報検索や自然言語処理まで、多くのアプリケーションにとって重要なタスクである。
既存のアプローチは、多くの手作りの特徴を分類に頼っているため、欠落している。
これにより、特定の時間フレームからWebページの特定の分布に合わせて調整されるが、一般化能力に欠けるモデルが得られる。
我々は,手作りの機能には依存せず,webページに表示されるhtmlタグと単語のみを入力として使用するニューラルネットワークラベリングモデルを提案する。
これにより、モデルを使用してブラウザ内で任意のWebページの内容を直接ハイライトするブラウザ拡張を提示できる。
さらに、我々のモデルがWebページの構造の変化に適応し、最先端のモデルより優れていることを示すために、より最新のデータセットを作成します。 The extraction of main content from web pages is an important task for numerous applications, ranging from usability aspects, like reader views for news articles in web browsers, to information retrieval or natural language processing. Existing approaches are lacking as they rely on large amounts of hand-crafted features for classification. This results in models that are tailored to a specific distribution of web pages, e.g. from a certain time frame, but lack in generalization power. We propose a neural sequence labeling model that does not rely on any hand-crafted features but takes only the HTML tags and words that appear in a web page as input. This allows us to present a browser extension which highlights the content of arbitrary web pages directly within the browser using our model. In addition, we create a new, more current dataset to show that our model is able to adapt to changes in the structure of web pages and outperform the state-of-the-art model. | 翻訳日:2022-12-10 17:55:59 公開日:2020-04-22 |
# スマートウェアラブルiotデバイスにおける手首動作からの指認識とセキュリティ問題 Digit Recognition From Wrist Movements and Security Concerns with Smart Wrist Wearable IOT Devices ( http://arxiv.org/abs/2004.14777v1 ) ライセンス: Link先を確認 | Lambert T. Leong, Sean Wiere | (参考訳) 本稿では,手首用ウェアラブルデバイスに関連する潜在的なセキュリティ脆弱性について検討する。
一般的なウェアラブルデバイスのハードウェアコンポーネントには加速度計やジャイロスコープなどが含まれる。
加速度計とジャイロスコープは、ユーザが書いた数字を特定するのに十分なユニークな手首の動き情報を拾うことができることを示す。
数字ゼロまたは数字1のいずれかの400個の文書サンプルのデータセットを用いて、手首の動きに基づいて正確な数字を識別する機械学習モデルを構築した。
実験の結果,受信機動作特性(auroc)曲線下の領域は1.00。
製造したデバイスにモデルをロードすると、リアルタイムで10個の筆記サンプルを予測する精度が100%向上した。
モデルが手首の動きや方向の変更によって全ての桁を正しく識別する能力は、セキュリティ上の懸念を引き起こす。
以上の結果から,手首のウェアラブルデバイスから,ソーシャルセキュリティやクレジットカード,医療記録番号などの機密情報を得ることができる可能性が示唆された。 In this paper, we investigate a potential security vulnerability associated with wrist wearable devices. Hardware components on common wearable devices include an accelerometer and gyroscope, among other sensors. We demonstrate that an accelerometer and gyroscope can pick up enough unique wrist movement information to identify digits being written by a user. With a data set of 400 writing samples, of either the digit zero or the digit one, we constructed a machine learning model to correctly identify the digit being written based on the movements of the wrist. Our model's performance on an unseen test set resulted in an area under the receiver operating characteristic (AUROC) curve of 1.00. Loading our model onto our fabricated device resulted in 100% accuracy when predicting ten writing samples in real-time. The model's ability to correctly identify all digits via wrist movement and orientation changes raises security concerns. Our results imply that nefarious individuals may be able to gain sensitive digit based information such as social security, credit card, and medical record numbers from wrist wearable devices. | 翻訳日:2022-12-10 17:55:44 公開日:2020-04-22 |
# ギブス後肢の温度パラメータの実用的校正 Practical calibration of the temperature parameter in Gibbs posteriors ( http://arxiv.org/abs/2004.10522v1 ) ライセンス: Link先を確認 | Lucie Perrotta | (参考訳) PAC-ベイジアンアルゴリズムとギブズ後部アルゴリズムは、ベイジアン推論が矛盾している場合でも、モデル不特定に対する堅牢性のために人気を集めている。
pac-bayesian alpha-posterior は、標準ベイズ後方の一般化であり、不整合を扱うパラメータアルファで温めることができる。
アルファチューニングのためのデータ駆動方式が提案されているが、まだ少数であり、しばしば計算量が多い。
さらに、厳密なα-posteriorsの代わりに変分近似を用いる場合のこれらの方法の適切性は明確ではない。
これにより、単純なモデルに制限され、大規模な問題への適用が妨げられる。
そのため、正確なα-posteriorsと変分的α-posteriorsの両方で動作するアルファをチューニングするための高速メソッドが必要です。
まず,サンプルスプリッティングとブートストラップに基づいて,アルファをチューニングするための2つのデータ駆動手法を提案する。
第二に、3つの人気のある統計モデルの(実または変分的な)後部を定式化し、それらをα-posteriorsに変更する。
各モデルについて、戦略をテストし、標準的なベイズやGrunwaldのSafeBayesと比較します。
ブートストレッピングは混合結果が得られるが、サンプル分割とSafeBaysは、我々が記述した精密かつ変動的なアルファ・フォレアー上でよく機能し、不特定または複雑なモデルにおける標準ベイズよりも優れた結果が得られる。
さらに、サンプルスプリッティングはsafebayesをスピードで上回っている。
サンプル分割は不整合に対する高速で簡単な解を提供し、通常ベイズ推論と同様かそれ以上に機能する。
以上の結果から, PAC-Bayesian および Gibbs の後部におけるα校正のヒントが得られ, 大規模・複雑モデルでのこれらの手法の活用が容易になる可能性が示唆された。 PAC-Bayesian algorithms and Gibbs posteriors are gaining popularity due to their robustness against model misspecification even when Bayesian inference is inconsistent. The PAC-Bayesian alpha-posterior is a generalization of the standard Bayes posterior which can be tempered with a parameter alpha to handle inconsistency. Data driven methods for tuning alpha have been proposed but are still few, and are often computationally heavy. Additionally, the adequacy of these methods in cases where we use variational approximations instead of exact alpha-posteriors is not clear. This narrows their usage to simple models and prevents their application to large-scale problems. We hence need fast methods to tune alpha that work with both exact and variational alpha-posteriors. First, we propose two data driven methods for tuning alpha, based on sample-splitting and bootstrapping respectively. Second, we formulate the (exact or variational) posteriors of three popular statistical models, and modify them into alpha-posteriors. For each model, we test our strategies and compare them with standard Bayes and Grunwald's SafeBayes. While bootstrapping achieves mixed results, sample-splitting and SafeBayes perform well on the exact and variational alpha-posteriors we describe, and achieve better results than standard Bayes in misspecified or complex models. Additionally, sample-splitting outperforms SafeBayes in terms of speed. Sample-splitting offers a fast and easy solution to inconsistency and typically performs similarly or better than Bayesian inference. Our results provide hints on the calibration of alpha in PAC-Bayesian and Gibbs posteriors, and may facilitate using these methods in large and complex models. | 翻訳日:2022-12-10 17:48:16 公開日:2020-04-22 |
# 圧縮センシングMRIのための学習サンプリングとモデルに基づく信号回復 Learning Sampling and Model-Based Signal Recovery for Compressed Sensing MRI ( http://arxiv.org/abs/2004.10536v1 ) ライセンス: Link先を確認 | Iris A.M. Huijben, Bastiaan S. Veeling, and Ruud J.G. van Sloun | (参考訳) 圧縮センシング(CS)MRIは、画像品質を損なうことなく、取得を加速するためにk空間の適切なアンサンプに依存する。
その結果、これらのk空間係数に対する最適サンプリングパターンの設計に大きな注目を集め、多くのCSMRI法が変数密度確率分布を利用している。
最適なサンプリングパターンが下流タスク(例えば、画像再構成、セグメンテーション、分類)に依存することを認識し、タスク適応型k空間サンプリングとその後のモデルベース近勾配回復ネットワークの併用学習を提案する。
前者は、Gumbel-softmax緩和を利用した確率的生成モデルによって、訓練可能な信念をまたいで、微分可能性を維持しながらサンプリングすることができる。
提案する高フレキシブルサンプリングモデルとモデルベース(サンプリング適応型)画像再構成ネットワークの組み合わせにより,探索と効率的なトレーニングが容易になり,他のサンプリングベースラインと比較してmr画像品質が向上する。 Compressed sensing (CS) MRI relies on adequate undersampling of the k-space to accelerate the acquisition without compromising image quality. Consequently, the design of optimal sampling patterns for these k-space coefficients has received significant attention, with many CS MRI methods exploiting variable-density probability distributions. Realizing that an optimal sampling pattern may depend on the downstream task (e.g. image reconstruction, segmentation, or classification), we here propose joint learning of both task-adaptive k-space sampling and a subsequent model-based proximal-gradient recovery network. The former is enabled through a probabilistic generative model that leverages the Gumbel-softmax relaxation to sample across trainable beliefs while maintaining differentiability. The proposed combination of a highly flexible sampling model and a model-based (sampling-adaptive) image reconstruction network facilitates exploration and efficient training, yielding improved MR image quality compared to other sampling baselines. | 翻訳日:2022-12-10 17:47:46 公開日:2020-04-22 |
# 投機的・断続的な需要予測のための新しい指標:株価維持型予測誤差コスト A New Metric for Lumpy and Intermittent Demand Forecasts: Stock-keeping-oriented Prediction Error Costs ( http://arxiv.org/abs/2004.10537v1 ) ライセンス: Link先を確認 | Dominik Martin, Philipp Spitzer, Niklas K\"uhl | (参考訳) 物流と生産の短期的および長期的最適化には、製品需要の予測が不可欠である。
したがって、最も正確な予測が望ましい。
予測モデルを最適に訓練するには、実際の需要に対する予測の偏差を適切な測定基準で評価する必要がある。
しかし、メトリックが実際の予測誤差を表現していない場合、予測モデルは不十分に最適化され、その結果、不正確な予測が得られる。
しかし、MAPEやRMSEのような最も一般的な指標は、特に不適切な、断続的な需要パターン、例えば、時間的シフト(実際の需要の前後の予測)やコスト関連の側面を十分に考慮していないため、予測エラーの評価には適していない。
そこで本稿では,統計的考察に加えて,ビジネス面も扱う新しい指標を提案する。
さらに,自動車用アフターマーケットのシミュレーションおよび実需要時系列に基づいて測定値を評価する。 Forecasts of product demand are essential for short- and long-term optimization of logistics and production. Thus, the most accurate prediction possible is desirable. In order to optimally train predictive models, the deviation of the forecast compared to the actual demand needs to be assessed by a proper metric. However, if a metric does not represent the actual prediction error, predictive models are insufficiently optimized and, consequently, will yield inaccurate predictions. The most common metrics such as MAPE or RMSE, however, are not suitable for the evaluation of forecasting errors, especially for lumpy and intermittent demand patterns, as they do not sufficiently account for, e.g., temporal shifts (prediction before or after actual demand) or cost-related aspects. Therefore, we propose a novel metric that, in addition to statistical considerations, also addresses business aspects. Additionally, we evaluate the metric based on simulated and real demand time series from the automotive aftermarket. | 翻訳日:2022-12-10 17:47:28 公開日:2020-04-22 |
# アクティベーションマッピングによる弱教師付き学習の新規citrus pestベンチマークへの応用 Weakly Supervised Learning Guided by Activation Mapping Applied to a Novel Citrus Pest Benchmark ( http://arxiv.org/abs/2004.11252v1 ) ライセンス: Link先を確認 | Edson Bollis, Helio Pedrini, and Sandra Avila | (参考訳) 害虫や病気は農業における生産損失の関連要因であり、そのため、その原因物質の予防と検出に多大な投資を行う。
多くの国において、統合害虫管理は、カンキツ作物の害虫や病気による被害を予防し軽減するために最も広く使われているプロセスである。
しかし、その結果は、病気の症状、昆虫、ダニの害虫を特定するために果樹園を視覚的に検査する人間によって証明されている。
この文脈では,サリエンシーマップに導かれた弱い教師付き学習プロセスをデザインし,画像に対する関心領域を自動的に選択し,アノテーションタスクを著しく削減する。
さらに, 正の試料 (ダニ科の6種) と負の試料からなる大型のカンキツ害虫ベンチマークを作成した。
2つの大規模データセットを用いた実験の結果,農業分野における害虫と病害分類の課題に非常に有望な結果が得られた。 Pests and diseases are relevant factors for production losses in agriculture and, therefore, promote a huge investment in the prevention and detection of its causative agents. In many countries, Integrated Pest Management is the most widely used process to prevent and mitigate the damages caused by pests and diseases in citrus crops. However, its results are credited by humans who visually inspect the orchards in order to identify the disease symptoms, insects and mite pests. In this context, we design a weakly supervised learning process guided by saliency maps to automatically select regions of interest in the images, significantly reducing the annotation task. In addition, we create a large citrus pest benchmark composed of positive samples (six classes of mite species) and negative samples. Experiments conducted on two large datasets demonstrate that our results are very promising for the problem of pest and disease classification in the agriculture field. | 翻訳日:2022-12-10 17:40:03 公開日:2020-04-22 |
# CNNに署名するスマートアテンダンスシステム Smart Attendance System Usign CNN ( http://arxiv.org/abs/2004.14289v1 ) ライセンス: Link先を確認 | Shailesh Arya, Hrithik Mesariya, Vishal Parekh | (参考訳) 出席者システムの研究は非常に長い間行われてきたが、このシステムを効率的かつ低コストにするために、過去10年間に多くのアレンジが提案されてきた。
本稿では,顔検出と顔認識を用いた,スマートで効率的な出席システムを提案する。
このシステムは、コンボリューションニューラルネットワーク(CNN)の助けを借りて、リアルタイムの顔認識を用いて、大学やオフィスへの出席に利用できる。
EigenfacesやFisherfaceのような従来の方法は、照明、騒音、姿勢、障害物、照明などに敏感である。
そこで我々は,cnnを用いて顔認識を行い,その困難を克服した。
出席記録は自動的に更新され、excelシートやデータベースに保存される。
MongoDBをバックエンドデータベースとして使用しています。 The research on the attendance system has been going for a very long time, numerous arrangements have been proposed in the last decade to make this system efficient and less time consuming, but all those systems have several flaws. In this paper, we are introducing a smart and efficient system for attendance using face detection and face recognition. This system can be used to take attendance in colleges or offices using real-time face recognition with the help of the Convolution Neural Network(CNN). The conventional methods like Eigenfaces and Fisher faces are sensitive to lighting, noise, posture, obstruction, illumination etc. Hence, we have used CNN to recognize the face and overcome such difficulties. The attendance records will be updated automatically and stored in an excel sheet as well as in a database. We have used MongoDB as a backend database for attendance records. | 翻訳日:2022-12-10 17:39:45 公開日:2020-04-22 |
# ParsEL 1.0:ペルシャのソーシャルメディアテキストにおける教師なしエンティティリンク ParsEL 1.0: Unsupervised Entity Linking in Persian Social Media Texts ( http://arxiv.org/abs/2004.10816v1 ) ライセンス: Link先を確認 | Majid Asgari-Bidhendi, Farzane Fakhrian and Behrouz Minaei-Bidgoli | (参考訳) 近年、ソーシャルメディアデータは指数関数的に増加しており、世界最大のデータリポジトリの1つとして列挙することができる。
このソーシャルメディアデータの大部分は自然言語テキストである。
しかし、多文語や句を含む実体の頻繁な出現に曝されることから、自然言語は非常に曖昧である。
エンティティリンク(Entity Linking)は、テキスト内のエンティティの参照を知識ベースで対応するエンティティにリンクするタスクである。
最近、ペルシャの知識グラフであるFarsBaseが50万近いエンティティを含む形で導入された。
本稿では,コンテキスト依存および文脈非依存の特徴を生かしたペルシャ言語に特化した最初のエンティティリンクシステムである,教師なしペルシャエンティティリンクシステムを提案する。
この目的のために,Telegramメッセンジャー内の人気チャンネルのソーシャルメディアテキストからクロールされた67,595語を含むペルシャ語の最初のエンティティリンクコーパスも公開している。
提案手法の出力は、ペルシャ語の86.94% f-scoreであり、英語における同様の最先端の手法に匹敵する。 In recent years, social media data has exponentially increased, which can be enumerated as one of the largest data repositories in the world. A large portion of this social media data is natural language text. However, the natural language is highly ambiguous due to exposure to the frequent occurrences of entities, which have polysemous words or phrases. Entity linking is the task of linking the entity mentions in the text to their corresponding entities in a knowledge base. Recently, FarsBase, a Persian knowledge graph, has been introduced containing almost half a million entities. In this paper, we propose an unsupervised Persian Entity Linking system, the first entity linking system specially focused on the Persian language, which utilizes context-dependent and context-independent features. For this purpose, we also publish the first entity linking corpus of the Persian language containing 67,595 words that have been crawled from social media texts of some popular channels in the Telegram messenger. The output of the proposed method is 86.94% f-score for the Persian language, which is comparable with the similar state-of-the-art methods in the English language. | 翻訳日:2022-12-10 17:38:47 公開日:2020-04-22 |
# 多目的最小スパンディングツリー問題に対するバイアス付き変異を持つ進化アルゴリズムのランタイム解析 Runtime Analysis of Evolutionary Algorithms with Biased Mutation for the Multi-Objective Minimum Spanning Tree Problem ( http://arxiv.org/abs/2004.10424v1 ) ライセンス: Link先を確認 | Vahid Roostapour, Jakob Bossek, Frank Neumann | (参考訳) 進化的アルゴリズム(EA)は、通常、偏見のない探索を行う汎用的な問題解決法である。
これはブラックボックスのシナリオでは合理的で望ましい。
組合せ最適化問題では、最適解の構造に関するより多くの知識が与えられ、バイアス付き探索演算子によって活用される。
我々は,単目的および多目的バージョンにおける最小スパンディングツリー(mst)問題を考察し,低ドーミネーション数の観点から低ランクのエッジの選択に重点を置いたバイアス付き突然変異を導入する。
バイアス付き突然変異が(pareto-)最適解が見つかるまで、期待されるランタイムを著しくスピードアップできるグラフの例を示す。
一方,重いエッジが最適解の一部である必要のある場合には,バイアスが指数関数的ランタイムにつながることを実証する。
しかし、単目的設定の一般グラフでは、各ステップにおいて等確率で非偏りまたは偏りのエッジ選択を決定する複合突然変異作用素が、最悪の場合において、多項式上界(非偏りの突然変異)を示し、状況が好ましくなければバイアスの恩恵を受けることを示す。 Evolutionary algorithms (EAs) are general-purpose problem solvers that usually perform an unbiased search. This is reasonable and desirable in a black-box scenario. For combinatorial optimization problems, often more knowledge about the structure of optimal solutions is given, which can be leveraged by means of biased search operators. We consider the Minimum Spanning Tree (MST) problem in a single- and multi-objective version, and introduce a biased mutation, which puts more emphasis on the selection of edges of low rank in terms of low domination number. We present example graphs where the biased mutation can significantly speed up the expected runtime until (Pareto-)optimal solutions are found. On the other hand, we demonstrate that bias can lead to exponential runtime if heavy edges are necessarily part of an optimal solution. However, on general graphs in the single-objective setting, we show that a combined mutation operator which decides for unbiased or biased edge selection in each step with equal probability exhibits a polynomial upper bound -- as unbiased mutation -- in the worst case and benefits from bias if the circumstances are favorable. | 翻訳日:2022-12-10 17:38:13 公開日:2020-04-22 |
# MOEA/Dのための動的トンプソンサンプリングに基づく適応演算子選択 Adaptive Operator Selection Based on Dynamic Thompson Sampling for MOEA/D ( http://arxiv.org/abs/2004.10874v1 ) ライセンス: Link先を確認 | Lei Sun and Ke Li | (参考訳) 進化計算では、異なる再生演算子は様々な探索力学を持つ。
探索とエクスプロイトのバランスをとるためには、現在の状況に応じて、フライ時に最も適切な演算子を自動的に選択する適応演算子選択(AOS)機構を持つことが魅力である。
本稿では,分解(MOEA/D)に基づく多目的進化アルゴリズムのための新しいAOS機構を提案する。
より具体的には、aosは、動的トンプソンサンプリング(dyts)を適用したマルチアームバンディット問題として定式化され、元々固定された賞分布の仮定で提案されたバンディット学習モデルを非定常設定に適応させる。
特に,バンディット学習モデルの各アームは再現演算子を表し,事前報酬分布が割り当てられている。
これらの報酬分布のパラメータは、進化過程から収集された性能に応じて徐々に更新される。
子孫を生成する際に、DYTSに応じてその報酬分布をサンプリングして演算子を選択する。
他の4種類のMOEA/D変種と比較して,提案したAOS機構の有効性と競争性を実証した。 In evolutionary computation, different reproduction operators have various search dynamics. To strike a well balance between exploration and exploitation, it is attractive to have an adaptive operator selection (AOS) mechanism that automatically chooses the most appropriate operator on the fly according to the current status. This paper proposes a new AOS mechanism for multi-objective evolutionary algorithm based on decomposition (MOEA/D). More specifically, the AOS is formulated as a multi-armed bandit problem where the dynamic Thompson sampling (DYTS) is applied to adapt the bandit learning model, originally proposed with an assumption of a fixed award distribution, to a non-stationary setup. In particular, each arm of our bandit learning model represents a reproduction operator and is assigned with a prior reward distribution. The parameters of these reward distributions will be progressively updated according to the performance of its performance collected from the evolutionary process. When generating an offspring, an operator is chosen by sampling from those reward distribution according to the DYTS. Experimental results fully demonstrate the effectiveness and competitiveness of our proposed AOS mechanism compared with other four state-of-the-art MOEA/D variants. | 翻訳日:2022-12-10 17:37:51 公開日:2020-04-22 |
# 不確実性推定による強化学習による自律運転の戦術的意思決定 Tactical Decision-Making in Autonomous Driving by Reinforcement Learning with Uncertainty Estimation ( http://arxiv.org/abs/2004.10439v1 ) ライセンス: Link先を確認 | Carl-Johan Hoel, Krister Wolff, Leo Laine | (参考訳) 強化学習(RL)は、自律運転のための戦術的意思決定エージェントを作成するために用いられる。
しかし、以前のアプローチは意思決定のみを出力し、推奨アクションに対するエージェントの信頼度に関する情報を提供しない。
本稿では,自律運転における決定の不確かさを推定するために,追加のランダム化事前関数(RPF)を持つニューラルネットワークのアンサンブルに基づくベイズRL手法について検討する。
アクションが安全であるべきかどうかを分類する手法も導入されている。
アンサンブルRPF法の性能は,高速道路走行シナリオにおけるエージェントの訓練により評価される。
訓練されたエージェントは、その決定の不確実性を推定でき、訓練分布から遠い状況に直面した場合、許容できないレベルを示すことができる。
さらに、訓練分布内では、アンサンブルrpfエージェントが標準のディープqネットワークエージェントを上回る。
本研究では,不確かさを推定し,未知の状況において安全な行動を選択する。
しかし、不確実性情報は、トレーニングプロセスに追加されるべき状況を特定するためにも使用できる。 Reinforcement learning (RL) can be used to create a tactical decision-making agent for autonomous driving. However, previous approaches only output decisions and do not provide information about the agent's confidence in the recommended actions. This paper investigates how a Bayesian RL technique, based on an ensemble of neural networks with additional randomized prior functions (RPF), can be used to estimate the uncertainty of decisions in autonomous driving. A method for classifying whether or not an action should be considered safe is also introduced. The performance of the ensemble RPF method is evaluated by training an agent on a highway driving scenario. It is shown that the trained agent can estimate the uncertainty of its decisions and indicate an unacceptable level when the agent faces a situation that is far from the training distribution. Furthermore, within the training distribution, the ensemble RPF agent outperforms a standard Deep Q-Network agent. In this study, the estimated uncertainty is used to choose safe actions in unknown situations. However, the uncertainty information could also be used to identify situations that should be added to the training process. | 翻訳日:2022-12-10 17:37:33 公開日:2020-04-22 |
# モーメントに基づくドメイン適応:学習境界とアルゴリズム Moment-Based Domain Adaptation: Learning Bounds and Algorithms ( http://arxiv.org/abs/2004.10618v1 ) ライセンス: Link先を確認 | Werner Zellinger | (参考訳) この論文は、機械学習の新興分野としてのドメイン適応の数学的基礎に寄与する。
古典的な統計的学習とは対照的に、ドメイン適応の枠組みは、トレーニングにおける確率分布と応用設定のずれを考慮する。
将来のサンプルはしばしばトレーニングサンプルと異なる分布に従うため、ドメイン適応はより広い範囲のアプリケーションに適用されます。
決定的な点は、分布の類似性に関する仮定の一般化である。
そこで本論文では,有限個のモーメントによってモデル化できるような弱類似性仮定の下での領域適応問題について検討する。 This thesis contributes to the mathematical foundation of domain adaptation as emerging field in machine learning. In contrast to classical statistical learning, the framework of domain adaptation takes into account deviations between probability distributions in the training and application setting. Domain adaptation applies for a wider range of applications as future samples often follow a distribution that differs from the ones of the training samples. A decisive point is the generality of the assumptions about the similarity of the distributions. Therefore, in this thesis we study domain adaptation problems under as weak similarity assumptions as can be modelled by finitely many moments. | 翻訳日:2022-12-10 17:31:37 公開日:2020-04-22 |
# 複数物体追跡における動的依存関係予測のためのベイズ非パラメトリックモデリング Bayesian nonparametric modeling for predicting dynamic dependencies in multiple object tracking ( http://arxiv.org/abs/2004.10798v1 ) ライセンス: Link先を確認 | Bahman Moraffah and Antonia Papndreou-Suppopola | (参考訳) 複数のオブジェクトを追跡する上で難しい問題には、時間依存濃度、無順序測定、オブジェクトパラメータのラベリングなどがある。
本稿では,ベイズ的ベイズ的非パラメトリック手法を用いてこれらの課題に対処する。
特に、依存するdirichletおよびpitman-yorプロセスを使う前に、複数のオブジェクトパラメータの状態のモデル化を提案する。
これらの非パラメトリックモデルは、オブジェクトの時間変化数を推定し、オブジェクトのラベル付けとオブジェクトの関連性の測定を行う既存の手法と比較して、より柔軟で堅牢であることが示されている。
次にモンテカルロサンプリング法を提案し,ノイズ測定から物体の軌跡を効率的に学習する。
シミュレーションを用いて,一般化ラベル付きマルチベルヌーリフィルタなどの既存アルゴリズムと比較して,新しい手法による推定性能の利点を示す。 Some challenging problems in tracking multiple objects include the time-dependent cardinality, unordered measurements and object parameter labeling. In this paper, we employ Bayesian Bayesian nonparametric methods to address these challenges. In particular, we propose modeling the multiple object parameter state prior using the dependent Dirichlet and Pitman-Yor processes. These nonparametric models have been shown to be more flexible and robust, when compared to existing methods, for estimating the time-varying number of objects, providing object labeling and identifying measurement to object associations. Monte Carlo sampling methods are then proposed to efficiently learn the trajectory of objects from noisy measurements. Using simulations, we demonstrate the estimation performance advantage of the new methods when compared to existing algorithms such as the generalized labeled multi-Bernoulli filter. | 翻訳日:2022-12-10 17:31:01 公開日:2020-04-22 |
# データマニフォールド次元からのニューラルスケーリング法則 A Neural Scaling Law from the Dimension of the Data Manifold ( http://arxiv.org/abs/2004.10802v1 ) ライセンス: Link先を確認 | Utkarsh Sharma, Jared Kaplan | (参考訳) データが豊富であれば、十分に訓練されたニューラルネットワークによる損失は、ネットワークパラメータ数$n$のパワールール$l \propto n^{-\alpha}$としてスケールする。
この経験的スケーリング法則は、様々なデータモダリティを保持し、多くの桁にわたって持続する可能性がある。
スケーリングの法則は、ニューラルモデルが本質的に内在次元$d$のデータ多様体上で回帰を行えば説明できる。
この単純な理論は、スケーリング指数 $\alpha \approx 4/d$ をクロスエントロピーと平均二乗誤差損失に対して予測する。
本理論は,教師/学生の内在的次元とスケーリング指数を独立に測定することで検証し,ランダムな教師ネットワークの特性を測ることで,$d$と$\alpha$の多様性を研究できる。
また,いくつかのデータセットとGPT型言語モデルを用いて,CNN画像分類器を用いてその理論を検証した。 When data is plentiful, the loss achieved by well-trained neural networks scales as a power-law $L \propto N^{-\alpha}$ in the number of network parameters $N$. This empirical scaling law holds for a wide variety of data modalities, and may persist over many orders of magnitude. The scaling law can be explained if neural models are effectively just performing regression on a data manifold of intrinsic dimension $d$. This simple theory predicts that the scaling exponents $\alpha \approx 4/d$ for cross-entropy and mean-squared error losses. We confirm the theory by independently measuring the intrinsic dimension and the scaling exponents in a teacher/student framework, where we can study a variety of $d$ and $\alpha$ by dialing the properties of random teacher networks. We also test the theory with CNN image classifiers on several datasets and with GPT-type language models. | 翻訳日:2022-12-10 17:30:46 公開日:2020-04-22 |
# 対向摂動を伴う深部モデルの視覚的説明の信頼性の評価 Assessing the Reliability of Visual Explanations of Deep Models with Adversarial Perturbations ( http://arxiv.org/abs/2004.10824v1 ) ライセンス: Link先を確認 | Dan Valle, Tiago Pimentel, Adriano Veloso | (参考訳) コンピュータビジョン応用のための複雑なディープニューラルネットワークへの関心が高まっている。
これにより、これらのモデルの解釈能力を改善する必要がある。
最近の説明手法では、入力画像からの画素の関連性を可視化することで、特定の出力につながる入力の特性を直接解釈することができる。
これらの手法は画像検査によって一般的に評価される画素重要度マップを生成する。
つまり、説明方法の有効性は、実際の特徴の重要性ではなく、人間の期待に基づいて評価される。
そこで本研究では,深層モデルの説明の信頼性を評価する客観的尺度を提案する。
具体的には,入力画像の摂動によるネットワーク結果の変化に基づくアプローチである。
本稿では,提案手法を用いた説明手法の比較を行った。
また,本提案手法では,本質的な説明を損なうことなく,より解釈可能な地図を作成する手法を提案する。 The interest in complex deep neural networks for computer vision applications is increasing. This leads to the need for improving the interpretable capabilities of these models. Recent explanation methods present visualizations of the relevance of pixels from input images, thus enabling the direct interpretation of properties of the input that lead to a specific output. These methods produce maps of pixel importance, which are commonly evaluated by visual inspection. This means that the effectiveness of an explanation method is assessed based on human expectation instead of actual feature importance. Thus, in this work we propose an objective measure to evaluate the reliability of explanations of deep models. Specifically, our approach is based on changes in the network's outcome resulting from the perturbation of input images in an adversarial way. We present a comparison between widely-known explanation methods using our proposed approach. Finally, we also propose a straightforward application of our approach to clean relevance maps, creating more interpretable maps without any loss in essential explanation (as per our proposed measure). | 翻訳日:2022-12-10 17:30:28 公開日:2020-04-22 |
# graph convolutional subspace clustering: ハイパースペクトル画像のためのロバストなサブスペースクラスタリングフレームワーク Graph Convolutional Subspace Clustering: A Robust Subspace Clustering Framework for Hyperspectral Image ( http://arxiv.org/abs/2004.10476v1 ) ライセンス: Link先を確認 | Yaoming Cai, Zijia Zhang, Zhihua Cai, Xiaobo Liu, Xinwei Jiang, and Qin Yan | (参考訳) ハイパースペクトル画像(HSI)クラスタリングは、HSIデータの複雑さが高いため、難しい課題である。
サブスペースクラスタリングは、データポイント間の本質的な関係を利用する上で強力であることが証明されている。
HSIクラスタリングの優れたパフォーマンスにもかかわらず、従来のサブスペースクラスタリング手法はデータ間の固有の構造情報を無視することが多い。
本稿では,グラフ畳み込みによるサブスペースクラスタリングを再検討し,堅牢なhsiクラスタリングのためのグラフ畳み込みサブスペースクラスタリング(gcsc)と呼ばれる新しいサブスペースクラスタリングフレームワークを提案する。
具体的には、このフレームワークはデータの自己表現性を非ユークリッド領域に再キャストし、より堅牢なグラフ埋め込み辞書をもたらす。
従来のサブスペースクラスタリングモデルはユークリッドデータを用いたフレームワークの特別な形態であることを示す。
さらに,このフレームワークをベースとしたFrobeniusノルム,すなわちEfficient GCSC (EGCSC) とEKGCSC (Efficient Kernel GCSC) の2つの新しいサブスペースクラスタリングモデルを提案する。
どちらのモデルにもグローバルに最適なクローズドフォームソリューションがあるため、実装、トレーニング、実践が容易になる。
3つの人気のあるHSIデータセットに対する大規模な実験は、EGCSCとEKGCSCが最先端のクラスタリング性能を達成でき、多くの既存の手法を著しく上回っていることを示している。 Hyperspectral image (HSI) clustering is a challenging task due to the high complexity of HSI data. Subspace clustering has been proven to be powerful for exploiting the intrinsic relationship between data points. Despite the impressive performance in the HSI clustering, traditional subspace clustering methods often ignore the inherent structural information among data. In this paper, we revisit the subspace clustering with graph convolution and present a novel subspace clustering framework called Graph Convolutional Subspace Clustering (GCSC) for robust HSI clustering. Specifically, the framework recasts the self-expressiveness property of the data into the non-Euclidean domain, which results in a more robust graph embedding dictionary. We show that traditional subspace clustering models are the special forms of our framework with the Euclidean data. Basing on the framework, we further propose two novel subspace clustering models by using the Frobenius norm, namely Efficient GCSC (EGCSC) and Efficient Kernel GCSC (EKGCSC). Both models have a globally optimal closed-form solution, which makes them easier to implement, train, and apply in practice. Extensive experiments on three popular HSI datasets demonstrate that EGCSC and EKGCSC can achieve state-of-the-art clustering performance and dramatically outperforms many existing methods with significant margins. | 翻訳日:2022-12-10 17:29:09 公開日:2020-04-22 |
# DyNet: 畳み込みニューラルネットワークの高速化のための動的畳み込み DyNet: Dynamic Convolution for Accelerating Convolutional Neural Networks ( http://arxiv.org/abs/2004.10694v1 ) ライセンス: Link先を確認 | Yikang Zhang, Jian Zhang, Qiang Wang, Zhao Zhong | (参考訳) 畳み込み演算子は畳み込みニューラルネットワーク(CNN)のコアであり、最も計算コストが高い。
CNNをより効率的にするために、軽量ネットワークや圧縮モデルの設計に多くの方法が提案されている。
mobilenetやshufflenetのような効率的なネットワーク構造が提案されているが、畳み込みカーネルの間にはまだ冗長な情報が存在する。
そこで本稿では,画像内容に基づく畳み込みカーネルを適応的に生成する動的畳み込み手法を提案する。
この効果を示すために,複数の最先端cnnに動的畳み込みを適用する。
一方、性能を維持しながら計算コストを大幅に削減できる。
ShuffleNetV2/MobileNetV2/ResNet18/ResNet50では、精度を失うことなく37.0/54.7/67.2/71.3%のFLOPを削減できる。
一方、計算コストが維持された場合、性能を大幅に向上させることができる。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
また,DyNetをセグメンテーションタスクに適用することにより,セグメンテーションタスクにおけるMean IoUを維持しながら69.3%のFLOPを削減できることを示す。 Convolution operator is the core of convolutional neural networks (CNNs) and occupies the most computation cost. To make CNNs more efficient, many methods have been proposed to either design lightweight networks or compress models. Although some efficient network structures have been proposed, such as MobileNet or ShuffleNet, we find that there still exists redundant information between convolution kernels. To address this issue, we propose a novel dynamic convolution method to adaptively generate convolution kernels based on image contents. To demonstrate the effectiveness, we apply dynamic convolution on multiple state-of-the-art CNNs. On one hand, we can reduce the computation cost remarkably while maintaining the performance. For ShuffleNetV2/MobileNetV2/ResNet18/ResNet50, DyNet can reduce 37.0/54.7/67.2/71.3% FLOPs without loss of accuracy. On the other hand, the performance can be largely boosted if the computation cost is maintained. Based on the architecture MobileNetV3-Small/Large, DyNet achieves 70.3/77.1% Top-1 accuracy on ImageNet with an improvement of 2.9/1.9%. To verify the scalability, we also apply DyNet on segmentation task, the results show that DyNet can reduce 69.3% FLOPs while maintaining Mean IoU on segmentation task. | 翻訳日:2022-12-10 17:28:43 公開日:2020-04-22 |
# 深層強化学習によるチップ配置 Chip Placement with Deep Reinforcement Learning ( http://arxiv.org/abs/2004.10746v1 ) ライセンス: Link先を確認 | Azalia Mirhoseini, Anna Goldie, Mustafa Yazgan, Joe Jiang, Ebrahim Songhori, Shen Wang, Young-Joon Lee, Eric Johnson, Omkar Pathak, Sungmin Bae, Azade Nazi, Jiwoo Pak, Andy Tong, Kavya Srinivasa, William Hang, Emre Tuncer, Anand Babu, Quoc V. Le, James Laudon, Richard Ho, Roger Carpenter, Jeff Dean | (参考訳) 本稿では,チップ設計プロセスの最も複雑で時間を要する段階であるチップ配置について,学習に基づくアプローチを提案する。
従来の方法とは異なり、私たちのアプローチは過去の経験から学び、時間とともに改善する能力を持っています。
特に、より多くのチップブロックを訓練するにつれて、これまで見つからなかったチップブロックに対して、最適化された配置を迅速に生成する方がよい。
これらの結果を達成するために,強化学習(rl)問題として配置を行い,チップネットリストのノードをチップキャンバスに配置するようにエージェントを訓練する。
そこで我々は,RLポリシーを非表示ブロックに一般化するために,配置品質を予測する教師付きタスクで表現学習を行う。
様々なネットリストとその配置をまたいで報酬を正確に予測できるニューラルアーキテクチャを設計することで、入力ネットリストの豊富な特徴埋め込みを生成することができる。
次に、このアーキテクチャをポリシーとバリューネットワークのエンコーダとして使用して、転送学習を可能にします。
我々の目標は、PPA(パワー、パフォーマンス、面積)を最小化することであり、我々の手法は6時間以内に、現代の加速器ネットリストに匹敵する超人的な配置を生成できることを示します。 In this work, we present a learning-based approach to chip placement, one of the most complex and time-consuming stages of the chip design process. Unlike prior methods, our approach has the ability to learn from past experience and improve over time. In particular, as we train over a greater number of chip blocks, our method becomes better at rapidly generating optimized placements for previously unseen chip blocks. To achieve these results, we pose placement as a Reinforcement Learning (RL) problem and train an agent to place the nodes of a chip netlist onto a chip canvas. To enable our RL policy to generalize to unseen blocks, we ground representation learning in the supervised task of predicting placement quality. By designing a neural architecture that can accurately predict reward across a wide variety of netlists and their placements, we are able to generate rich feature embeddings of the input netlists. We then use this architecture as the encoder of our policy and value networks to enable transfer learning. Our objective is to minimize PPA (power, performance, and area), and we show that, in under 6 hours, our method can generate placements that are superhuman or comparable on modern accelerator netlists, whereas existing baselines require human experts in the loop and take several weeks. | 翻訳日:2022-12-10 17:21:46 公開日:2020-04-22 |
# 逆強化学習を用いた逐次異常検出 Sequential Anomaly Detection using Inverse Reinforcement Learning ( http://arxiv.org/abs/2004.10398v1 ) ライセンス: Link先を確認 | Min-hwan Oh, Garud Iyengar | (参考訳) 異常検出における最も興味深いアプリケーションシナリオの1つは、シーケンシャルデータがターゲットされたときである。
例えば、安全クリティカルな環境では、監視センサによって収集されたストリーミングデータをリアルタイムに検出し、異常な観測を報告するための自動検出システムを持つことが不可欠である。
これらの潜在的な異常が意図的あるいは目標指向である場合、多くの場合、利害はずっと高い。
本稿では,逆強化学習(IRL)を用いた逐次異常検出のためのエンドツーエンドフレームワークを提案する。
提案手法は,対象エージェント(および他のメタ情報)のアクションシーケンスを入力として使用する。
エージェントの正常な振る舞いは、IRLを介して推測される報酬関数によって理解される。
報酬関数を表すためにニューラルネットワークを使用します。
学習報酬関数を用いて,対象エージェントからの新たな観察が正常なパターンに従うか否かを評価する。
信頼性の高い異常検出手法を構築し,予測された異常スコアの信頼性を考慮するために,IRLに対するベイズ的アプローチを採用する。
実世界の公開データに対する実証研究は,提案手法が異常の同定に有効であることを示す。 One of the most interesting application scenarios in anomaly detection is when sequential data are targeted. For example, in a safety-critical environment, it is crucial to have an automatic detection system to screen the streaming data gathered by monitoring sensors and to report abnormal observations if detected in real-time. Oftentimes, stakes are much higher when these potential anomalies are intentional or goal-oriented. We propose an end-to-end framework for sequential anomaly detection using inverse reinforcement learning (IRL), whose objective is to determine the decision-making agent's underlying function which triggers his/her behavior. The proposed method takes the sequence of actions of a target agent (and possibly other meta information) as input. The agent's normal behavior is then understood by the reward function which is inferred via IRL. We use a neural network to represent a reward function. Using a learned reward function, we evaluate whether a new observation from the target agent follows a normal pattern. In order to construct a reliable anomaly detection method and take into consideration the confidence of the predicted anomaly score, we adopt a Bayesian approach for IRL. The empirical study on publicly available real-world data shows that our proposed method is effective in identifying anomalies. | 翻訳日:2022-12-10 17:20:38 公開日:2020-04-22 |
# SoQal: アクティブラーニングにおけるOracleの選択的な質問 SoQal: Selective Oracle Questioning in Active Learning ( http://arxiv.org/abs/2004.10468v1 ) ライセンス: Link先を確認 | Dani Kiyasseh, Tingting Zhu, David A. Clifton | (参考訳) 医療領域内の大量の未使用データは未利用のままである。
アクティブラーニングは、oracle(例えば医療専門家)にインスタンスをラベル付けするように繰り返し要求することで、これらのデータセットを悪用する方法を提供する。
コストと時間を要するこのプロセスは、オラクルに過度に依存します。
本稿では,この負担を軽減するために,オラクルからラベルを要求すべき時期を動的に決定する質問方法であるSoQalを提案する。
公開可能な5つのデータセットで実験を行い、SoQalのベースラインアプローチに対する優位性を示し、オラクルラベル要求を最大35%削減する機能を含む。
soqalはまた、難しい分類課題に直面した際に臨床医の不確実性診断をシミュレートするシナリオであるラベルノイズ(英語版)の存在下で競争的に機能する。 Large sets of unlabelled data within the healthcare domain remain underutilized. Active learning offers a way to exploit these datasets by iteratively requesting an oracle (e.g. medical professional) to label instances. This process, which can be costly and time-consuming is overly-dependent upon an oracle. To alleviate this burden, we propose SoQal, a questioning strategy that dynamically determines when a label should be requested from an oracle. We perform experiments on five publically-available datasets and illustrate SoQal's superiority relative to baseline approaches, including its ability to reduce oracle label requests by up to 35%. SoQal also performs competitively in the presence of label noise: a scenario that simulates clinicians' uncertain diagnoses when faced with difficult classification tasks. | 翻訳日:2022-12-10 17:20:22 公開日:2020-04-22 |
# 潜在的に堅牢な深層生成モデル Provably robust deep generative models ( http://arxiv.org/abs/2004.10608v1 ) ライセンス: Link先を確認 | Filipe Condessa, Zico Kolter | (参考訳) 敵攻撃の最近の研究は、ディープニューラルネットワーク分類器を訓練するための実証可能な堅牢な手法を開発した。
しかしながら、それらは頑健性という文脈でしばしば言及されるが、深層生成モデル自体がロバスト性特性を形式的に分析する観点では比較的注目されていない。
本稿では,確率的ロバストな生成モデル,特に可変オートエンコーダ(VAE)の確率的ロバストなバージョンを訓練する手法を提案する。
そのため、まず、確率の変動的下界に(確実に)頑健な下界を正式に定義し、次に、この境界をトレーニング中にどのように最適化してロバストなVAEを生成するかを示す。
本手法を簡単な例で評価し, 敵攻撃に対して極めて堅牢な生成モデル(すなわち, 敵が入力を摂動させてその可能性を大幅に低下させる)を生成可能であることを示す。 Recent work in adversarial attacks has developed provably robust methods for training deep neural network classifiers. However, although they are often mentioned in the context of robustness, deep generative models themselves have received relatively little attention in terms of formally analyzing their robustness properties. In this paper, we propose a method for training provably robust generative models, specifically a provably robust version of the variational auto-encoder (VAE). To do so, we first formally define a (certifiably) robust lower bound on the variational lower bound of the likelihood, and then show how this bound can be optimized during training to produce a robust VAE. We evaluate the method on simple examples, and show that it is able to produce generative models that are substantially more robust to adversarial attacks (i.e., an adversary trying to perturb inputs so as to drastically lower their likelihood under the model). | 翻訳日:2022-12-10 17:19:40 公開日:2020-04-22 |
# 制約付き二元粒子群最適化による連立主成分分析 Disjoint principal component analysis by constrained binary particle swarm optimization ( http://arxiv.org/abs/2004.10701v1 ) ライセンス: Link先を確認 | John Ram\'irez-Figueroa, Carlos Mart\'in-Barreiro, Ana B. Nieto-Librero, Victor Leiva-S\'anchez, Purificaci\'on Galindo-Villard\'on | (参考訳) 本稿では,解離主成分分析の代替手法を提案する。
この手法は制約付き主成分分析から成り、元の変数の不随伴部分集合の線形結合である不随伴成分を決定することができる。
提案手法は, 粒子群最適化に基づくため, particle swarm disjoint 主成分分析により, 制約付きバイナリ最適化と命名された。
この手法は確率最適化を用いて計算複雑性の高い場合の解を求める。
この手法に関連するアルゴリズムは、解離成分の関数である大域最適点に到達するまで、反復的に進化する粒子集団をランダムに生成し始める。
提案手法により得られた解の質を確認するため, 数値実験を行った。
本手法の応用可能性を示すために実データを用いた例を示す。 In this paper, we propose an alternative method to the disjoint principal component analysis. The method consists of a principal component analysis with constraints, which allows us to determine disjoint components that are linear combinations of disjoint subsets of the original variables. The proposed method is named constrained binary optimization by particle swarm disjoint principal component analysis, since it is based on the particle swarm optimization. The method uses stochastic optimization to find solutions in cases of high computational complexity. The algorithm associated with the method starts generating randomly a particle population which iteratively evolves until attaining a global optimum which is function of the disjoint components. Numerical results are provided to confirm the quality of the solutions attained by the proposed method. Illustrative examples with real data are conducted to show the potential applications of the method. | 翻訳日:2022-12-10 17:12:17 公開日:2020-04-22 |
# 安定保証付き制約付きニューラル正規微分方程式 Constrained Neural Ordinary Differential Equations with Stability Guarantees ( http://arxiv.org/abs/2004.10883v1 ) ライセンス: Link先を確認 | Aaron Tuor, Jan Drgona, Draguna Vrabie | (参考訳) 微分方程式は、安全と性能の保証が最重要となる産業システムのモデリングや制御といった工学領域で頻繁に用いられる。
従来の物理ベースのモデリングアプローチはドメインの専門知識を必要とし、新しいシステムへのチューニングや適応が難しいことが多い。
本稿では,代数非線形性を持つ離散常微分方程式 (ode) を,事前知識の異なる深層ニューラルネットワークとしてモデル化する方法を示す。
重みの固有値に課される暗黙の制約に基づいて,ネットワーク層の安定性保証を導出する。
さらに,バリア手法を用いて不等式制約を一般化する方法について述べる。
オープンループシミュレーションで評価した学習ニューラルodeの予測精度を,双線型項による基底真理ダイナミクスと比較した。 Differential equations are frequently used in engineering domains, such as modeling and control of industrial systems, where safety and performance guarantees are of paramount importance. Traditional physics-based modeling approaches require domain expertise and are often difficult to tune or adapt to new systems. In this paper, we show how to model discrete ordinary differential equations (ODE) with algebraic nonlinearities as deep neural networks with varying degrees of prior knowledge. We derive the stability guarantees of the network layers based on the implicit constraints imposed on the weight's eigenvalues. Moreover, we show how to use barrier methods to generically handle additional inequality constraints. We demonstrate the prediction accuracy of learned neural ODEs evaluated on open-loop simulations compared to ground truth dynamics with bi-linear terms. | 翻訳日:2022-12-10 17:12:05 公開日:2020-04-22 |
# 残留エネルギーに基づくテキスト生成モデル Residual Energy-Based Models for Text Generation ( http://arxiv.org/abs/2004.11714v1 ) ライセンス: Link先を確認 | Yuntian Deng, Anton Bakhtin, Myle Ott, Arthur Szlam, Marc'Aurelio Ranzato | (参考訳) テキスト生成は、要約、対話、機械翻訳など、多くのNLPタスクにおいてユビキタスである。
支配的パラメトリックアプローチは、一度に1つの単語を予測する局所正規化モデルに基づいている。
これらは非常によく機能するが、生成過程の欲深い性質のため、露出バイアスによって悩まされる。
本研究では,トークンではなくシーケンスレベルで動作する非正規化エネルギーベースモデル(EBM)について検討する。
まず,事前訓練された局所正規化言語モデルの残差に対処し,次にノイズコントラスト推定を用いた訓練を行う。
さらに、ESMはシーケンスレベルで機能するため、BERTやRoBERTaといった事前訓練された双方向のコンテキスト表現を利用することができる。
2つの大規模言語モデリングデータセットに対する実験により,残余のEMMは局所正規化ベースラインよりも低いパープレキシティが得られることが示された。
さらに、重要サンプリングによる生成は非常に効率的で、人的評価によるベースラインモデルよりも高品質である。 Text generation is ubiquitous in many NLP tasks, from summarization, to dialogue and machine translation. The dominant parametric approach is based on locally normalized models which predict one word at a time. While these work remarkably well, they are plagued by exposure bias due to the greedy nature of the generation process. In this work, we investigate un-normalized energy-based models (EBMs) which operate not at the token but at the sequence level. In order to make training tractable, we first work in the residual of a pretrained locally normalized language model and second we train using noise contrastive estimation. Furthermore, since the EBM works at the sequence level, we can leverage pretrained bi-directional contextual representations, such as BERT and RoBERTa. Our experiments on two large language modeling datasets show that residual EBMs yield lower perplexity compared to locally normalized baselines. Moreover, generation via importance sampling is very efficient and of higher quality than the baseline models according to human evaluation. | 翻訳日:2022-12-10 17:11:33 公開日:2020-04-22 |
# 物体情報に依存しない人間と機械の行動予測 Human and Machine Action Prediction Independent of Object Information ( http://arxiv.org/abs/2004.10518v1 ) ライセンス: Link先を確認 | Fatemeh Ziaeetabar, Jennifer Pomp, Stefan Pfeiffer, Nadiya El-Sourani, Ricarda I. Schubotz, Minija Tamosiunaite and Florentin W\"org\"otter | (参考訳) 他人の行動を予測することは、社会的な相互作用を成功させる鍵であり、他人の将来の行動の結果に応じて自分の行動を調整できる。
行動認識に関する研究は、行動に関わる物体の個々の視覚的特徴の重要性とその文脈に焦点を当ててきた。
しかし、人間は未知の物体や、物体が想像されるときでさえも行動を認識する(パントマイム)。
他のキューは、認識可能な視覚オブジェクト機能の欠如を補う必要がある。
ここでは、行動中に変化するオブジェクト間関係の役割に焦点を当てる。
仮想現実(virtual reality, vr)のセットアップを設計,50名の被験者に対して10種類の操作動作の認識速度をテストした。
全てのオブジェクトはエミュレートされた立方体によって抽象化されたので、アクションはオブジェクト情報を使って推論できない。
その代わり、被験者はそれらの立方体間の空間的関係の変化から生じる情報にのみ依存する必要があった。
これらの制約にもかかわらず、被験者は平均して行動継続時間の64%未満で行動を予測することができた。
我々は空間関係の情報を取り入れた計算モデル-強化セマンティックイベントチェーン(eSEC)を採用した。
a)オブジェクトのタッチ/アンタッチ
b)オブジェクトとオブジェクト間の静的な空間関係
(c)オブジェクト間の動的空間関係。
被験者が観察したのと同じ行動で訓練されたこのモデルは、人間よりも優れた行動を予測できた。
情報理論分析によると、eSECは個々の手がかりを最適に利用するのに対し、人間は主に混合キュー戦略に依存している。
行動認識のより優れた認知基盤を提供することは、関連する人間の病理の理解を改善し、他方で、紛争のない人間とロボットの協力のためのロボットを構築するのにも役立ちます。
私たちの結果はここで新しい道を開く。 Predicting other people's action is key to successful social interactions, enabling us to adjust our own behavior to the consequence of the others' future actions. Studies on action recognition have focused on the importance of individual visual features of objects involved in an action and its context. Humans, however, recognize actions on unknown objects or even when objects are imagined (pantomime). Other cues must thus compensate the lack of recognizable visual object features. Here, we focus on the role of inter-object relations that change during an action. We designed a virtual reality setup and tested recognition speed for 10 different manipulation actions on 50 subjects. All objects were abstracted by emulated cubes so the actions could not be inferred using object information. Instead, subjects had to rely only on the information that comes from the changes in the spatial relations that occur between those cubes. In spite of these constraints, our results show the subjects were able to predict actions in, on average, less than 64% of the action's duration. We employed a computational model -an enriched Semantic Event Chain (eSEC)- incorporating the information of spatial relations, specifically (a) objects' touching/untouching, (b) static spatial relations between objects and (c) dynamic spatial relations between objects. Trained on the same actions as those observed by subjects, the model successfully predicted actions even better than humans. Information theoretical analysis shows that eSECs optimally use individual cues, whereas humans presumably mostly rely on a mixed-cue strategy, which takes longer until recognition. Providing a better cognitive basis of action recognition may, on one hand improve our understanding of related human pathologies and, on the other hand, also help to build robots for conflict-free human-robot cooperation. Our results open new avenues here. | 翻訳日:2022-12-10 17:11:18 公開日:2020-04-22 |
# TransEdge: 知識グラフのための関係記述型埋め込みの翻訳 TransEdge: Translating Relation-contextualized Embeddings for Knowledge Graphs ( http://arxiv.org/abs/2004.13579v1 ) ライセンス: Link先を確認 | Zequn Sun, Jiacheng Huang, Wei Hu, Muchao Chen, Lingbing Guo, Yuzhong Qu | (参考訳) 近年,学習知識グラフ(KG)の埋め込みが注目されている。
文学におけるほとんどの埋め込みモデルは、エンティティ埋め込みを操作する線形あるいは双線型写像関数として関係を解釈する。
しかし、そのような関係レベルのモデリングは、KGの多様な関係構造をうまく捉えることができない。
本稿では,関係表現を特定のヘッドテールエンティティペアの観点で文脈的に表現する,エッジ中心の埋め込みモデルトランスエッジを提案する。
このような関係の文脈的表現をエッジ埋め込みと呼び、それらをエンティティ埋め込み間の翻訳として解釈する。
transedgeはさまざまな予測タスクで有望なパフォーマンスを実現する。
ベンチマークデータセットを用いた実験により,組込み型エンティティアライメントの最先端結果が得られた。
また、TransEdgeは従来のエンティティアライメント手法と相補的であることを示す。
さらに、リンク予測において非常に競合的な性能を示す。 Learning knowledge graph (KG) embeddings has received increasing attention in recent years. Most embedding models in literature interpret relations as linear or bilinear mapping functions to operate on entity embeddings. However, we find that such relation-level modeling cannot capture the diverse relational structures of KGs well. In this paper, we propose a novel edge-centric embedding model TransEdge, which contextualizes relation representations in terms of specific head-tail entity pairs. We refer to such contextualized representations of a relation as edge embeddings and interpret them as translations between entity embeddings. TransEdge achieves promising performance on different prediction tasks. Our experiments on benchmark datasets indicate that it obtains the state-of-the-art results on embedding-based entity alignment. We also show that TransEdge is complementary with conventional entity alignment methods. Moreover, it shows very competitive performance on link prediction. | 翻訳日:2022-12-10 17:04:33 公開日:2020-04-22 |
# 複数経路上の統一記憶による回答生成 Answer Generation through Unified Memories over Multiple Passages ( http://arxiv.org/abs/2004.13829v1 ) ライセンス: Link先を確認 | Makoto Nakatsuji, Sohei Okui | (参考訳) 複数の節を参照して回答を生成する機械読解法は,AIやNLPコミュニティで注目されている。
しかし,現在の手法では回答生成過程における複数の文間の関係は検討されていないが,回答文間の話題が回答候補となる可能性がある。
GUM-MP (Unified Memories over Multiple Passages) によるニューラル解生成法は, この問題を次のように解決する。
まず、文中のどのトークンが問題にマッチしているかを決定する。
特に、質問に割り当てられた肯定的文中のトークンと、質問と無関係な否定的文のトークンとのマッチングについて調査する。
次に、同じ質問に割り当てられた他の文と、どの文中のトークンが一致しているかを判定し、同時に、一致した話題について調査する。
最後に、上記2つのマッチング結果と共にトークンシーケンスをトランスファーエンコーダの統一メモリに符号化し、マルチポイントジェネレータ機構を備えたエンコーダデコーダを用いて応答シーケンスを学習する。
その結果、GUM-MPは、通路にまたがる重要なトークンを指して回答を生成することができる。
GUM-MPは現在のモデルよりもはるかに正確な結果が得られることを示す。 Machine reading comprehension methods that generate answers by referring to multiple passages for a question have gained much attention in AI and NLP communities. The current methods, however, do not investigate the relationships among multiple passages in the answer generation process, even though topics correlated among the passages may be answer candidates. Our method, called neural answer Generation through Unified Memories over Multiple Passages (GUM-MP), solves this problem as follows. First, it determines which tokens in the passages are matched to the question. In particular, it investigates matches between tokens in positive passages, which are assigned to the question, and those in negative passages, which are not related to the question. Next, it determines which tokens in the passage are matched to other passages assigned to the same question and at the same time it investigates the topics in which they are matched. Finally, it encodes the token sequences with the above two matching results into unified memories in the passage encoders and learns the answer sequence by using an encoder-decoder with a multiple-pointer-generator mechanism. As a result, GUM-MP can generate answers by pointing to important tokens present across passages. Evaluations indicate that GUM-MP generates much more accurate results than the current models do. | 翻訳日:2022-12-10 17:04:21 公開日:2020-04-22 |
# DeepSubQE: 字幕翻訳の品質評価 DeepSubQE: Quality estimation for subtitle translations ( http://arxiv.org/abs/2004.13828v1 ) ライセンス: Link先を確認 | Prabhakar Gupta and Anil Nelakanti | (参考訳) 言語データを含むタスクの品質推定(qe)は、パラフレーズ、スタイル、文法など、自然言語の多くの側面のために難しい。
アプリケーションによって、受け入れやすさのレベルが異なる複数の回答が存在する可能性がある。
本稿では,ビデオ字幕の翻訳品質の推定について検討する。
既存のqeメソッドが不適切であることを示すとともに,2つの言語の字幕データから翻訳品質を推定するシステムとしてdeepsubqeを提案する。
我々は、自動ラベリングとトレーニングのための合成のために、様々なデータ拡張戦略に依存しています。
バイリンガルデータの意味的・統語的特徴を学習し,LSTMとCNNのみと比較するハイブリッドネットワークを構築した。
提案するネットワークは, 差が大きい。 Quality estimation (QE) for tasks involving language data is hard owing to numerous aspects of natural language like variations in paraphrasing, style, grammar, etc. There can be multiple answers with varying levels of acceptability depending on the application at hand. In this work, we look at estimating quality of translations for video subtitles. We show how existing QE methods are inadequate and propose our method DeepSubQE as a system to estimate quality of translation given subtitles data for a pair of languages. We rely on various data augmentation strategies for automated labelling and synthesis for training. We create a hybrid network which learns semantic and syntactic features of bilingual data and compare it with only-LSTM and only-CNN networks. Our proposed network outperforms them by significant margin. | 翻訳日:2022-12-10 17:03:45 公開日:2020-04-22 |
# 異常検出を用いた不完全可観測逆作用の発見 Discovering Imperfectly Observable Adversarial Actions using Anomaly Detection ( http://arxiv.org/abs/2004.10638v1 ) ライセンス: Link先を確認 | Olga Petrova, Karel Durkota, Galina Alperovich, Karel Horak, Michal Najman, Branislav Bosansky, Viliam Lisy | (参考訳) 異常検出は異常で不審な振る舞いを発見する方法である。
多くの実世界のシナリオでは、調査対象のイベントは、コンピュータネットワークに対する攻撃や金融業務における詐欺など、敵の行動に直接リンクすることができる。
ディフェンダーはそのような悪意のある行動を発見したいが、攻撃者は検出を避けながら目標(例えばデータ流出)を達成しようとする。
この目的のために、異常検出器は2人のプレイヤーの競争の目標を捉えるゲーム理論の枠組みで使用されている。
我々は,(1)両プレイヤーが連続的なアクション空間を持つこと,(2)ディフェンダーが攻撃者のアクションを完全に観察できないことを前提として,既存のモデルをより現実的な設定に拡張する。
特徴空間と線形計画法を区別した既存のアルゴリズムの直接拡張と制約付き学習に基づく2番目のアルゴリズムを提案する。
実験により、どちらのアルゴリズムも特徴空間が小さい場合に適用できるが、学習に基づく手法は、悪用可能な戦略を少なくし、高次元に拡張可能であることが示されている。
さらに、実世界のデータを用いて、DNSチャネルを介してデータ抽出シナリオにおける既存の分類器と比較する。
その結果、我々のモデルは情報攻撃者による悪用が著しく少ないことがわかった。 Anomaly detection is a method for discovering unusual and suspicious behavior. In many real-world scenarios, the examined events can be directly linked to the actions of an adversary, such as attacks on computer networks or frauds in financial operations. While the defender wants to discover such malicious behavior, the attacker seeks to accomplish their goal (e.g., exfiltrating data) while avoiding the detection. To this end, anomaly detectors have been used in a game-theoretic framework that captures these goals of a two-player competition. We extend the existing models to more realistic settings by (1) allowing both players to have continuous action spaces and by assuming that (2) the defender cannot perfectly observe the action of the attacker. We propose two algorithms for solving such games -- a direct extension of existing algorithms based on discretizing the feature space and linear programming and the second algorithm based on constrained learning. Experiments show that both algorithms are applicable for cases with low feature space dimensions but the learning-based method produces less exploitable strategies and it is scalable to higher dimensions. Moreover, we use real-world data to compare our approaches with existing classifiers in a data-exfiltration scenario via the DNS channel. The results show that our models are significantly less exploitable by an informed attacker. | 翻訳日:2022-12-10 17:03:22 公開日:2020-04-22 |
# langevin stein変分勾配による生成的逆行性ネットの安定化訓練 Stabilizing Training of Generative Adversarial Nets via Langevin Stein Variational Gradient Descent ( http://arxiv.org/abs/2004.10495v1 ) ライセンス: Link先を確認 | Dong Wang, Xiaoqian Qin, Fengyi Song, Li Cheng | (参考訳) 複雑なデータ分散を学習する能力で知られるgans(generative adversarial networks)は、トレーニングプロセスにおいてトリッキーであることが知られており、モードの崩壊やパフォーマンスの低下を引き起こす可能性がある。
GANの課題に対処する現在のアプローチは、正規化のための実践的な訓練手法をほとんど利用しており、その一方で、GANの収束と理論的健全性を損なうものである。
本稿では,従来のSVGDの柔軟性と効率を継承するだけでなく,更新ダイナミクスに余分な乱れを組み込むことで,その不安定性に対処することを目的とした,新しい粒子ベース変分勾配降下法(LSVGD)によるGANトレーニングの安定化を提案する。
さらに,ノイズ分散を適切に調整することにより,定常分布が目標分布であるランジュバン過程をシミュレートすることを示す。
また,lsvgdダイナミクスは粒子の拡散と多様性を高めることができる暗黙の正規化を持つことを示した。
最後に、損失関数がどんなものであっても、一般のGAN訓練手順に粒子ベースの変分推論を適用する効率的な方法を提案する。
Cifar-10、Tiny-ImageNet、CelebAの3つの一般的なベンチマークデータセットと1つの合成データセットの実験結果は、SVGDが様々なGANモデルの性能と安定性を著しく向上させることができることを検証している。 Generative adversarial networks (GANs), famous for the capability of learning complex underlying data distribution, are however known to be tricky in the training process, which would probably result in mode collapse or performance deterioration. Current approaches of dealing with GANs' issues almost utilize some practical training techniques for the purpose of regularization, which on the other hand undermines the convergence and theoretical soundness of GAN. In this paper, we propose to stabilize GAN training via a novel particle-based variational inference -- Langevin Stein variational gradient descent (LSVGD), which not only inherits the flexibility and efficiency of original SVGD but aims to address its instability issues by incorporating an extra disturbance into the update dynamics. We further demonstrate that by properly adjusting the noise variance, LSVGD simulates a Langevin process whose stationary distribution is exactly the target distribution. We also show that LSVGD dynamics has an implicit regularization which is able to enhance particles' spread-out and diversity. At last we present an efficient way of applying particle-based variational inference on a general GAN training procedure no matter what loss function is adopted. Experimental results on one synthetic dataset and three popular benchmark datasets -- Cifar-10, Tiny-ImageNet and CelebA validate that LSVGD can remarkably improve the performance and stability of various GAN models. | 翻訳日:2022-12-10 17:02:28 公開日:2020-04-22 |