このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20201218となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 真のネットワークマルチパーティタイト絡み合い Genuine Network Multipartite Entanglement ( http://arxiv.org/abs/2002.02773v3 ) ライセンス: Link先を確認 | Miguel Navascues, Elie Wolfe, Denis Rosset, Alejandro Pozas-Kerstjens | (参考訳) 真のマルチパーティ・エンタングルメントの標準的な定義は、成長を続ける多くの量子系に対する量子制御を評価する必要性に起因している。
実際、二成分の絡み合いを分散できるソースは、それ自体で、$k$-partite の絡み合い状態を生成することができる。
量子状態が真にネットワーク$k$-絡み合いであり、グローバルな共有ランダムネスの助けを借りたとしても、パーティ間で分散された数$k$-パーティイト状態に局所的なトレース保存マップを適用することによって生成できない場合、真のマルチパーティント絡み合いの代替定義を提案する。
実際のネットワークの絡み合いを解析的および数値的に検証し、過去の多くの量子実験をこの機能の実証として再解釈する。 The standard definition of genuine multipartite entanglement stems from the need to assess the quantum control over an ever-growing number of quantum systems. We argue that this notion is easy to hack: in fact, a source capable of distributing bipartite entanglement can, by itself, generate genuine $k$-partite entangled states for any $k$. We propose an alternative definition for genuine multipartite entanglement, whereby a quantum state is genuinely network $k$-entangled if it cannot be produced by applying local trace-preserving maps over several $k$-partite states distributed among the parties, even with the aid of global shared randomness. We provide analytic and numerical witnesses of genuine network entanglement, and we reinterpret many past quantum experiments as demonstrations of this feature. | 翻訳日:2023-06-04 07:34:47 公開日:2020-12-18 |
# 自己回帰量子状態によるレニーエントロピーの計算 Calculating Renyi Entropies with Neural Autoregressive Quantum States ( http://arxiv.org/abs/2003.01358v2 ) ライセンス: Link先を確認 | Zhaoyou Wang, Emily J. Davis | (参考訳) エンタングルメントエントロピーは、量子多体系を特徴づけるための重要な指標であるが、量子状態のニューラルネットワーク表現に対する数値評価は、これまで非効率であり、制限されたボルツマンマシンアーキテクチャに対してのみ実証されてきた。
ここでは, 量子モンテカルロ法を用いて, N=256スピンの自己回帰型神経量子状態のRenyiエントロピーを一般化した。
単純"直接サンプリング"アプローチは低次レニイエントロピーではうまく機能するが、1Dハイゼンベルクモデルでベンチマークすると大きな順序で失敗する。
そこで本研究では,1次元および2次元ハイゼンベルクモデルにおいて,直接サンプリングを上回り,高次renyiエントロピーの計算を容易にするネットワーク ansatz の自己回帰構造を利用した,改良された条件サンプリング手法を提案する。
より高階のレニイエントロピーへのアクセスは、フォン・ノイマンエントロピーの近似と単一のコピーエンタングルメントの抽出を可能にする。
どちらの手法も、多体系における絡み合いエントロピーの量子モンテカルロ研究におけるニューラルネットワーク量子状態の可能性を明らかにする。 Entanglement entropy is an essential metric for characterizing quantum many-body systems, but its numerical evaluation for neural network representations of quantum states has so far been inefficient and demonstrated only for the restricted Boltzmann machine architecture. Here, we estimate generalized Renyi entropies of autoregressive neural quantum states with up to N=256 spins using quantum Monte Carlo methods. A naive "direct sampling" approach performs well for low-order Renyi entropies but fails for larger orders when benchmarked on a 1D Heisenberg model. We therefore propose an improved "conditional sampling" method exploiting the autoregressive structure of the network ansatz, which outperforms direct sampling and facilitates calculations of higher-order Renyi entropies in both 1D and 2D Heisenberg models. Access to higher-order Renyi entropies allows for an approximation of the von Neumann entropy as well as extraction of the single copy entanglement. Both methods elucidate the potential of neural network quantum states in quantum Monte Carlo studies of entanglement entropy for many-body systems. | 翻訳日:2023-05-31 07:49:45 公開日:2020-12-18 |
# 病院職員の縦断的生理行動データセットTILES-2018 TILES-2018, a longitudinal physiologic and behavioral data set of hospital workers ( http://arxiv.org/abs/2003.08474v2 ) ライセンス: Link先を確認 | Karel Mundnich, Brandon M. Booth, Michelle L'Hommedieu, Tiantian Feng, Benjamin Girault, Justin L'Hommedieu, Mackenzie Wildman, Sophia Skaaden, Amrutha Nadarajan, Jennifer L. Villatte, Tiago H. Falk, Kristina Lerman, Emilio Ferrara, and Shrikanth Narayanan | (参考訳) 病院における直接臨床提供者から収集された生理的・行動的データの縦型マルチモーダルコーパスを提案する。
本研究は,市販のウェアラブルと環境センサを用いて,日々の業務環境において,業務パフォーマンスや対人関係,病院職員の幸福感など,個人固有の構造を理解するために設計した。
私たちは、Bluetoothデータハブ、ウェアラブルセンサー(リストバンド、バイオメトリックス追跡服、スマートフォン、オーディオ機能レコーダーを含む)、そして、個性特性、行動状態、仕事パフォーマンス、健康状態などを評価するための調査のバッテリーから、n = 212$の参加者から、行動データと生理的データを収集しました。
データセットのデフォルト使用に加えて、マルチモーダルおよびマルチタスク動作モデリング、バイオメトリックスによる認証、プライバシアウェアおよびプライバシ保護機械学習など、いくつかの新しい研究機会と潜在的な応用を想定しています。 We present a novel longitudinal multimodal corpus of physiological and behavioral data collected from direct clinical providers in a hospital workplace. We designed the study to investigate the use of off-the-shelf wearable and environmental sensors to understand individual-specific constructs such as job performance, interpersonal interaction, and well-being of hospital workers over time in their natural day-to-day job settings. We collected behavioral and physiological data from $n = 212$ participants through Internet-of-Things Bluetooth data hubs, wearable sensors (including a wristband, a biometrics-tracking garment, a smartphone, and an audio-feature recorder), together with a battery of surveys to assess personality traits, behavioral states, job performance, and well-being over time. Besides the default use of the data set, we envision several novel research opportunities and potential applications, including multi-modal and multi-task behavioral modeling, authentication through biometrics, and privacy-aware and privacy-preserving machine learning. | 翻訳日:2023-05-28 19:55:35 公開日:2020-12-18 |
# 非平衡量子熱力学への強化学習アプローチ Reinforcement learning approach to non-equilibrium quantum thermodynamics ( http://arxiv.org/abs/2004.07770v2 ) ライセンス: Link先を確認 | Pierpaolo Sgroi, G. Massimo Palma, and Mauro Paternostro | (参考訳) 我々は、平衡から引き出された閉量子系におけるエントロピー生成を低減するために強化学習アプローチを用いる。
我々の戦略は、ハミルトニアンの外部制御と政策勾配技術を利用する。
提案手法は, 動的過程による熱力学的不可逆性の度合いを特徴付けるために選択された定量的ツールに依存しず, 力学自体の知識をほとんど必要とせず, 進化中の系の量子状態の追跡も必要とせず, 非平衡量子力学の制御に対する実験的に非要求的なアプローチを具現化している。
時間依存駆動電位を受ける単粒子・二粒子系の場合に対して,本手法をうまく適用する。 We use a reinforcement learning approach to reduce entropy production in a closed quantum system brought out of equilibrium. Our strategy makes use of an external control Hamiltonian and a policy gradient technique. Our approach bears no dependence on the quantitative tool chosen to characterize the degree of thermodynamic irreversibility induced by the dynamical process being considered, require little knowledge of the dynamics itself and does not need the tracking of the quantum state of the system during the evolution, thus embodying an experimentally non-demanding approach to the control of non-equilibrium quantum thermodynamics. We successfully apply our methods to the case of single- and two-particle systems subjected to time-dependent driving potentials. | 翻訳日:2023-05-23 06:39:38 公開日:2020-12-18 |
# マルチパーティデバイス非依存暗号におけるエントロピー境界 Entropy bounds for multiparty device-independent cryptography ( http://arxiv.org/abs/2004.14263v3 ) ライセンス: Link先を確認 | Federico Grasselli, Gl\'aucia Murta, Hermann Kampermann, Dagmar Bru{\ss} | (参考訳) 分散絡み合いに基づくマルチパーティ量子暗号は、今後の量子ネットワークで自然に応用される。
DI会議の鍵契約のような多くの多部構成のデバイス非依存(DI)プロトコルのセキュリティは、多部構成のベルの不等式に違反しているため、盗聴者の情報に基づいて条件付けられた党の成果のフォン・ノイマンエントロピーの境界に依存する。
我々は,Mermin-Ardehali-Belinskii-Klyshko(MABK)の不平等を検証し,一方の結果の条件エントロピーと他方の結果の条件エントロピーを束縛することにより,結果のプライバシを認定する。
前者の立場から、当事者の結果のプライバシーを認証するためには、真のマルチパーティの絡み合いが必要であり、後者は以前の結果を大幅に改善する。
独立関心の2つの一般的な結果によりエントロピー境界を得る。
最初のものは、$N$-partite Bellシナリオの量子セットアップを劇的に単純化する。
2つめは、mabkの不等式を任意の$n$-qubit状態によって破ることに関する上限を、状態のパラメータの関数として与えるものである。 Multiparty quantum cryptography based on distributed entanglement will find its natural application in the upcoming quantum networks. The security of many multipartite device-independent (DI) protocols, such as DI conference key agreement, relies on bounding the von Neumann entropy of the parties' outcomes conditioned on the eavesdropper's information, given the violation of a multipartite Bell inequality. We consider three parties testing the Mermin-Ardehali-Belinskii-Klyshko (MABK) inequality and certify the privacy of their outcomes by bounding the conditional entropy of a single party's outcome and the joint conditional entropy of two parties' outcomes. From the former bound, we show that genuine multipartite entanglement is necessary to certify the privacy of a party's outcome, while the latter significantly improve previous results. We obtain the entropy bounds thanks to two general results of independent interest. The first one drastically simplifies the quantum setup of an $N$-partite Bell scenario. The second one provides an upper bound on the violation of the MABK inequality by an arbitrary $N$-qubit state, as a function of the state's parameters. | 翻訳日:2023-05-21 19:38:23 公開日:2020-12-18 |
# ハードコアボース・ハバードラダーにおけるrungペアの局在 Localization of Rung Pairs in Hard-core Bose-Hubbard Ladder ( http://arxiv.org/abs/2005.08530v4 ) ライセンス: Link先を確認 | Shang-Shu Li, Zi-Yong Ge, Heng Fan | (参考訳) 多体系の実験における量子シミュレーションは、理論的によく研究されていない新しい現象をもたらすかもしれない。
超伝導ラダー回路における量子シミュレーションの最近の研究に動機づけられ,bose-hubbardラダーモデルの焼入れ障害を伴わないラングペア定位について検討した。
その結果,ハードコア限界ではエッジとバルクの両方にrung-pair局在が存在することがわかった。
中心のフレームを用いて、2粒子系を近似したサブ格子対称性を持つ効果的な単一粒子系にマッピングすることができる。
ハードコア限界条件下では、実効系は左端に欠陥を生じさせ、ゼロエネルギーフラットバンドに繋がることになり、これはrung-pair局在の起源となる。
また,Bose-Hubbard はしごモデルの多粒子動力学についても検討した。
この場合、ペア間の相互作用が存在するにもかかわらず、局在性は依然として残ることが判明する。
さらに, エントロピーのエントロピーが長時間の対数成長を示し, 飽和値が体積則を満たすことを示した。
この現象は、相互作用が動力学において重要な役割を果たすことを意味するが、局在を壊すことはできない。
以上の結果から, ゼロエネルギー平らなバンドは, オンサイト相互作用と特定の格子対称性によって引き起こされると考えられる。 Quantum simulation in experiments of many-body systems may bring new phenomena which are not well studied theoretically. Motivated by a recent work of quantum simulation on a superconducting ladder circuit, we investigate the rung-pair localization of the Bose-Hubbard ladder model without quenched disorder. Our results show that, in the hard-core limit, there exists a rung-pair localization both at the edges and in the bulk. Using center-of-mass frame, the two-particle system can be mapped to an effective single-particle system with an approximate sub-lattice symmetry. Under the condition of hard-core limit, the effective system is forced to have a defect at the left edge leading to a zero-energy flat band, which is the origin of the rung-pair localization. We also study the multi-particle dynamics of the Bose-Hubbard ladder model, which is beyond the singleparticle picture. In this case, we find that the localization can still survive despite of the existence of interaction between the pairs. Moreover, the numerical results show that the entanglement entropy exhibits a long-time logarithmic growth and the saturated values satisfy a volume law. This phenomenon implies that the interaction plays an important role during the dynamics, although it cannot break the localization. Our results reveal another interesting type of disorder-free localization related to a zero-energy flat band, which is induced by on-site interaction and specific lattice symmetry. | 翻訳日:2023-05-19 11:32:58 公開日:2020-12-18 |
# 箱の中の少数のボソンの分数チャーン絶縁体:中心ドリフトと密度プロファイルによるホール高原 Fractional Chern insulators of few bosons in a box: Hall plateaus from center-of-mass drifts and density profiles ( http://arxiv.org/abs/2005.09689v3 ) ライセンス: Link先を確認 | C. Repellin, J. L\'eonard, N. Goldman | (参考訳) 超低温気体の強相関トポロジー相の実現は、進行中の実験における中心的な目標である。
量子ホール状態はすぐに小さな原子アンサンブルで実装される可能性があるが、少数粒子設定でそれらのシグネチャを検出することは根本的な課題である。
本研究では,ハーパー・ホフシュタッター・ハバード模型の箱状電位における基底状態に最初に調製された,小さなコアボソンの質量中心ホールドリフトを数値的に解析する。
放流時のホールドリフトの観測により, 広範囲の磁束値に対して, 抽出されたホール導電率が多体チャーン数によって決定される分数値に近づく一方, プラトーの幅は, 生成した基底状態のスペクトルおよび位相特性に一致すること, 分数チャーン絶縁状態と相容する創発ホール高原を同定する。
さらに、ストレーダの公式の直接の応用は、そのようなホール台地が静的密度プロファイル測定から直接得られることを示している。
計算により, 低温原子実験において, 使用可能な検出法を用いて, チャーン絶縁体を検出できることが示唆された。 Realizing strongly-correlated topological phases of ultracold gases is a central goal for ongoing experiments. And while fractional quantum Hall states could soon be implemented in small atomic ensembles, detecting their signatures in few-particle settings remains a fundamental challenge. In this work, we numerically analyze the center-of-mass Hall drift of a small ensemble of hardcore bosons, initially prepared in the ground state of the Harper-Hofstadter-Hubbard model in a box potential. By monitoring the Hall drift upon release, for a wide range of magnetic flux values, we identify an emergent Hall plateau compatible with a fractional Chern insulator state: the extracted Hall conductivity approaches a fractional value determined by the many-body Chern number, while the width of the plateau agrees with the spectral and topological properties of the prepared ground state. Besides, a direct application of Streda's formula indicates that such Hall plateaus can also be directly obtained from static density-profile measurements. Our calculations suggest that fractional Chern insulators can be detected in cold-atom experiments, using available detection methods. | 翻訳日:2023-05-19 08:05:18 公開日:2020-12-18 |
# 散逸流方程式 Dissipative flow equations ( http://arxiv.org/abs/2007.12044v4 ) ライセンス: Link先を確認 | Lorenzo Rosso, Fernando Iemini, Marco Schir\`o, Leonardo Mazza | (参考訳) フロー方程式の理論をリンドブラッドマスター方程式に焦点をあてた開量子系に一般化する。
線形非エルミート作用素を対角線に変換する流れの3つの異なる生成子を紹介し,議論する。
まず, 一般化行列上の散逸流方程式と, 駆動散逸単一フェルミオンモードを持つ物理問題について検証した。
次に,多くのフェルミオンモードの問題に目を向け,コヒーレント(不規則)ダイナミクスと局所的損失の相互作用について論じる。
この方法は非エルミート・ハミルトニアンにも適用できる。 We generalize the theory of flow equations to open quantum systems focusing on Lindblad master equations. We introduce and discuss three different generators of the flow that transform a linear non-Hermitian operator into a diagonal one. We first test our dissipative flow equations on a generic matrix and on a physical problem with a driven-dissipative single fermionic mode. We then move to problems with many fermionic modes and discuss the interplay between coherent (disordered) dynamics and localized losses. Our method can also be applied to non-Hermitian Hamiltonians. | 翻訳日:2023-05-08 10:49:07 公開日:2020-12-18 |
# R'enyiエンタングルメントエントロピーの拡散系におけるダイナミクス Dynamics of R\'enyi entanglement entropy in diffusive qudit systems ( http://arxiv.org/abs/2008.00944v2 ) ライセンス: Link先を確認 | Yichen Huang | (参考訳) 私の以前の研究(arXiv:1902.00977)は、電荷保存を伴う局所量子回路におけるR'enyiエンタングルメントエントロピー$R_\alpha$のダイナミクスを研究した。
ランダムな積状態においてシステムを初期化することにより、R\'enyi index $\alpha>1$ による$R_\alpha$ が、電荷輸送が拡散的でない場合の「拡散的」よりも速く成長することが証明された。
この証明は qubit または spin-$1/2$ システムに対してのみ与えられた。
このノートでは、証明をqudit系、すなわち局所次元 $d\ge2$ のスピン系に拡張する。 My previous work [arXiv:1902.00977] studied the dynamics of R\'enyi entanglement entropy $R_\alpha$ in local quantum circuits with charge conservation. Initializing the system in a random product state, it was proved that $R_\alpha$ with R\'enyi index $\alpha>1$ grows no faster than "diffusively" (up to a sublogarithmic correction) if charge transport is not faster than diffusive. The proof was given only for qubit or spin-$1/2$ systems. In this note, I extend the proof to qudit systems, i.e., spin systems with local dimension $d\ge2$. | 翻訳日:2023-05-08 02:19:33 公開日:2020-12-18 |
# 位相的および対称性に富むランダム量子臨界点 Topological and symmetry-enriched random quantum critical points ( http://arxiv.org/abs/2008.02285v2 ) ライセンス: Link先を確認 | Carlos M. Duque, Hong-Ye Hu, Yi-Zhuang You, Vedika Khemani, Ruben Verresen and Romain Vasseur | (参考訳) 我々は、対称性が強いランダム性量子臨界点と位相を豊かにし、臨界バルク変動と共存するロバストなトポロジカルエッジモードを実現する方法を研究する。
これらはギャップレス位相の混乱したアナログである。
実空間および密度行列再正規化群アプローチを用いて、このような対称性エンリッチ量子スピンチェーンの境界およびバルク臨界挙動を解析する。
局所バルク特性は従来のランダム一重項位相と区別できないが、非局所可観測性と境界臨界挙動は異なる正規化群固定点によって制御される。
また、このような新しい量子臨界点がフロケ系において自然に現れることを示す。 We study how symmetry can enrich strong-randomness quantum critical points and phases, and lead to robust topological edge modes coexisting with critical bulk fluctuations. These are the disordered analogues of gapless topological phases. Using real-space and density matrix renormalization group approaches, we analyze the boundary and bulk critical behavior of such symmetry-enriched random quantum spin chains. We uncover a new class of symmetry-enriched infinite randomness fixed points: while local bulk properties are indistinguishable from conventional random singlet phases, nonlocal observables and boundary critical behavior are controlled by a different renormalization group fixed point. We also illustrate how such new quantum critical points emerge naturally in Floquet systems. | 翻訳日:2023-05-07 02:15:57 公開日:2020-12-18 |
# 有限浴と相関する量子系:非平衡ダイナミクスと熱力学 Quantum systems correlated with a finite bath: nonequilibrium dynamics and thermodynamics ( http://arxiv.org/abs/2008.02184v2 ) ライセンス: Link先を確認 | Andreu Riera-Campeny, Anna Sanpera, and Philipp Strasberg | (参考訳) 特に、環境がメゾスコピックである場合、進化の間に非平衡の特徴が発達する場合、あるいは記憶効果が無視できない場合、開量子システムを記述することは困難である。
ここでは,システムバス相関を明示的に考慮し,粗粒度で動的に発展する浴槽を含むマスター方程式を導出する。
そのようなマスター方程式はランダム行列理論や固有状態熱化仮説で説明されるものを含む、幅広い物理系に適用される。
我々はボルツマンエントロピーによる温度の定義と一致して安定な負の温度状態の出現を妨げない局所的詳細バランス条件を得る。
従来のボルンマルコフ系列のマスター方程式が崩壊する状況において、マスター方程式を正確な進化に対してベンチマークし、非常に良い一致を観察する。
興味深いことに、現在の力学の記述は堅牢であり、仮定の一部が緩和されたとしても正確である。
主方程式はギブス状態によって記述されない動的に発展する浴場を記述するが、一貫した非平衡熱力学の枠組みを提供し、第1および第2法則とクラウシウスの不等式を導出する。
我々の研究は、従来の静的熱風呂の仮定を超えて、エンジン、冷蔵庫、ヒートポンプを含む様々なナノスケール量子技術を研究するための道を開いた。 Describing open quantum systems far from equilibrium is challenging, in particular when the environment is mesoscopic, when it develops nonequilibrium features during the evolution, or when the memory effects cannot be disregarded. Here, we derive a master equation that explicitly accounts for system-bath correlations and includes, at a coarse-grained level, a dynamically evolving bath. Such a master equation applies to a wide variety of physical systems including those described by Random Matrix Theory or the Eigenstate Thermalization Hypothesis. We obtain a local detailed balance condition which, interestingly, does not forbid the emergence of stable negative temperature states in unison with the definition of temperature through the Boltzmann entropy. We benchmark the master equation against the exact evolution and observe a very good agreement in a situation where the conventional Born-Markov-secular master equation breaks down. Interestingly, the present description of the dynamics is robust and it remains accurate even if some of the assumptions are relaxed. Even though our master equation describes a dynamically evolving bath not described by a Gibbs state, we provide a consistent nonequilibrium thermodynamic framework and derive the first and second law as well as the Clausius inequality. Our work paves the way for studying a variety of nanoscale quantum technologies including engines, refrigerators, or heat pumps beyond the conventionally employed assumption of a static thermal bath. | 翻訳日:2023-05-07 02:14:36 公開日:2020-12-18 |
# ファンデルpol発振器の2フォノン損失による非古典的フォノン放射統計 Highly nonclassical phonon emission statistics through two-phonon loss of van der Pol oscillator ( http://arxiv.org/abs/2008.05720v3 ) ライセンス: Link先を確認 | Jiahua Li, Chunling Ding, and Ying Wu | (参考訳) システム内で非古典波を生成する能力は、量子通信と計算の進歩に不可欠である。
本稿では、外部駆動を受ける量子ファンデルポル(vdP)発振器において、単フォノン損失と2フォノン損失の両面において、高い非古典的なフォノン放出統計量を生成する手法を提案する。
その結果、vdp発振器の非線形二フォノン損失に大きく依存し、この2フォノン損失により反結合の程度が単調に増大し、最適な反結合および単一フォノン放出を有する識別パラメータレジームが明確に同定されることがわかった。
さらに, 3oscillator-levelモデルを用いた解析計算により, 出力フォノン統計の強い反バンドルについて, マスター方程式法と弱駆動におけるシュロディンガー方程式法を駆使した全数値シミュレーションとよく一致した深い知見を与える。
また、パワースペクトル密度によって与えられるvdP発振器の蛍光フォノン発光スペクトルも評価した。
また,vdpシステムでは,強いフォノンアンチバンチングを伴う高いフォノン放出振幅が達成可能であり,実実験における相関測定に有益であることを示す。
提案手法では,2つの結合した非線形共振器や複合ナノフォトニック構造を,従来とは違って再構成することなく,単一のvdP発振器のみを必要とする。
このスキームは他のシステムでアンチバンチングを実現する方法に刺激を与える可能性がある。 The ability to produce nonclassical wave in a system is essential for advances in quantum communication and computation. Here, we propose a scheme to generate highly nonclassical phonon emission statistics -- antibunched wave in a quantum van der Pol (vdP) oscillator subject to an external driving, both single- and two-phonon losses. It is found that phonon antibunching depends significantly on the nonlinear two-phonon loss of the vdP oscillator, where the degree of the antibunching increases monotonically with the two-phonon loss and the distinguished parameter regimes with optimal antibunching and single-phonon emission are identified clearly. In addition, we give an in-depth insight into strong antibunching in the emitted phonon statistics by analytical calculations using a three-oscillator-level model, which agree well with the full numerical simulations employing a master-equation approach and a Schrodinger-equation approach at weak driving. In turn, the fluorescence phonon emission spectra of the vdP oscillator, given by the power spectral density, are also evaluated. We further show that high phonon emission amplitudes, simultaneously accompanied by strong phonon antibunching, are attainable in the vdP system, which are beneficial to the correlation measurement in practical experiments. Our approach only requires a single vdP oscillator, without the need for reconfiguring the two coupled nonlinear resonators or the complex nanophotonic structures as compared to the previous unconventional blockade schemes. The present scheme could inspire methods to achieve antibunching in other systems. | 翻訳日:2023-05-06 09:15:49 公開日:2020-12-18 |
# 有限空間計算における量子優位性 Quantum advantage for computations with limited space ( http://arxiv.org/abs/2008.06478v2 ) ライセンス: Link先を確認 | Dmitri Maslov, Jin-Sung Kim, Sergey Bravyi, Theodore J. Yoder, and Sarah Sheldon | (参考訳) 量子計算は古典的な設定で難解な問題を解く能力を約束する。
しばしば考慮される計算の種類を制限することで、量子計算によって証明可能な理論的利点が確立され、後に実験的に証明される。
本稿では、入力が読み取り専用メモリであり、1(qu)ビットしか計算できない空間制限型計算について考察する。
n$-bit対称ブール関数は、量子信号処理を制限された空間量子計算として、o(n^2)$ゲートを用いて正確に実装できるが、それらのいくつかは、類似的に定義された古典計算によって、確率1/2 + o(n/\sqrt{2}^n)$でのみ評価できる。
量子回路による3-,4$,5$,6$bit対称ブール関数の計算を実験的に実証し,アルゴリズム的成功確率が古典的最良を上回って,カスタム2量子ビットゲートを活用した。
これは、量子スクラップ空間が古典空間の類似よりも貴重である、異なる種類の量子優位性を確立し、実験的に検証し、量子回路における時空トレードオフの詳細な探索を要求する。 Quantum computations promise the ability to solve problems intractable in the classical setting. Restricting the types of computations considered often allows to establish a provable theoretical advantage by quantum computations, and later demonstrate it experimentally. In this paper, we consider space-restricted computations, where input is a read-only memory and only one (qu)bit can be computed on. We show that $n$-bit symmetric Boolean functions can be implemented exactly through the use of quantum signal processing as restricted space quantum computations using $O(n^2)$ gates, but some of them may only be evaluated with probability $1/2 + O(n/\sqrt{2}^n)$ by analogously defined classical computations. We experimentally demonstrate computations of $3$-, $4$-, $5$-, and $6$-bit symmetric Boolean functions by quantum circuits, leveraging custom two-qubit gates, with algorithmic success probability exceeding the best possible classically. This establishes and experimentally verifies a different kind of quantum advantage -- one where quantum scrap space is more valuable than analogous classical space -- and calls for an in-depth exploration of space-time tradeoffs in quantum circuits. | 翻訳日:2023-05-06 07:02:01 公開日:2020-12-18 |
# 整数最適化復号器によるホログラフィック符号の復号 Decoding Holographic Codes with an Integer Optimisation Decoder ( http://arxiv.org/abs/2008.10206v2 ) ライセンス: Link先を確認 | Robert J. Harris, Elliot Coupe, Nathan A. McMahon, Gavin K. Brennen, and Thomas M. Stace | (参考訳) 我々は,汎用整数最適化に基づくstabiliser符号のエラーパウリ誤り復号アルゴリズムを開発した。
このデコーダを用いて、パウリ誤差に対するホログラフィック符号の性能を分析し、バルク量子ビットに対するパウリ誤差に対するしきい値の数値的証拠を求める。
我々は、様々なコードレートのホログラフィックコードファミリーのパフォーマンスを比較し、コードレートに応じて、7\%$から16\%$までの表現学的パウリ誤差しきい値を見つける。
さらに、我々が考える符号の特定の距離測度が、物理キュービットの数と多項式的にスケールしていることの数値的証拠を与える。 We develop a most likely error Pauli error decoding algorithm for stabiliser codes based on general purpose integer optimisation. Using this decoder we analyse the performance of holographic codes against Pauli errors and find numerical evidence for thresholds against Pauli errors for bulk qubits. We compare the performance of holographic code families of various code rates and find phenomenological Pauli error thresholds ranging from $7\%$ to $16\%$, depending on the code rate. Additionally we give numerical evidence that specific distance measures of the codes we consider scales polynomially with number of physical qubits. | 翻訳日:2023-05-05 02:20:53 公開日:2020-12-18 |
# 連続可変ゲートテレポーテーションとボゾン符号誤り訂正 Continuous-variable gate teleportation and bosonic-code error correction ( http://arxiv.org/abs/2008.12791v3 ) ライセンス: Link先を確認 | Blayney W. Walshe, Ben Q. Baragiola, Rafael N. Alexander, Nicolas C. Menicucci | (参考訳) ビームスプリッタを介して送信される純積状態から得られる絡み合った状態を用いて連続可変ゲートテレポーテーションを検討した。
このような状態は(典型的には)非ユニタリゲートのchoi状態であり、入力状態上の非ガウス的非ユニタリ量子演算を実現するために使用できるテレポーテーションのkraus演算子を導出する。
この結果,gottesman-kitaev-preskill符号で符号化されたbosonic qubitsの誤り訂正にゲートテレポーテーションがどのように用いられるかを示す。
この結果は、GKP状態の確率的供給を補足した定数深さ線形光ネットワークによって生成されるマクロノードクラスター状態の決定論的に生成された文脈で示される。
我々の手法の要点は、ゲートテレポーテーションとエラー訂正の両方のための状態注入が、量子光学実装の実験的ボトルネックであるアクティブなスクイーズ操作なしで実現できることである。 We examine continuous-variable gate teleportation using entangled states made from pure product states sent through a beamsplitter. We show that such states are Choi states for a (typically) non-unitary gate, and we derive the associated Kraus operator for teleportation, which can be used to realize non-Gaussian, non-unitary quantum operations on an input state. With this result, we show how gate teleportation is used to perform error correction on bosonic qubits encoded using the Gottesman-Kitaev-Preskill code. This result is presented in the context of deterministically produced macronode cluster states, generated by constant-depth linear optical networks, supplemented with a probabilistic supply of GKP states. The upshot of our technique is that state injection for both gate teleportation and error correction can be achieved without active squeezing operations -- an experimental bottleneck for quantum optical implementations. | 翻訳日:2023-05-04 11:31:37 公開日:2020-12-18 |
# 消散性量子電池を再生するフロケット工学 Floquet Engineering to Reactivate a Dissipative Quantum Battery ( http://arxiv.org/abs/2009.06982v2 ) ライセンス: Link先を確認 | Si-Yuan Bai, Jun-Hong An | (参考訳) 原子サイズに近いエネルギー貯蔵および変換装置として、量子電池(QB)は、量子リソースを使用して充電力と取り出し可能な作業を約束する。
しかし、ユビキタスなデコヒーレンスは、qbの老化と呼ばれる循環電荷保存放出過程を非活性化させる。
本稿では,QBの老化を克服するメカニズムを提案する。
QBチャージャー装置と各環境からなる全系の準エネルギースペクトルにおいて、2つのフロケット境界状態(FBSs)が形成されると、QBのデコヒーレンスが抑制される。
2つのFBSの準エネルギーが縮退するか、または2つのFBSの存在下でQB電荷結合が大きい限り、散逸性環境に曝されたQBは、その準理想的環状段階に戻る。
この結果から,Floquet 技術を用いた実運用におけるQBの実現の指針が得られた。 As an energy storing and converting device near atomic size, a quantum battery (QB) promises enhanced charging power and extractable work using quantum resources. However, the ubiquitous decoherence causes its cyclic charging-storing-discharging process to become deactivated, which is called aging of the QB. Here, we propose a mechanism to overcome the aging of a QB. It is found that the decoherence of the QB is suppressed when two Floquet bound states (FBSs) are formed in the quasienergy spectrum of the total system consisting of the QB-charger setup and their respective environments. As long as either the quasienergies of the two FBSs are degenerate or the QB-charger coupling is large in the presence of two FBSs, the QB exposed to the dissipative environments returns to its near-ideal cyclic stage. Our result supplies an insightful guideline to realize the QB in practice using Floquet engineering. | 翻訳日:2023-05-02 04:38:11 公開日:2020-12-18 |
# 隠れた古典量子リンクを披露する Unveiling A Hidden Classical-Quantum Link ( http://arxiv.org/abs/2009.08308v3 ) ライセンス: Link先を確認 | Partha Ghose | (参考訳) 古典物理学と量子力学の分離の概念はまだ十分にブリッジされていない。
本論文の目的は、電磁場のグリーンウルフ複素スカラー表現とその巨大磁場への拡張において、そのような橋が自然に存在することを示すことである。
グリーンウルフ表現から従う放射の量子力学的な理論は、宇宙マイクロ波背景放射(cmbr)に普遍的な媒体として適用され、その影響が探究される。 The conceptual divide between classical physics and quantum mechanics has not been satisfactorily bridged as yet. The purpose of this paper is to show that such a bridge exists naturally in the Green-Wolf complex scalar representation of electromagnetic fields and its extension to massive fields. The quantum mechanical theory of radiation that follows from the the Green-Wolf representation is applied to the cosmic microwave background radiation (CMBR) regarded as a universal medium, and the implications are explored. | 翻訳日:2023-05-02 02:10:16 公開日:2020-12-18 |
# 攻撃評価に基づくqkdの実験的脆弱性解析 Experimental vulnerability analysis of QKD based on attack ratings ( http://arxiv.org/abs/2010.07815v2 ) ライセンス: Link先を確認 | Rupesh Kumar, Francesco Mazzoncini, Hao Qin and Romain All\'eaume | (参考訳) 古典的暗号ハードウェアで使用される手法に着想を得て,QKDセキュリティ評価の文脈における攻撃評価の利用を検討する。
本手法の妥当性を説明するため, CV-QKDの飽和攻撃に対する脆弱性評価を2つの異なる攻撃戦略に対して行った。
最初の戦略は、大きなコヒーレント変位を行うことで検出器飽和を誘導することに依存する。
この戦略は実験的に難しいため、高い攻撃率に変換される。
また, 検出器を外部レーザーで飽和させる第2の攻撃戦略を提案し, 実験を行った。
低評価は,本攻撃がCV-QKDシステムの主要な脅威であることを示している。
これらの結果は,QKDシステムの設計と工学を可能な限り高いセキュリティ基準に導くために,攻撃評価に基づく脆弱性分析と理論的セキュリティ考察を組み合わせる利点を強調した。 Inspired by the methodology used for classical cryptographic hardware, we consider the use of attack ratings in the context of QKD security evaluation. To illustrate the relevance of this approach, we conduct an experimental vulnerability assessment of CV-QKD against saturation attacks, for two different attack strategies. The first strategy relies on inducing detector saturation by performing a large coherent displacement. This strategy is experimentally challenging and therefore translates into a high attack rating. We also propose and experimentally demonstrate a second attack strategy that simply consists in saturating the detector with an external laser. The low rating we obtain indicates that this attack constitutes a primary threat for practical CV-QKD systems. These results highlight the benefits of combining theoretical security considerations with vulnerability analysis based on attack ratings, in order to guide the design and engineering of practical QKD systems towards the highest possible security standards. | 翻訳日:2023-04-29 00:25:03 公開日:2020-12-18 |
# クーパーペアボックスのジョセフソン容量を用いたオプティメカルカップリングとカー非線形性の向上 Enhancement of the optomechanical coupling and Kerr nonlinearity using the Josephson Capacitance of Cooper-pair box ( http://arxiv.org/abs/2010.13493v2 ) ライセンス: Link先を確認 | Mohammad Tasnimul Haque (1), Juuso Manninen (1), David Vitali (2), Pertti Hakonen (1 and 3) ((1) Low Temperature Laboratory, Department of Applied Physics, Aalto University, (2) School of Science and Technology, Physics Division, University of Camerino, (3) QTF Centre of Excellence, Department of Applied Physics, Aalto University) | (参考訳) 本稿では,マイクロ波と機械共振器の最適結合を,回路オプティメカル設定における超強結合限界まで最大7桁向上する手法を提案する。
ここで考慮された三部構造は、マイクロ波空洞と機械共振器との結合を媒介するジョセフソン接合クーパーペアボックスからなる。
クーパーペアボックスのゲート電荷と磁束バイアスをチューニングし、クーパーペアボックスのジョセフソン容量に影響を与えることで、光機械的カップリングを変更することができる。
さらに、調整パラメータの適切な選択により、オプティメカルカップリングは消滅し、システムは純粋にキャビティとメカニカル共振器の間の非線形性を示すことを示す。
これにより、システムはフォノンカウントに使用できる。 We propose a scheme for enhancing the optomechanical coupling between microwave and mechanical resonators by up to seven orders of magnitude to the ultrastrong coupling limit in a circuit optomechanical setting. The tripartite system considered here consists of a Josephson junction Cooper-pair box that mediates the coupling between the microwave cavity and the mechanical resonator. The optomechanical coupling can be modified by tuning the gate charge and the magnetic flux bias of the Cooper-pair box which in turn affect the Josephson capacitance of the Cooper-pair box. We additionally show that with suitable choice of tuning parameters, the optomechanical coupling vanishes and the system exhibits purely a cross-Kerr type of nonlinearity between the cavity and the mechanical resonator. This allows the system to be used for phonon counting. | 翻訳日:2023-04-27 11:29:29 公開日:2020-12-18 |
# 分子振動からのブラウン散逸の存在下でのポラリトン応答 Polariton response in the presence of Brownian dissipation from molecular vibrations ( http://arxiv.org/abs/2011.03421v2 ) ライセンス: Link先を確認 | Kalle S. U. Kansanen, J. Jussi Toppari, Tero T. Heikkil\"a | (参考訳) 分子励起子と強く結合した空洞の定常駆動系の弾性応答について検討し, 有限空洞線幅と分子振動による主散逸チャネルを考慮に入れた。
特に, 分子の振動に対する非ローレンツ的散逸により, 頻繁に用いられる結合振動子モデルでは, この応答を記述できないことを示す。
この故障の署名は、ポラリトンピーク分裂の温度依存性の最小点、最小分裂時の不均一なポラリトンピーク高さ、実験的にアクセスされた「ゼロデチューン」地点でもポラリトンピークの非対称な形状である。
分子振動の比較的汎用的なモデルを用いて, 温度, 分子ストークスシフト, 振動周波数, ラビ分割の大きさに応じて, 様々な条件下でのポーラリトン応答を予測した。
実験の結果は, 真空励起化学反応速度などの強いカップリングから得られた結果を「促進」する実験の健全性チェックとして使用できる。 We study the elastic response of a stationarily driven system of a cavity field strongly coupled with molecular excitons, taking into account the main dissipation channels due to the finite cavity linewidth and molecular vibrations. We show that the frequently used coupled oscillator model fails in describing this response especially due to the non-Lorentzian dissipation of the molecules to their vibrations. Signatures of this failure are the temperature dependent minimum point of the polariton peak splitting, uneven polariton peak height at the minimum splitting, and the asymmetric shape of the polariton peaks even at the experimentally accessed "zero-detuning" point. Using a rather generic yet representative model of molecular vibrations, we predict the polariton response in various conditions, depending on the temperature, molecular Stokes shift and vibration frequencies, and the size of the Rabi splitting. Our results can be used as a sanity check of the experiments trying to "prove" results originating from strong coupling, such as vacuum-enhanced chemical reaction rate. | 翻訳日:2023-04-25 03:14:36 公開日:2020-12-18 |
# 静止力センシングのための量子限界 Quantum limits for stationary force sensing ( http://arxiv.org/abs/2011.14716v2 ) ライセンス: Link先を確認 | Farid Ya. Khalili and Emil Zeuthen | (参考訳) 力、運動、磁場の最先端のセンサーは、メーターの量子ノイズが重要か、あるいは支配的である感度に達している。
特に、最高の光機械装置の感度は、ハイゼンベルクの不確実性関係から直接従う標準量子限界(sql)に達し、測定の不正確さと測定器の量子バックアクションによる摂動のバランスに対応する。
SQLは真に基本的なものではなく、その克服のためのいくつかのメソッドが提案され、実証されている。
同時に、より基本的な2つの量子感度制約が知られている。
最初の極限は、探査強度の有限性(循環する光力の光干渉計の場合)から生じ、エネルギティック量子限界(Energetic Quantum Limit)またはより一般的な文脈ではQuantum Cram\'{e}r-Rao Bound(QCRB)と呼ばれる。
第2の限界は、SQLを克服するために開発された量子バックアクション回避技術の完全な有効性を妨げるプローブの散逸ダイナミクスから生じる。
この制限には特定の名前が割り当てられておらず、我々はそれに対して Dissipative Quantum Limit (DQL) という用語を提案する。
ここでは,これら2つの基本限界の統一理論を,それらが特定の場合として従う一般感受性制約を導出することにより展開する。
解析の結果,QCRBが支配する状態とDQL状態の境界で発生する相転移が,電場量子ノイズの最適スペクトル密度の不連続微分によって明らかとなった。
これは反直感的な(しかし好意的な)発見につながり、量子制限感度はある種の損失計システムで達成できる。
最後に, dqlはプローブの内部熱雑音の非自己交換性に由来すること, 非定常測定で克服できることを示した。 State-of-the-art sensors of force, motion and magnetic fields have reached the sensitivity where the quantum noise of the meter is significant or even dominant. In particular, the sensitivity of the best optomechanical devices has reached the Standard Quantum Limit (SQL), which directly follows from the Heisenberg uncertainty relation and corresponds to balancing the measurement imprecision and the perturbation of the probe by the quantum back action of the meter. The SQL is not truly fundamental and several methods for its overcoming have been proposed and demonstrated. At the same time, two quantum sensitivity constraints which are more fundamental are known. The first limit arises from the finiteness of the probing strength (in the case of optical interferometers - of the circulating optical power) and is known as the Energetic Quantum Limit or, in a more general context, as the Quantum Cram\'{e}r-Rao Bound (QCRB). The second limit arises from the dissipative dynamics of the probe, which prevents full efficacy of the quantum back action evasion techniques developed for overcoming the SQL. No particular name has been assigned to this limit; we propose the term Dissipative Quantum Limit (DQL) for it. Here we develop a unified theory of these two fundamental limits by deriving the general sensitivity constraint from which they follow as particular cases. Our analysis reveals a phase transition occurring at the boundary between the QCRB-dominated and the DQL regimes, manifested by the discontinuous derivatives of the optimal spectral densities of the meter field quantum noise. This leads to the counter-intuitive (but favorable) finding that quantum-limited sensitivity can be achieved with certain lossy meter systems. Finally, we show that the DQL originates from the non-autocommutativity of the internal thermal noise of the probe and that it can be overcome in non-stationary measurements. | 翻訳日:2023-04-22 14:40:07 公開日:2020-12-18 |
# 量子読み出しのための極符号 Polar Codes for Quantum Reading ( http://arxiv.org/abs/2012.07198v2 ) ライセンス: Link先を確認 | Francisco Revson F. Pereira and Stefano Mancini | (参考訳) 量子読み取りは、量子チャネルの統計的識別を定式化する一般的なフレームワークを提供する。
そのような問題のためにいくつかの道が採られた。
しかし、古典的な符号を用いてチャネル識別を最適化する方法には、多くのことがある。
少なくとも2つのオープンな疑問が指摘できる: チャネル識別に興味深い低複雑性の符号化スキームを構築する方法と、さらに重要なのは、キャパシティの実現プロトコルを開発する方法である。
本研究の目的は,これらの問題に対する極性符号を用いた解を提案することである。
まず,極性符号化におけるチャネルの速度と信頼性を特徴付ける。
また,提案手法の誤り確率は符号長に対して指数関数的に減衰することを示した。
最後に、プローブとして使用する最適な量子状態の解析が与えられる。 Quantum reading provides a general framework where to formulate the statistical discrimination of quantum channels. Several paths have been taken for such a problem. However, there is much to be done in the avenue of optimizing channel discrimination using classical codes. At least two open questions can be pointed to: how to construct low complexity encoding schemes that are interesting for channel discrimination and, more importantly, how to develop capacity-achieving protocols. The aim of this paper is to present a solution to these questions using polar codes. Firstly, we characterize the rate and reliability of the channels under polar encoding. We also show that the error probability of the scheme proposed decays exponentially with respect to the code length. Lastly, an analysis of the optimal quantum states to be used as probes is given. | 翻訳日:2023-04-20 21:36:17 公開日:2020-12-18 |
# 超臨界結合を持つ逆二乗特異ポテンシャルのj行列散乱法i.理論 J-matrix method of scattering for inverse-square singular potential with supercritical coupling I. Theory ( http://arxiv.org/abs/2012.07493v2 ) ライセンス: Link先を確認 | Abdulaziz D. Alhaidari, Hocine Bahlouli, Carlos P. Aparicio, and Saeed M. Al-Marzoug | (参考訳) J-行列散乱法は、原子、原子、分子物理学に応用された通常の短距離ポテンシャルを扱うために開発された。
その精度、安定性、収束性は他の散乱法と良好に比較できる。
代数的手法であり、三項再帰関係を満たす直交多項式の利用と三対角行列の操作に基づいている。
近年, この手法を1/r^2特異短距離ポテンシャルの処理に拡張したが, 1/r^2特異値の結合パラメータ強度が-1/8より大きいサブクリティカルカップリング系に限定した。
本研究では, 結合パラメータの強度が-1/8未満の超臨界カップリングを含むように研究を拡大する。
しかし,そのためには,五項再帰関係を満足する対象と五項対角行列の定式化を延ばさなければならなかった。
正則化や自己随伴拡張なしに理論を発展させることは、通常そのような非常に特異なポテンシャルの扱いに必要である。
それでも私たちは、メソッドの定式化をこの大きな表現に拡張し、通常の収束よりも遅く対処することで、価格を払わなければなりませんでした。
そこで本研究では,現実的なポテンシャルモデルに対する散乱情報を得る手法を提案する。 The J-matrix method of scattering was developed to handle regular short-range potentials with applications in atomic, nuclear and molecular physics. Its accuracy, stability, and convergence properties compare favorably with other successful scattering methods. It is an algebraic method, which is built on the utilization of orthogonal polynomials that satisfy three-term recursion relations and on the manipulation of tridiagonal matrices. Recently, we extended the method to the treatment of 1/r^2 singular short-range potentials but confined ourselves to the sub-critical coupling regime where the coupling parameter strength of the 1/r^2 singularity is greater than -1/8. In this work, we expand our study to include the supercritical coupling in which the coupling parameter strength is less than -1/8. However, to accomplish that we had to extend the formulation of the method to objects that satisfy five-term recursion relations and matrices that are penta-diagonal. It is remarkable that we could develop the theory without regularization or self-adjoint extension, which are normally needed in the treatment of such highly singular potentials. Nonetheless, we had to pay the price by extending the formulation of the method into this larger representation and by coping with slower than usual convergence. In a follow-up study, we intend to apply the method to obtain scattering information for realistic potential models. | 翻訳日:2023-04-20 21:21:27 公開日:2020-12-18 |
# 3状態量子ウォークの温度 Temperature of the three-state quantum walk ( http://arxiv.org/abs/2012.07904v2 ) ライセンス: Link先を確認 | Luisa Toledo Tude and Marcos C. de Oliveira | (参考訳) 量子ウォークはユニタリ進化の下で閉じた量子系であるにもかかわらず、ヒルベルト空間は2つの部分空間に分けられるので、貯水池と接触する開システムとしてサブシステム(コインまたはウォーカー)の1つを分析することができる。
本研究では,3状態の量子ウォークのコイン空間の漸近密度行列を無限直線で計算し,その結果を用いてキラリティーと位置空間の絡み合いを解析した。
漸近極限における系の平均エネルギー当たりのフォン・ノイマンエントロピーと絡み温度を計算する。 Despite the coined quantum walk being a closed quantum system under a unitary evolution, its Hilbert space can be divided in two sub-spaces, which makes it possible for one to analyze one of the subsystems (the coin or the walker) as an open system in contact with a reservoir. In the present work we calculate the asymptotic reduced density matrix of the coin space of the three-state quantum walk in an infinite line, and use that result to analyze the entanglement between the chirality, and position space. We calculate the von Neumann entropy and the entanglement temperature per mean energy of the system in the asymptotic limit. | 翻訳日:2023-04-20 21:03:36 公開日:2020-12-18 |
# 外部ポテンシャルを持つ非線形シュリンガー方程式におけるローグ波の生成と相互作用 Rogue wave formation and interactions in the defocusing nonlinear Schr\"odinger equation with external potentials ( http://arxiv.org/abs/2012.09983v1 ) ライセンス: Link先を確認 | Li Wang, Zhenya Yan | (参考訳) 非線形Schr\"odinger (NLS)方程式は変調不安定性を持たず、現在までローグ波(RW)現象を持たないことが判明した。
本稿では,実値の時間依存ポテンシャルと時間非依存ポテンシャルを持つ非集中型nls方程式において,安定な新しいrwsとw型ソリトンがそれぞれ現れるような新しい非線形波動構造について検討する。
さらに,高振幅のRWが実値の時間依存ポテンシャルを持つ非破壊NLS方程式で生成されるように,二つのRWと3つのRWの相互作用を探索する。
最後に,いくつかのRWやW字型ソリトンが見つかるような複素PT対称ポテンシャルを持つ脱着型NLS方程式について検討する。
これらの新しい結果は、非線形相互作用をデフォーカスする場合にRW現象とW字型ソリトンを生成するための関連物理実験を設計し、非線形または線形科学の関連分野に適用するのに有用である。 The defocusing nonlinear Schr\"odinger (NLS) equation has no the modulational instability, and was not found to possess the rogue wave (RW) phenomenon up to now. In this paper, we firstly investigate some novel nonlinear wave structures in the defocusing NLS equation with real-valued time-dependent and time-independent potentials such that the stable new RWs and W-shaped solitons are found, respectively. Moreover, the interactions of two or three RWs are explored such that the RWs with higher amplitudes are generated in the defocusing NLS equation with real-valued time-dependent potentials. Finally, we study the defocusing NLS equation with complex PT -symmetric potentials such that some RWs and W-shaped solitons are also found. These novel results will be useful to design the related physical experiments to generate the RW phenomena and W-shaped solitons in the case of defocusing nonlinear interactions, and to apply them in the related fields of nonlinear or even linear sciences. | 翻訳日:2023-04-20 06:30:07 公開日:2020-12-18 |
# 高密度原子雲におけるサブラジアント励起の保存と放出 Storage and release of subradiant excitations in a dense atomic cloud ( http://arxiv.org/abs/2012.10222v1 ) ライセンス: Link先を確認 | Giovanni Ferioli, Antoine Glicenstein, Loic Henriet, Igor Ferrier-Barbut, Antoine Browaeys | (参考訳) 本稿では,遷移波長より小さい体積の多くの原子のディッケ配位位付近で活動するコールド$^{87}$rb原子の密集したアンサンブルにおけるサブラジアンス観測について報告する。
原子番号がサブラグランスを支配する唯一の協調性パラメータであることを検証する。
我々は多体状態のダイナミクスを探求し、独立に崩壊する単体励起状態の重ね合わせとして多重励起サブラジアント状態が構築されているというイメージを支持する。
さらに,光パルス中の長寿命モードに蓄積された励起を解放する実験手法を実装した。
この技術は、サブラジオアンスに基づく配光記憶の実現に向けた第一歩である。 We report the observation of subradiance in dense ensembles of cold $^{87}$Rb atoms operating near Dicke's regime of a large number of atoms in a volume with dimensions smaller than the transition wavelength. We validate that the atom number is the only cooperativity parameter governing subradiance. We probe the dynamics in the many-body regime and support the picture that multiply-excited subradiant states are built as a superposition of singly-excited states that decay independently. Moreover, we implement an experimental procedure to release the excitation stored in the long-lived modes in a pulse of light. This technique is a first step towards the realization of tailored light storing based on subradiance. | 翻訳日:2023-04-20 06:25:48 公開日:2020-12-18 |
# ゲルマニウム中の自然重孔浮揚モード量子ビット A natural heavy-hole flopping mode qubit in germanium ( http://arxiv.org/abs/2012.10214v1 ) ライセンス: Link先を確認 | Philipp M. Mutter, Guido Burkard | (参考訳) 二重量子ドット(dqds)内のフラップモード量子ビットは、交互外部または量子化されたキャビティ電界と結合した場合、コヒーレントなスピン-光子ハイブリダイゼーションと高速量子ビットゲートを可能にする。
しかし、これを実現するため、電子システムは結合機構として磁場勾配を用いて合成スピン軌道相互作用(SOI)に依存する。
ここでは理論上, 大型の立方体rashba soiを用いて, ゲルマニウム (ge) のヘビーホール (hh) システムにおいて, この挑戦的な実験セットアップを回避できることを示す。
天然フローッピングモードの量子ビットは、量子化する最適動作モードで機能するように設計されたナノ秒帯において、1および2キュービットのゲート時間を許容する、高度に調整可能なスピンカップリング強度を有する。 Flopping mode qubits in double quantum dots (DQDs) allow for coherent spin-photon hybridization and fast qubit gates when coupled to either an alternating external or a quantized cavity electric field. To achieve this, however, electronic systems rely on synthetic spin-orbit interaction (SOI) by means of a magnetic field gradient as a coupling mechanism. Here we theoretically show that this challenging experimental setup can be avoided in heavy-hole (HH) systems in germanium (Ge) by utilizing the sizeable cubic Rashba SOI. We argue that the resulting natural flopping mode qubit possesses highly tunable spin coupling strengths that allow for one- and two-qubit gate times in the nanosecond range when the system is designed to function in an optimal operation mode which we quantify. | 翻訳日:2023-04-20 06:25:39 公開日:2020-12-18 |
# 流体力学モデルにおける量子摩擦 Quantum friction in the Hydrodynamic Model ( http://arxiv.org/abs/2012.10204v1 ) ライセンス: Link先を確認 | Kunmin Wu, Thomas L. Schmidt, and M. Bel\'en Farias | (参考訳) 金属板に平行な一定の速度で移動する偏光性原子からなる系における量子摩擦現象について検討した。
金属は電子の荷電流体力学モデルを用いて記述される。
この長距離相互作用を特徴とするモデルは、クーロン相互作用による散乱が不純物による電子の散乱に支配される温度範囲のクリーンメタルに適している。
原子と金属表面の間の量子摩擦力は、金属に内在的な減衰がない場合でも存在するが、原子の速度が金属中の音の有効速度を超えるとのみ開始する。
この条件は、ほぼ空またはほぼ満たされたバンドを持つ金属で、最も容易に満たせると論じる。
我々は、原子分極性における摩擦力の2階と4階への定量的予測を行い、しきい値の挙動が摂動理論の全ての順序に持続することを示す。 We study the phenomenon of quantum friction in a system consisting of a polarizable atom moving at a constant speed parallel to a metallic plate. The metal is described using a charged hydrodynamic model for the electrons. This model featuring long-range interactions is appropriate for a clean metal in a temperature range where scattering due to Coulomb interactions dominates over the scattering of electron by impurities. We find that a quantum friction force between the atom and the metal surface exists even in the absence of intrinsic damping in the metal, but that it only starts once the velocity of the atom exceeds the effective speed of sound in the metal. We argue that this condition can be fulfilled most easily in metals with nearly empty or nearly filled bands. We make quantitative predictions for the friction force to the second and fourth order in the atomic polarizability, and show that the threshold behavior persists to all orders of the perturbation theory. | 翻訳日:2023-04-20 06:25:23 公開日:2020-12-18 |
# ジョセフソン接合キャビティ回路における多重光子共鳴 Multi-Photon Resonances in Josephson Junction-Cavity Circuits ( http://arxiv.org/abs/2012.10149v1 ) ライセンス: Link先を確認 | Ben Lang and Andrew D. Armour | (参考訳) 非線形駆動型発振器系の発振ダイナミクスについて,複数の励起が生じる共鳴に追従して検討する。
このようなシステムはジョセフソン接合とマイクロ波空洞を組み合わせた回路QEDシステムで容易に実現され、磁束または電圧バイアスによって達成される。
3つ以上の光子を含む共鳴の場合、系は、位相空間の複素周期構造を形成する定常状態へと、駆動が増大するにつれて、2つの密閉な力学遷移(第一の不連続と第二の連続)の列を成す。
遷移の近傍では、システムは興味深い双安定な振る舞いを示し、コヒーレントな効果は、駆動が増加するにつれて、系の定常状態における異なる力学状態の重みの驚くべき振動を引き起こす。
相空間結晶の異なる点に局在した状態間の遷移を伴う単純な実効率モデルによってダイナミクスが良く説明できることを示す。
力学状態の重みの振動は、状態間の遷移を記述する時間スケールにおける対応する振動に反映される。 We explore the dissipative dynamics of nonlinearly driven oscillator systems tuned to resonances where multiple excitations are generated. Such systems are readily realised in circuit QED systems combining Josephson junctions with a microwave cavity and a drive achieved either through flux or voltage bias. For resonances involving 3 or more photons the system undergoes a sequence of two closely spaced dynamical transitions (the first one discontinuous and the second continuous) as the driving is increased leading to steady states that form complex periodic structures in phase space. In the vicinity of the transitions the system displays interesting bistable behaviour: we find that coherent effects can lead to surprising oscillations in the weight of the different dynamical states in the steady state of the system with increasing drive. We show that the dynamics is well-described by a simple effective rate model with transitions between states localised at different points in the phase space crystal. The oscillations in the weights of the dynamical states is reflected in corresponding oscillations in a time-scale that describes transitions between the states. | 翻訳日:2023-04-20 06:24:48 公開日:2020-12-18 |
# キャビティ支援動的スピン軌道カップリングによる超ラジアント相転移 Superradiant phase transition with cavity assisted dynamical spin-orbit coupling ( http://arxiv.org/abs/2012.10098v1 ) ライセンス: Link先を確認 | Ying Lei, and Shaoliang Zhang | (参考訳) 超ラジアント相転移は、原子とキャビティモードのカップリングに基づく集団励起を示す重要な量子現象である。
スピン軌道結合(spin-orbit coupling)は、原子内部の自由度と質量中心の運動量との相互作用によって引き起こされる別の量子効果である。
本研究では,この2つの効果の組み合わせから生じる空洞支援動的スピン軌道結合について考察する。
これは、平らなスペクトルや量子相転移の臨界点周辺の励起エネルギースペクトルの特異点のような一連の興味深い量子現象を誘導することができる。
さらに, 相図に対する原子崩壊と非線形結合の影響について考察する。
原子崩壊は相図の特異性を抑制し、非線形結合は相転移の対称性を壊すことができる。
我々の研究は、この動的多体系における豊富な量子現象を研究する理論的方法を提供する。 Superradiant phase transition represents an important quantum phenomenon that shows the collective excitations based on the coupling between atoms and cavity modes. The spin-orbit coupling is another quantum effect which induced from the interaction of the atom internal degrees of freedom and momentum of center-of-mass. In this work, we consider the cavity assisted dynamical spin-orbit coupling which comes from the combination of these two effects. It can induce a series of interesting quantum phenomena, such as the flat spectrum and the singularity of the excitation energy spectrum around the critical point of quantum phase transition. We further discuss the influence of atom decay and nonlinear coupling to the phase diagram. The atom decay suppresses the singularity of the phase diagram and the nonlinear coupling can break the symmetric properties of the phase transition. Our work provide the theoretical methods to research the rich quantum phenomena in this dynamic many-body systems. | 翻訳日:2023-04-20 06:24:04 公開日:2020-12-18 |
# 非マルコフ雑音評価のためのスペクトル伝達テンソル法 Spectral Transfer Tensor Method for Non-Markovian Noise Characterization ( http://arxiv.org/abs/2012.10094v1 ) ライセンス: Link先を確認 | Yu-Qin Chen, Yi-Cong Zheng, Shengyu Zhang and Chang-Yu Hsieh | (参考訳) 製造された量子デバイスの品質の改善が続き、非マルコビアン性を定量的に特徴づけるなど、ノイズの多い量子プロセスを分析することがますます重要になっている。
本研究では,任意のパウリチャネルのrhp非マルコフ測度を状態準備および測定(spam)誤差なしに正確に予測する,スペクトル伝達テンソルマップ(specttm)という実験プロトコルを提案する。
実際、pauliチャネルでは、specttmは量子ビットの高精度ノイズパワースペクトルを再構成することさえ可能である。
最後に、specttm が pauli twirling による非pauliチャネルの非マルコフ性(non-markovianity)を最適に特徴付けるのにどのように役立つかについて議論する。 With continuing improvements on the quality of fabricated quantum devices, it becomes increasingly crucial to analyze noisy quantum process in greater details such as characterizing the non-Markovianity in a quantitative manner. In this work, we propose an experimental protocol, termed Spectral Transfer Tensor Maps (SpecTTM), to accurately predict the RHP non-Markovian measure of any Pauli channels without state-preparation and measurement (SPAM) errors. In fact, for Pauli channels, SpecTTM even allows the reconstruction of highly-precised noise power spectrum for qubits. At last, we also discuss how SpecTTM can be useful to approximately characterize non-Markovianity of non-Pauli channels via Pauli twirling in an optimal basis. | 翻訳日:2023-04-20 06:23:50 公開日:2020-12-18 |
# 二次元QEDのためのスケーラブル冷原子量子シミュレータ Scalable cold-atom quantum simulator for two-dimensional QED ( http://arxiv.org/abs/2012.10432v1 ) ライセンス: Link先を確認 | Robert Ott, Torsten V. Zache, Fred Jendrzejewski, J\"urgen Berges | (参考訳) 2次元の量子電磁力学(QED)のためのスケーラブルなアナログ量子シミュレータを提案する。
U(1)格子ゲージ場理論のセットアップは、光学格子に閉じ込められた超低温原子混合物における種間スピン交換衝突を用いる。
refの以前の1次元実装方式による構築
[1] 磁場の空間的プラーペット項を設計し,高次元の現実的なゲージ理論の実験的実現への大きな障害を解決した。
我々は、純ゲージ理論にアプローチを適用し、電荷の閉じ込め現象が量子シミュレータによってどのように説明できるかを議論する。 We propose a scalable analog quantum simulator for quantum electrodynamics (QED) in two spatial dimensions. The setup for the U(1) lattice gauge field theory employs inter-species spin-changing collisions in an ultra-cold atomic mixture trapped in an optical lattice. Building on the previous one-dimensional implementation scheme of Ref. [1] we engineer spatial plaquette terms for magnetic fields, thus solving a major obstacle towards experimental realizations of realistic gauge theories in higher dimensions. We apply our approach to pure gauge theory and discuss how the phenomenon of confinement of electric charges can be described by the quantum simulator. | 翻訳日:2023-04-20 06:17:22 公開日:2020-12-18 |
# TILT:GDPRに準拠した透明性情報言語と実践的プライバシエンジニアリングのためのツールキット TILT: A GDPR-Aligned Transparency Information Language and Toolkit for Practical Privacy Engineering ( http://arxiv.org/abs/2012.10431v1 ) ライセンス: Link先を確認 | Elias Gr\"unewald and Frank Pallas | (参考訳) 本稿では,透明性情報言語およびツールキットであるTILTについて,GDPRの要件に従って,透明性情報の表現と処理を明示的に設計した上で,確立された合法データ保護ポリシよりも,より自動化された適応的な利用を可能にする。
我々は,各法的要件を満たすための形式的透明性言語に必要な表現力を特定するために,GDPRからの透明性義務を詳細に分析する。
さらに,実世界(web)情報システム工学における実践的採用を促進するために必要な,さらに多くの非機能要件を特定する。
そこで我々は形式言語を定義し,その周辺に完全に実装されたツールキットを提案する。
次に、我々の言語とツールキットの実践的適用性を評価し、2つの異なるユースケースを通じてロック解除される可能性を示す。
イ 明確に公表された透明性情報に基づいて、例えば、データ共有ネットワークを明らかにすることを可能にする個人データ関連行為の組織間分析
b) 新規でより理解しやすく,潜在的に適応的なユーザインターフェースを通じて,ユーザに公式に表現された透明性情報の提示,データ関連の実践に関するデータ対象者の実際の知識の高まり,したがってその主権
同様に、我々の透明性情報言語とツールキットは、以前の作業とは違い、現代の(Web)情報システム工学の実際の法的要件と実践に従って透明性情報を表現し、それによって、透明性とユーザの主権を実際に高める新しい可能性の道を開く。 In this paper, we present TILT, a transparency information language and toolkit explicitly designed to represent and process transparency information in line with the requirements of the GDPR and allowing for a more automated and adaptive use of such information than established, legalese data protection policies do. We provide a detailed analysis of transparency obligations from the GDPR to identify the expressiveness required for a formal transparency language intended to meet respective legal requirements. In addition, we identify a set of further, non-functional requirements that need to be met to foster practical adoption in real-world (web) information systems engineering. On this basis, we specify our formal language and present a respective, fully implemented toolkit around it. We then evaluate the practical applicability of our language and toolkit and demonstrate the additional prospects it unlocks through two different use cases: a) the inter-organizational analysis of personal data-related practices allowing, for instance, to uncover data sharing networks based on explicitly announced transparency information and b) the presentation of formally represented transparency information to users through novel, more comprehensible, and potentially adaptive user interfaces, heightening data subjects' actual informedness about data-related practices and, thus, their sovereignty. Altogether, our transparency information language and toolkit allow - differently from previous work - to express transparency information in line with actual legal requirements and practices of modern (web) information systems engineering and thereby pave the way for a multitude of novel possibilities to heighten transparency and user sovereignty in practice. | 翻訳日:2023-04-20 06:17:12 公開日:2020-12-18 |
# 完全光・再構成可能なPUFを量子認証機構として活用する Utilizing a Fully Optical and Reconfigurable PUF as a Quantum Authentication Mechanism ( http://arxiv.org/abs/2012.10326v1 ) ライセンス: Link先を確認 | H S. Jacinto, A. Matthew Smith | (参考訳) 本稿では,認証タスクのためのマッハツェンダー干渉計のネットワークからなる物理的に実行不能な関数の新規使用について述べる。
物理的に起動不能な関数ハードウェアは完全に再構成可能であり、多くの一見独立したデバイスが利用できるため、物理的に起動不能な関数の大規模な配列を模倣する。
物理オブジェクトだけでなく、古典的および量子的に送信される情報に対しても、任意の再構成可能なマッハ・ツェンダー干渉計アレイを認証機構として使用できることが示唆された。
再構成可能なハードウェアで設計された完全光学的物理的に拘束不能な関数のユースケースは、信頼された相手と信頼できない相手の間でメッセージを認証することであり、受信したメッセージが認証装置の保持者によって生成されることを検証する。 In this work the novel usage of a physically unclonable function composed of a network of Mach-Zehnder interferometers for authentication tasks is described. The physically unclonable function hardware is completely reconfigurable, allowing for a large number of seemingly independent devices to be utilized, thus imitating a large array of single-response physically unclonable functions. It is proposed that any reconfigurable array of Mach-Zehnder interferometers can be used as an authentication mechanism, not only for physical objects, but for information transmitted both classically and quantumly. The proposed use-case for a fully-optical physically unclonable function, designed with reconfigurable hardware, is to authenticate messages between a trusted and possibly untrusted party; verifying that the messages received are generated by the holder of the authentic device. | 翻訳日:2023-04-20 06:15:43 公開日:2020-12-18 |
# 固有状態のモーメントと飽和特性 Moments and saturation properties of eigenstates ( http://arxiv.org/abs/2012.10321v1 ) ライセンス: Link先を確認 | Martin Bojowald, Jonathan Guglielmon and Martijn van Kuppeveld | (参考訳) 固有値は可観測体の代数の任意の元に対して定義され、波動関数や密度行列の表現を必要としない。
調和振動子にはモーメントに基づく系統的代数的導出と非調和系の摂動的処理が提示される。
この過程において、調和振動子励起状態によって飽和された高次モーメントの不確実性関係が発見された。
同様の飽和特性は摂動理論の順序で無調和系を順序付けする。
新しい方法は、状態のモーメントと正の条件を組み合わせた反復関係に基づいて、新しい物理的特徴を示すことができる。 Eigenvalues are defined for any element of an algebra of observables and do not require a representation in terms of wave functions or density matrices. A systematic algebraic derivation based on moments is presented here for the harmonic oscillator, together with a perturbative treatment of anharmonic systems. In this process, a collection of inequalities is uncovered which amount to uncertainty relations for higher-order moments saturated by the harmonic-oscillator excited states. Similar saturation properties hold for anharmonic systems order by order in perturbation theory. The new method, based on recurrence relations for moments of a state combined with positivity conditions, is therefore able to show new physical features. | 翻訳日:2023-04-20 06:15:27 公開日:2020-12-18 |
# schr\"{o}dingerの猫問題:量子力学の群像における測定と状態 Schr\"{o}dinger's problem with cats: measurements and states in the Groupoid Picture of Quantum Mechanics ( http://arxiv.org/abs/2012.10284v1 ) ライセンス: Link先を確認 | Florio M. Ciaglia, Fabio Di Cosmo, Alberto Ibort, Giuseppe Marmo | (参考訳) Schr\ "{o}dinger's famous Gedankenexperiment involved a cat は、最近導入された物理理論に対する群型形式論における古典的および量子系の構成状態の進化を議論する動機として用いられる。
古典体系の概念は、birkhoff と von neumann の意味では、可算個のアウトプットを持つ系の場合、アーベル・フォン・ノイマン代数(英語版)(ablian von neumann algebra)と完全切断群(英語版)に同値である。
ラッジョの定理に従い、古典的および量子的な系からなる複合系の積状態が、合成系自体の内部にあるユニタリ進化によって絡み合った状態へと進化することは、グルーソイド形式(groupoid formalism)によって証明される。 Schr\"{o}dinger's famous Gedankenexperiment involving a cat is used as a motivation to discuss the evolution of states of the composition of classical and quantum systems in the groupoid formalism for physical theories introduced recently. It is shown that the notion of classical system, in the sense of Birkhoff and von Neumann, is equivalent, in the case of systems with a countable number of outputs, to a totally disconnected groupoid with Abelian von Neumann algebra. In accordance with Raggio's theorem, the impossibility of evolving the product state of a composite system made up of a classical and a quantum one into an entangled state by means of a unitary evolution which is internal to the composite system itself is proved in the groupoid formalism. | 翻訳日:2023-04-20 06:15:16 公開日:2020-12-18 |
# 超低温分子衝突の完全量子コヒーレント制御 Complete quantum coherent control of ultracold molecular collisions ( http://arxiv.org/abs/2012.10269v1 ) ライセンス: Link先を確認 | Adrien Devolder, Paul Brumer and Timur V. Tscherbul | (参考訳) 量子干渉に基づくコヒーレント制御は、超低温分子衝突ダイナミクスをチューニングするための非常に効率的なツールであり、外部電磁場に依存する一般的な方法の限界から解放されている。
縮退した分子状態の初期コヒーレント重ね合わせの {the relative populations and} phasesを変化させることにより、初期および最終衝突チャネルの超低温$s$-waveレジームにおける積分散乱断面積に対する完全なコヒーレント制御を示す。
提案した制御手法は超低温o$_2$~+〜o$_2$衝突に適用され、s$-waveスピン交換断面積と製品分岐比を多桁にわたって広範囲に制御する。 We show that quantum interference-based coherent control is a highly efficient tool for tuning ultracold molecular collision dynamics, and is free from the limitations of commonly used methods that rely on external electromagnetic fields. By varying {the relative populations and} phases of an initial coherent superpositions of degenerate molecular states, we demonstrate complete coherent control over integral scattering cross sections in the ultracold $s$-wave regime of both the initial and final collision channels. The proposed control methodology is applied to ultracold O$_2$~+~O$_2$ collisions, showing extensive control over $s$-wave spin-exchange cross sections and product branching ratios over many orders of magnitude. | 翻訳日:2023-04-20 06:15:03 公開日:2020-12-18 |
# MOLAM: 学生の自己統制学習を支援するモバイルマルチモーダル学習分析概念フレームワーク MOLAM: A Mobile Multimodal Learning Analytics Conceptual Framework to Support Student Self-Regulated Learning ( http://arxiv.org/abs/2012.14308v1 ) ライセンス: Link先を確認 | Mohammad Khalil | (参考訳) オンライン遠隔学習は高度に学習者中心であり、教育設計、学生支援、リソース提供のための代替アプローチと同様に、学習者から異なるスキルと能力を必要とする。
オンライン学習環境における学習者の自律性と自己統制学習(SRL)は、学生のパフォーマンスを予測する重要な成功要因と考えられている。
SRLはZimmerman氏によると、計画、監視、アクション、リフレクションのプロセスで構成される。
そして,学習者の3つの重要な特徴,(1)SRL戦略の利用,(2)学習効率に関する自己指向的フィードバックに対する応答性,(3)動機づけプロセスの3つに注目した。
SRLは、成績の改善や関連するスキルや戦略の開発など、学生の成功と直接的に相関していると認識されている。
このようなスキルと戦略は、生涯学習を成功させるために必要です。
本章では,モバイルマルチモーダル学習分析アプローチ(molam)を紹介する。
学生の自己統制学習の発展は,このアプローチの採用の恩恵を受けるだろうし,学生SRLをオンライン学習の文脈で継続的に測定・提供することができるだろう,と私は論じる。 Online distance learning is highly learner-centred, requiring different skills and competences from learners, as well as alternative approaches for instructional design, student support, and provision of resources. Learner autonomy and self-regulated learning (SRL) in online learning settings are considered key success factors that predict student performance. SRL comprises processes of planning, monitoring, action and reflection according to Zimmerman. And typically focuses on three key features of learners: (1) use of SRL strategies, (2) responsiveness to self-oriented feedback about learning effectiveness, and (3) motivational processes. SRL has been identified as having a direct correlation with students success, including improvements in grades and the development of relevant skills and strategies. Such skills and strategies are needed to become a successful lifelong learner. This chapter introduces a Mobile Multimodal Learning Analytics approach (MOLAM). I argue that the development of student Self-Regulated Learning would benefit from the adoption of this approach, and that its use would allow continuous measurement and provision of in-time support of student SRL in online learning contexts. | 翻訳日:2023-04-20 06:07:43 公開日:2020-12-18 |
# I-Health: エピデミック管理にエッジコンピューティングとブロックチェーンを活用する I-Health: Leveraging Edge Computing and Blockchain for Epidemic Management ( http://arxiv.org/abs/2012.14294v1 ) ライセンス: Link先を確認 | Alaa Awad Abdellatif, Lutfi Samara, Amr Mohamed, Aiman Erbad, Carla Fabiana Chiasserini, Mohsen Guizani, Mark Dennis O'Connor, and James Laughton | (参考訳) 疫病の状況は通常、厳密な時間制約の中で異なる場所や施設から集中的なデータ収集と管理を要求する。
このような需要は、IoT(Internet of Things)デバイスの集中的かつ容易なデプロイメントを活用することで達成できる。
このような状況の管理と封じ込めは、組織横断的および国家的コラボレーションにも依存する。
そこで本稿では,医療データの迅速かつセキュアな交換・保存を可能にすることにより,多様なeヘルスエンティティを独自の医療システムに集約することを目的としたインテリジェントヘルスシステムを提案する。
特に,感染拡大など重要な医療イベントに対する迅速な発見,遠隔監視,迅速な緊急対応を可能にする,患者自動監視方式をエッジに設計する。
さらに,さまざまな医療エンティティ間の医療データ共有を最適化し,効果的かつセキュアな医療サービスを提供するブロックチェーン最適化モデルを開発した。
最後に,提案するi-healthシステムのメリットを強調しながら,異なるクリティカルイベントへの適応におけるシステムの有効性を示す。 Epidemic situations typically demand intensive data collection and management from different locations/entities within a strict time constraint. Such demand can be fulfilled by leveraging the intensive and easy deployment of the Internet of Things (IoT) devices. The management and containment of such situations also rely on cross-organizational and national collaboration. Thus, this paper proposes an Intelligent-Health (I-Health) system that aims to aggregate diverse e-health entities in a unique national healthcare system by enabling swift, secure exchange and storage of medical data. In particular, we design an automated patients monitoring scheme, at the edge, which enables the prompt discovery, remote monitoring, and fast emergency response for critical medical events, such as emerging epidemics. Furthermore, we develop a blockchain optimization model that aims to optimize medical data sharing between different health entities to provide effective and secure health services. Finally, we show the effectiveness of our system, in adapting to different critical events, while highlighting the benefits of the proposed I-Health system. | 翻訳日:2023-04-20 06:07:24 公開日:2020-12-18 |
# 2つの近似スキームの枠組みにおけるハアポテンシャルのシュロディンガー方程式の解析解 Analytical Solutions of the Schrodinger Equation for Hua Potential within the Framework of two Approximations Scheme ( http://arxiv.org/abs/2012.11716v1 ) ライセンス: Link先を確認 | C. M. Ekpo and E. B. Ettah | (参考訳) 本稿では, s波に対するシュロディンガー方程式と, huaポテンシャルを持つ任意の角モータについて解析的に解く。
波動関数とエネルギー方程式は、2つの近似スキームを用いてニキフォロフ・ウバロフ法を用いて正確に解析的に得られる。
このポテンシャルの特別な場合も研究されている。 In this paper, we solve analytically the Schrodinger equation for s-wave and arbitrary angular momenta with the Hua potential is investigated respectively. The wave function as well as energy equation are obtained in an exact analytical manner via the Nikiforov Uvarov method using two approximations scheme. Some special cases of this potentials are also studied. | 翻訳日:2023-04-20 06:07:07 公開日:2020-12-18 |
# 2つの近似スキームを用いた修正モダウス平方ポテンシャルのシュロディンガー方程式の解法 Solutions of the Schrodinger Equation for Modified Mobius Square Potential using two Approximation Scheme ( http://arxiv.org/abs/2012.11498v1 ) ライセンス: Link先を確認 | C. M. Ekpo, J. E. Osang and E. B. Ettah | (参考訳) 本稿では,s波に対するシュロディンガー方程式と,修正モブイス2乗ポテンシャルを用いた任意の角モーメントについて検討した。
固有関数とエネルギー固有値は、2つの近似スキームを用いてニキフォロフ・ウバロフ法を通じて正確に解析的に得られる。
このポテンシャルの特別な場合も研究されている。 In this paper, the Schrodinger equation for s-wave and arbitrary angular momenta with the Modified Mobuis Square potential is investigated respectively. The eigenfunctions as well as energy eigenvalues are obtained in an exact analytical manner via the Nikiforov Uvarov method using two approximations scheme. Some special cases of this potentials are also studied. | 翻訳日:2023-04-20 06:07:00 公開日:2020-12-18 |
# 修正グローバーアルゴリズムを用いた近似位相探索と固有推定 Approximate Phase Search and Eigen Estimation using Modified Grover's Algorithm ( http://arxiv.org/abs/2012.11497v1 ) ライセンス: Link先を確認 | Sayantan Pramanik, M Girish Chandra, Shampa Sarkar and Manoj Nambiar | (参考訳) 本稿では,groverのアルゴリズムを修正して,目標コスト値に近いバイナリ文字列解を求める試みを行った。
その方向では、適切な ancilla qubit を導入することとは別に、新しい Controlled Oracle と Local Diffusion Operator が提案されている。
与えられたコストハミルトンの固有値と固有状態を推定し、方法論の推論を拡張する戦略も指摘されている。
典型的な結果と関連する議論は、提案を支持するために収集される。 An attempt has been made in this paper to modify Grover's Algorithm to find the binary string solutions approximating a target cost value. In that direction, new Controlled Oracle and the Local Diffusion Operator are suggested, apart from incorporating suitable ancilla qubits. A possible strategy to estimate eigenvalues and eigenstates of a given cost Hamiltonian, extending the reasoning of the methodology, is also pointed out. Typical results and relevant discussions are captured to support the propositions. | 翻訳日:2023-04-20 06:06:53 公開日:2020-12-18 |
# 再構成可能な集積型光干渉計ネットワークによる物理的不可避関数 Reconfigurable Integrated Optical Interferometer Network-Based Physically Unclonable Function ( http://arxiv.org/abs/2012.11358v1 ) ライセンス: Link先を確認 | A. Matthew Smith and H S. Jacinto | (参考訳) 本稿では,マッハ・ツェンダー干渉計を内蔵した大型集積型線形光学素子の特性について述べるとともに,その応用可能性について述べる。
実用規模で調整可能な干渉計は,本質的に実行不可能であり,多くの実用用途に有用な固有ランダム性を有することを提案する。
テスト対象のデバイスは、汎用フォトニック操作ツールとして追加のユースケースを有しており、プロトタイプの実験結果に基づく様々な応用がある。
調整可能な干渉計装置を物理的に拘束不能な関数として設定すると、約6.85x10E35のチャレンジ応答対が存在し、その後の課題に対して干渉計アレイをチューニングすることで、各チャレンジを迅速に再構成することができる。 In this article we describe the characteristics of a large integrated linear optical device containing Mach-Zehnder interferometers and describe its potential use as a physically unclonable function. We propose that any tunable interferometric device of practical scale will be intrinsically unclonable and will possess an inherent randomness that can be useful for many practical applications. The device under test has the additional use-case as a general-purpose photonic manipulation tool, with various applications based on the experimental results of our prototype. Once our tunable interferometric device is set to work as a physically unclonable function, we find that there are approximately 6.85x10E35 challenge-response pairs, where each challenge can be quickly reconfigured by tuning the interferometer array for subsequent challenges. | 翻訳日:2023-04-20 06:06:45 公開日:2020-12-18 |
# 交換雑音低減のための横型量子ドットジオメトリの最適化 Optimizing lateral quantum dot geometries for reduced exchange noise ( http://arxiv.org/abs/2012.10512v1 ) ライセンス: Link先を確認 | Brandon Buonacorsi, Marek Korkusinski, Bohdan Khromets, Jonathan Baugh | (参考訳) 量子ドット内の電子スピン量子ビットに対して、電荷ノイズの感度の低減は、交換相互作用を媒介とするフォールトトレラントな2量子ビットゲートを実現する上で重要なステップである。
本研究は、物理デバイス形状が印加ゲート電圧の変動に対する交換の感度と電荷雑音による干渉バイアスにどのように影響するかを考察する。
本稿では,一般量子ドットネットワークに適用可能な交換エネルギーを計算するための高調波軌道配置相互作用(lcho-ci)法の修正線形結合を提案する。
修正LCHO-CI法では、ドットネットワークの中心に形成される高調波軌道の直交集合を用いて、多電子状態の近似を行う。
この基底の選択は、行列要素の事前計算ライブラリをクーロン積分の評価に使用できるようにすることで、完全なCI計算の計算時間を著しく短縮する。
結果として得られた多電子スペクトルはハイゼンベルク・ハミルトニアンに写像され、個々の電子交換相互作用強度、$J_{ij}$を決定する。
計算時間を著しく延長することなく高調波軌道の選択を最適化することにより、修正LCHO-CI法の精度をさらに向上する。
修飾LCHO-CI法は、2電子が占有するシリコンMOSFET二重量子ドットのJ$を計算するために用いられる。
Si/SiO$_2$ヘテロ構造と金属ゲート電極の両方を含む3次元デバイス構造から2次元電位ランドスケープを算出する。
修正されたlcho-ci法の計算効率により、デバイスパラメータの体系的なチューニングが可能となり、プランジャゲートサイズ、トンネルゲート幅、sio$_2$厚さ、ドット偏心など、電荷ノイズに対する感度への影響が決定される。
概して、より大きなドット充電エネルギー、より小さなプランジャーゲートレバーアーム、対称ドットを持つジオメトリはノイズに対する感受性が低いことが分かる。 For electron spin qubits in quantum dots, reducing charge noise sensitivity is a critical step in achieving fault tolerant two-qubit gates mediated by the exchange interaction. This work explores how the physical device geometry affects the sensitivity of exchange to fluctuations in applied gate voltage and interdot bias due to charge noise. We present a modified linear combination of harmonic orbitals configuration interaction (LCHO-CI) method for calculating exchange energies that is applicable to general quantum dot networks. In the modified LCHO-CI approach, an orthogonal set of harmonic orbitals formed at the center of the dot network is used to approximate the many-electron states. This choice of basis significantly reduces the computation time of the full CI calculation by enabling a pre-calculated library of matrix elements to be used in evaluating the Coulomb integrals. The resultant many-electron spectra are mapped onto a Heisenberg Hamiltonian to determine the individual pairwise electronic exchange interaction strengths, $J_{ij}$. The accuracy of the modified LCHO-CI method is further improved by optimizing the choice of harmonic orbitals without significantly lengthening the calculation time. The modified LCHO-CI method is used to calculate $J$ for a silicon MOSFET double quantum dot occupied by two electrons. Two-dimensional potential landscapes are calculated from a 3D device structure, including both the Si/SiO$_2$ heterostructure and metal gate electrodes. The computational efficiency of the modified LCHO-CI method enables systematic tuning of the device parameters to determine their impact on the sensitivity of $J$ to charge noise, including plunger gate size, tunnel gate width, SiO$_2$ thickness and dot eccentricity. Generally, we find that geometries with larger dot charging energies, smaller plunger gate lever arms, and symmetric dots are less sensitive to noise. | 翻訳日:2023-04-20 06:06:14 公開日:2020-12-18 |
# 分子衝突:近コールドから超コールドへ Molecular Collisions: from Near-cold to Ultra-cold ( http://arxiv.org/abs/2012.10470v1 ) ライセンス: Link先を確認 | Yang Liu and Le Luo | (参考訳) 過去20年間、超低温分子を創る革新的な技術は、衝突物理学の基本的な現象を研究するための最先端の実験を提供してきた。
分子衝突に対する最近の関心の爆発は、実験的能力と理論的手法の劇的な進歩によって引き起こされ、分子衝突を量子力学的限界の奥深くで探せるようになった。
実験的な観点からは、ケルビンからナノケルビンのレジームまでの温度で起こる分子衝突の性質や超低温分子の生成への応用を探求するためにこれらの研究のレビューを提供している。 In the past two decades, the revolutionary technologies of creating cold and ultracold molecules have provided cutting-edge experiments for studying the fundamental phenomena of collision physics. To a large degree, the recent explosion of interest in the molecular collisions has been sparked by dramatic progress of experimental capabilities and theoretical methods, which permit molecular collisions to be explored deep in the quantum mechanical limit. Tremendous experimental advances in the field has already been achieved, and the authors, from an experimental perspective, provide a review of these studies for exploring the nature of molecular collisions occurring at temperatures ranging from the Kelvin to the nanoKelvin regime, as well as for applications of producing ultracold molecules. | 翻訳日:2023-04-20 06:05:10 公開日:2020-12-18 |
# FsNet:高次元生体データの特徴選択ネットワーク FsNet: Feature Selection Network on High-dimensional Biological Data ( http://arxiv.org/abs/2001.08322v3 ) ライセンス: Link先を確認 | Dinesh Singh and H\'ector Climente-Gonz\'alez and Mathis Petrovich and Eiryo Kawakami and Makoto Yamada | (参考訳) 遺伝子発現データを含む生物学的データは一般に高次元であり、複雑な非線形パターンを発見するために効率的で一般化可能でスケーラブルな機械学習手法を必要とする。
機械学習の最近の進歩はディープニューラルネットワーク(DNN)によるもので、コンピュータビジョンや自然言語処理といった様々なタスクに優れています。
しかし、標準的なDNNは、多くのパラメータを持つため、生物学で生成される高次元データセットには適さない。
本稿では,高次元かつ少数のサンプルデータに対して,特徴選択ネットワーク(FsNet)と呼ばれるDNNに基づく非線形特徴選択手法を提案する。
具体的には、fsnetは、特徴を選択する選択層と、トレーニングを安定化する再構築層を含む。
選択層と再構成層におけるパラメータの多さは, 限られたサンプル数で容易に過度に適合するので, 選択層と再構成層の大きな仮想重み行列を予測するために2つの小さなネットワークを用いる。
複数の実世界の高次元生物学的データセットにおける実験結果から,提案手法の有効性が示された。 Biological data including gene expression data are generally high-dimensional and require efficient, generalizable, and scalable machine-learning methods to discover their complex nonlinear patterns. The recent advances in machine learning can be attributed to deep neural networks (DNNs), which excel in various tasks in terms of computer vision and natural language processing. However, standard DNNs are not appropriate for high-dimensional datasets generated in biology because they have many parameters, which in turn require many samples. In this paper, we propose a DNN-based, nonlinear feature selection method, called the feature selection network (FsNet), for high-dimensional and small number of sample data. Specifically, FsNet comprises a selection layer that selects features and a reconstruction layer that stabilizes the training. Because a large number of parameters in the selection and reconstruction layers can easily result in overfitting under a limited number of samples, we use two tiny networks to predict the large, virtual weight matrices of the selection and reconstruction layers. Experimental results on several real-world, high-dimensional biological datasets demonstrate the efficacy of the proposed method. | 翻訳日:2023-01-07 10:11:22 公開日:2020-12-18 |
# ガウス混合に対する高速かつ効率的なモーダルEMアルゴリズム A fast and efficient Modal EM algorithm for Gaussian mixtures ( http://arxiv.org/abs/2002.03600v2 ) ライセンス: Link先を確認 | Luca Scrucca | (参考訳) クラスタリングへのモダルアプローチでは、クラスタは基礎となる確率密度関数の局所極大として定義され、後者は非パラメトリックあるいは有限混合モデルを用いて見積もることができる。
したがって、クラスターは密度モードの周りの特定の領域と密接に関連しており、各クラスターは密度の隆起に対応する。
モーダルEMアルゴリズムは、任意の密度関数の局所的な最大値を特定するイテレーティブな手順である。
本研究では,密度関数を擬似成分共分散構造を持つガウス分布の有限混合により推定する場合に,高速かつ効率的なモーダルEMアルゴリズムを提案する。
この手順を説明した後、シミュレーションデータと実データの両方にModal EMアルゴリズムを適用し、いくつかの文脈で高い柔軟性を示す。 In the modal approach to clustering, clusters are defined as the local maxima of the underlying probability density function, where the latter can be estimated either non-parametrically or using finite mixture models. Thus, clusters are closely related to certain regions around the density modes, and every cluster corresponds to a bump of the density. The Modal EM algorithm is an iterative procedure that can identify the local maxima of any density function. In this contribution, we propose a fast and efficient Modal EM algorithm to be used when the density function is estimated through a finite mixture of Gaussian distributions with parsimonious component-covariance structures. After describing the procedure, we apply the proposed Modal EM algorithm on both simulated and real data examples, showing its high flexibility in several contexts. | 翻訳日:2023-01-02 09:31:11 公開日:2020-12-18 |
# 確率自由推論のための対比学習について On Contrastive Learning for Likelihood-free Inference ( http://arxiv.org/abs/2002.03712v2 ) ライセンス: Link先を確認 | Conor Durkan, Iain Murray, George Papamakarios | (参考訳) 確率的シミュレータモデルでは, 確率評価が難解であるが, 合成データのサンプリングは可能である確率的シミュレータモデルにおいてパラメータ推論を行う。
この可能性フリー問題に対する1つの手法は、シミュレータを用いて生成されたパラメータ観測サンプルのペアと、その確率に比例する密度比を暗黙的に学習する参照分布からサンプリングされたペアを区別するために分類器を使用する。
別の一般的な手法のクラスは、パラメータの後方に直接条件分布を適合させ、特に最近の変種では、このタスクに柔軟な神経密度推定器を使用することができる。
本研究では,これら2つのアプローチを総合的なコントラスト学習方式で統一し,それらをどのように実行・比較すべきかを明らかにする。 Likelihood-free methods perform parameter inference in stochastic simulator models where evaluating the likelihood is intractable but sampling synthetic data is possible. One class of methods for this likelihood-free problem uses a classifier to distinguish between pairs of parameter-observation samples generated using the simulator and pairs sampled from some reference distribution, which implicitly learns a density ratio proportional to the likelihood. Another popular class of methods fits a conditional distribution to the parameter posterior directly, and a particular recent variant allows for the use of flexible neural density estimators for this task. In this work, we show that both of these approaches can be unified under a general contrastive learning scheme, and clarify how they should be run and compared. | 翻訳日:2023-01-02 07:51:25 公開日:2020-12-18 |
# Column Subset Selection と Nystr\"om 法における改善された保証と多重差分曲線 Improved guarantees and a multiple-descent curve for Column Subset Selection and the Nystr\"om method ( http://arxiv.org/abs/2002.09073v3 ) ライセンス: Link先を確認 | Micha{\l} Derezi\'nski, Rajiv Khanna and Michael W. Mahoney | (参考訳) Column Subset Selection Problem (CSSP) と Nystr\"om method は、機械学習と科学計算における大規模データセットの小さな低ランク近似を構築するための主要なツールの一つである。
この領域の根本的な疑問は、サイズ k のデータのサブセットが最高ランク k の近似とどの程度うまく競合できるか、ということです。
我々は,データマトリックスのスペクトル特性を利用して,標準的な最悪の解析以上の近似保証を得る手法を開発した。
このアプローチは、特異値減衰率(例えば多項式または指数的崩壊)の既知のデータセットの境界を著しく改善する。
k の関数としての近似係数は、複数のピークと谷を呈しうるが、これは多重輝線曲線(multi-descent curve)と呼ばれる。
下限では、この振る舞いは分析の成果物ではなく、csspとnystr\"omタスクに固有の特性であることが示されています。
最後に、放射基底関数(RBF)カーネルの例を用いて、改良された境界線と多重発散曲線の両方を、RBFパラメータの変化だけで実データセット上で観測できることを示す。 The Column Subset Selection Problem (CSSP) and the Nystr\"om method are among the leading tools for constructing small low-rank approximations of large datasets in machine learning and scientific computing. A fundamental question in this area is: how well can a data subset of size k compete with the best rank k approximation? We develop techniques which exploit spectral properties of the data matrix to obtain improved approximation guarantees which go beyond the standard worst-case analysis. Our approach leads to significantly better bounds for datasets with known rates of singular value decay, e.g., polynomial or exponential decay. Our analysis also reveals an intriguing phenomenon: the approximation factor as a function of k may exhibit multiple peaks and valleys, which we call a multiple-descent curve. A lower bound we establish shows that this behavior is not an artifact of our analysis, but rather it is an inherent property of the CSSP and Nystr\"om tasks. Finally, using the example of a radial basis function (RBF) kernel, we show that both our improved bounds and the multiple-descent curve can be observed on real datasets simply by varying the RBF parameter. | 翻訳日:2022-12-30 00:34:22 公開日:2020-12-18 |
# コンパクトバイナリディスクリプタを用いた地盤テクスチャに基づく位置推定 Ground Texture Based Localization Using Compact Binary Descriptors ( http://arxiv.org/abs/2002.11061v2 ) ライセンス: Link先を確認 | Jan Fabian Schmid, Stephan F. Simon, Rudolf Mester | (参考訳) 地盤テクスチャに基づく位置決めは、車両の高精度位置決めを実現するための有望なアプローチである。
本稿では,グローバルローカライズやその後の局所的ローカライズ更新,すなわちロボットが現在の場所を知らずにローカライズできる自己完結型手法を提案する。
提案手法は,コンパクトなバイナリ特徴記述子に基づくIDマッチングと呼ばれる,新しいマッチング戦略に基づいている。
アイデンティティマッチングは、デクリプタが同一である場合に限り、機能のペアを一致として扱う。
グローバルなローカライゼーションのための他の手法は計算が速いが,本手法はより高いローカライゼーション成功率に達し,初期ローカライゼーション後のローカルローカライゼーションに切り替えることができる。 Ground texture based localization is a promising approach to achieve high-accuracy positioning of vehicles. We present a self-contained method that can be used for global localization as well as for subsequent local localization updates, i.e. it allows a robot to localize without any knowledge of its current whereabouts, but it can also take advantage of a prior pose estimate to reduce computation time significantly. Our method is based on a novel matching strategy, which we call identity matching, that is based on compact binary feature descriptors. Identity matching treats pairs of features as matches only if their descriptors are identical. While other methods for global localization are faster to compute, our method reaches higher localization success rates, and can switch to local localization after the initial localization. | 翻訳日:2022-12-28 22:15:19 公開日:2020-12-18 |
# pushnet:効率的な適応型ニューラルメッセージパッシング PushNet: Efficient and Adaptive Neural Message Passing ( http://arxiv.org/abs/2003.02228v4 ) ライセンス: Link先を確認 | Julian Busch, Jiaxing Pi, Thomas Seidl | (参考訳) メッセージパッシングニューラルネットワークは、最近、グラフ上での表現学習に対する最先端のアプローチへと進化した。
既存の方法は、複数のラウンドですべてのエッジに沿って同期メッセージパッシングを行い、結果として様々な欠点を被る: 伝搬スキームは、$k$-hop地区に制限され、情報伝達の実際の要求に敏感であるため、柔軟性がない。
さらに、長距離依存を適切にモデル化することはできず、学習された表現は固定された局所性の相関に基づく。
これらの問題により、予測性能の観点から既存の手法が潜在能力を発揮できない。
代わりに、情報は収束するまで最も適切なエッジに沿ってのみプッシュされる、新しい非同期メッセージパッシングアプローチを考えます。
提案アルゴリズムは,適切な近傍関数を用いて単一同期メッセージパッシング繰り返しとして等価に定式化することができ,その中心的問題に対処しながら既存の手法の利点を共有することができる。
得られたニューラルネットワークは、有意義なスパースノード近傍に由来するノード適応受容フィールドを利用する。
さらに,異なる大きさの近傍でノード表現を学習し結合することにより,複数のスケールで相関を捉えることができる。
さらに, 帰納バイアスの異なるベースモデルの変種を提案する。
厳密な評価プロトコルに従って,実世界の5つのデータセットを半教師付きノード分類する実験結果を得た。
我々のモデルは、統計的に有意な精度で、全てのデータセットで競合より優れています。
場合によっては、より高速なランタイムを提供するモデルもあります。 Message passing neural networks have recently evolved into a state-of-the-art approach to representation learning on graphs. Existing methods perform synchronous message passing along all edges in multiple subsequent rounds and consequently suffer from various shortcomings: Propagation schemes are inflexible since they are restricted to $k$-hop neighborhoods and insensitive to actual demands of information propagation. Further, long-range dependencies cannot be modeled adequately and learned representations are based on correlations of fixed locality. These issues prevent existing methods from reaching their full potential in terms of prediction performance. Instead, we consider a novel asynchronous message passing approach where information is pushed only along the most relevant edges until convergence. Our proposed algorithm can equivalently be formulated as a single synchronous message passing iteration using a suitable neighborhood function, thus sharing the advantages of existing methods while addressing their central issues. The resulting neural network utilizes a node-adaptive receptive field derived from meaningful sparse node neighborhoods. In addition, by learning and combining node representations over differently sized neighborhoods, our model is able to capture correlations on multiple scales. We further propose variants of our base model with different inductive bias. Empirical results are provided for semi-supervised node classification on five real-world datasets following a rigorous evaluation protocol. We find that our models outperform competitors on all datasets in terms of accuracy with statistical significance. In some cases, our models additionally provide faster runtime. | 翻訳日:2022-12-26 12:33:59 公開日:2020-12-18 |
# 分散学習モデル予測制御を用いた非線形マルチエージェントシステムの軌道最適化 Trajectory Optimization for Nonlinear Multi-Agent Systems using Decentralized Learning Model Predictive Control ( http://arxiv.org/abs/2004.01298v4 ) ライセンス: Link先を確認 | Edward L. Zhu, Yvonne R. St\"urz, Ugo Rosolia, Francesco Borrelli | (参考訳) 非線形疎結合力学と結合状態制約を持つマルチエージェントシステムの学習モデル予測制御に基づく分散化最小時間軌道最適化手法を提案する。
同じタスクを反復的に実行することにより、前回のタスク実行のデータを使用して、ローカルな時間変動セーフセットと近似値関数を構築し、改善する。
これらはデカップリングされたmpc問題において端末セットと端末コスト関数として使用される。
このフレームワークは,タスク実行の各イテレーションにおけるエージェント間の通信を不要とし,永続的実現性,有限時間閉ループ収束性,グローバルシステムのタスク反復による非遅延性能を保証する。
多車衝突回避シナリオの数値実験により提案手法の有効性が示された。 We present a decentralized minimum-time trajectory optimization scheme based on learning model predictive control for multi-agent systems with nonlinear decoupled dynamics and coupled state constraints. By performing the same task iteratively, data from previous task executions is used to construct and improve local time-varying safe sets and an approximate value function. These are used in a decoupled MPC problem as terminal sets and terminal cost functions. Our framework results in a decentralized controller, which requires no communication between agents over each iteration of task execution, and guarantees persistent feasibility, finite-time closed-loop convergence, and non-decreasing performance of the global system over task iterations. Numerical experiments of a multi-vehicle collision avoidance scenario demonstrate the effectiveness of the proposed scheme. | 翻訳日:2022-12-17 13:21:54 公開日:2020-12-18 |
# ラベル平滑化による行動予測のための知識蒸留 Knowledge Distillation for Action Anticipation via Label Smoothing ( http://arxiv.org/abs/2004.07711v2 ) ライセンス: Link先を確認 | Guglielmo Camporese, Pasquale Coscia, Antonino Furnari, Giovanni Maria Farinella, Lamberto Ballan | (参考訳) 視覚観察と非言語的手がかりから近未来を予測する人間の能力は、人と対話する必要があるインテリジェントなシステムを開発するために不可欠である。
HRI(Human-robot Interaction)のようないくつかの研究分野は、衝突を避けたり人を助けるために、将来の出来事を予知する必要がある。
エゴセントリックシナリオは、アクション予測が適用される古典的な例である。
このような困難なタスクは、予測の不確実性を減らすためにドメインの隠れ構造をキャプチャしてモデル化する必要がある。
複数のアクションが将来的に等しく発生する可能性があるため、アクション予測をラベル平滑化の概念を拡張するラベルの欠如によるマルチラベル問題として扱う。
このアイデアは、トレーニング中に有用な情報がモデルに注入されるため、知識蒸留プロセスに似ている。
我々は,長期記憶(LSTM)ネットワークに基づくマルチモーダルフレームワークを実装し,過去の観測を要約し,異なる時間ステップで予測を行う。
2500以上のアクションクラスを含むepic-kitchensとegtea gaze+データセットについて,広範な実験を行った。
実験の結果,ラベル平滑化は行動予測のための最先端モデルの性能を体系的に改善することが示された。 Human capability to anticipate near future from visual observations and non-verbal cues is essential for developing intelligent systems that need to interact with people. Several research areas, such as human-robot interaction (HRI), assisted living or autonomous driving need to foresee future events to avoid crashes or help people. Egocentric scenarios are classic examples where action anticipation is applied due to their numerous applications. Such challenging task demands to capture and model domain's hidden structure to reduce prediction uncertainty. Since multiple actions may equally occur in the future, we treat action anticipation as a multi-label problem with missing labels extending the concept of label smoothing. This idea resembles the knowledge distillation process since useful information is injected into the model during training. We implement a multi-modal framework based on long short-term memory (LSTM) networks to summarize past observations and make predictions at different time steps. We perform extensive experiments on EPIC-Kitchens and EGTEA Gaze+ datasets including more than 2500 and 100 action classes, respectively. The experiments show that label smoothing systematically improves performance of state-of-the-art models for action anticipation. | 翻訳日:2022-12-12 21:10:55 公開日:2020-12-18 |
# 非線形システムの制御のための2レベル格子ニューラルネットワークアーキテクチャ Two-Level Lattice Neural Network Architectures for Control of Nonlinear Systems ( http://arxiv.org/abs/2004.09628v2 ) ライセンス: Link先を確認 | James Ferlez and Xiaowu Sun and Yasser Shoukry | (参考訳) 本稿では、非線形システムを制御するのに十分なパラメータ化が可能であることを保証し、Rectified Linear Unit (ReLU) Neural Network (NN)アーキテクチャ(レイヤ数と層毎のニューロン数)を自動設計する問題を考察する。
現在の最先端技術は手作業によるアーキテクチャやヒューリスティックな検索をベースとして構築されているが,本手法では,アーキテクチャ設計のためのシステムモデルを利用して,達成可能な仕様を満たすコントローラを実装するのに十分であることを示す。
我々のアプローチは2つの基本的な考えを利用する。
まず、あるリプシッツ定数を$K_\text{cont}$で上界とした未知のリプシッツ連続状態フィードバックコントローラで制御できると仮定すると、未知のリプシッツ連続状態フィードバックコントローラを近似できる連続ピスワイズアフィン (CPWA) 関数を構築するのに必要なアフィン関数の数を束縛する。
第2に、著者らが最近行った新しいNNアーキテクチャであるTLL(Two-Level Lattice) NNアーキテクチャの成果を利用して、このCPWA関数を侵害するアフィン関数の数から、任意のCPWA関数を実装することができることを示した。 In this paper, we consider the problem of automatically designing a Rectified Linear Unit (ReLU) Neural Network (NN) architecture (number of layers and number of neurons per layer) with the guarantee that it is sufficiently parametrized to control a nonlinear system. Whereas current state-of-the-art techniques are based on hand-picked architectures or heuristic based search to find such NN architectures, our approach exploits the given model of the system to design an architecture; as a result, we provide a guarantee that the resulting NN architecture is sufficient to implement a controller that satisfies an achievable specification. Our approach exploits two basic ideas. First, assuming that the system can be controlled by an unknown Lipschitz-continuous state-feedback controller with some Lipschitz constant upper-bounded by $K_\text{cont}$, we bound the number of affine functions needed to construct a Continuous Piecewise Affine (CPWA) function that can approximate the unknown Lipschitz-continuous controller. Second, we utilize the authors' recent results on a novel NN architecture named as the Two-Level Lattice (TLL) NN architecture, which was shown to be capable of implementing any CPWA function just from the knowledge of the number of affine functions that compromises this CPWA function. | 翻訳日:2022-12-11 18:29:19 公開日:2020-12-18 |
# ウェアラブルを用いた人間行動復号のための自己注意型Deep ConvLSTM Deep ConvLSTM with self-attention for human activity decoding using wearables ( http://arxiv.org/abs/2005.00698v2 ) ライセンス: Link先を確認 | Satya P. Singh, Aim\'e Lay-Ekuakille, Deepak Gangwar, Madan Kumar Sharma, Sukrit Gupta | (参考訳) ウェアラブルセンサーから人間の活動を正確に復号することは、医療やコンテキスト認識に関連するアプリケーションに役立つ。
この領域における現在のアプローチは、複数のセンサから時系列データから時空間的特徴を捉えるために、リカレントおよび/または畳み込みモデルを用いる。
本稿では,複数のセンサ時系列データの時空間的特徴を捉えるだけでなく,自己認識機構を用いて重要な時間点を学習するディープニューラルネットワークアーキテクチャを提案する。
提案手法が,6つの公開データセット上で異なるデータサンプリング戦略にまたがる妥当性を示し,リカレントネットワークと畳み込みネットワークの組み合わせを用いたディープネットワークの性能向上効果を示す。
また,提案手法は,テストデータセットに対する従来の最先端手法よりも統計的に有意な性能向上を示した。
提案手法は、複数の身体センサーからの人間の活動のより優れた復号化を長期にわたって行う。
提案されたモデルのコードはhttps://github.com/isukrit/encodinghumanactivityで利用可能である。 Decoding human activity accurately from wearable sensors can aid in applications related to healthcare and context awareness. The present approaches in this domain use recurrent and/or convolutional models to capture the spatio-temporal features from time-series data from multiple sensors. We propose a deep neural network architecture that not only captures the spatio-temporal features of multiple sensor time-series data but also selects, learns important time points by utilizing a self-attention mechanism. We show the validity of the proposed approach across different data sampling strategies on six public datasets and demonstrate that the self-attention mechanism gave a significant improvement in performance over deep networks using a combination of recurrent and convolution networks. We also show that the proposed approach gave a statistically significant performance enhancement over previous state-of-the-art methods for the tested datasets. The proposed methods open avenues for better decoding of human activity from multiple body sensors over extended periods of time. The code implementation for the proposed model is available at https://github.com/isukrit/encodingHumanActivity. | 翻訳日:2022-12-07 13:10:23 公開日:2020-12-18 |
# 静的・時変ネットワーク上のビザンチン・ロブスト分散確率最適化 Byzantine-Robust Decentralized Stochastic Optimization over Static and Time-Varying Networks ( http://arxiv.org/abs/2005.06276v2 ) ライセンス: Link先を確認 | Jie Peng, Weiyu Li, Qing Ling | (参考訳) 本稿では,分散静的・時変ネットワーク上で定義されるビザンチン・ロバスト確率最適化問題について考察し,確率的局所コスト関数の期待値の総和を協調的に最小化するが,データ破損や機器故障,サイバー攻撃などにより信頼できないエージェントもいくつかある。
その後ビザンチンエージェントと呼ばれる信頼できないエージェントは、故障した値を隣人に送信し、最適化プロセスをバイアスすることができる。
ビザンチン攻撃に対処するための我々の重要なアイデアは、ビザンチンフリー問題の完全変分法(tv)の近似を定式化することであり、ペナルティ項は正規エージェントの局所モデルに近づくことを強いるが、ビザンチンエージェントからの外れ値の存在も許す。
ペナリゼーション問題を解くために確率的劣勾配法が適用される。
提案手法は,ビザンチンフリー最適解の近傍に到達し,ビザンチンエージェントの数とネットワークトポロジーによって地区の大きさが決定されることを示す。
数値実験は理論的解析とビザンチン攻撃に対する提案手法のロバスト性および既存の手法と比較して優れた性能を示す。 In this paper, we consider the Byzantine-robust stochastic optimization problem defined over decentralized static and time-varying networks, where the agents collaboratively minimize the summation of expectations of stochastic local cost functions, but some of the agents are unreliable due to data corruptions, equipment failures or cyber-attacks. The unreliable agents, which are called as Byzantine agents thereafter, can send faulty values to their neighbors and bias the optimization process. Our key idea to handle the Byzantine attacks is to formulate a total variation (TV) norm-penalized approximation of the Byzantine-free problem, where the penalty term forces the local models of regular agents to be close, but also allows the existence of outliers from the Byzantine agents. A stochastic subgradient method is applied to solve the penalized problem. We prove that the proposed method reaches a neighborhood of the Byzantine-free optimal solution, and the size of neighborhood is determined by the number of Byzantine agents and the network topology. Numerical experiments corroborate the theoretical analysis, as well as demonstrate the robustness of the proposed method to Byzantine attacks and its superior performance comparing to existing methods. | 翻訳日:2022-12-03 18:41:17 公開日:2020-12-18 |
# コントラスト学習のための良い視点とは何か? What Makes for Good Views for Contrastive Learning? ( http://arxiv.org/abs/2005.10243v3 ) ライセンス: Link先を確認 | Yonglong Tian, Chen Sun, Ben Poole, Dilip Krishnan, Cordelia Schmid, Phillip Isola | (参考訳) データの複数ビュー間のコントラスト学習は,近年,自己指導型表現学習の分野におけるアートパフォーマンスの状態を達成している。
その成功にもかかわらず、異なる視点選択の影響はほとんど研究されていない。
本稿では,ビュー選択の重要性をよりよく理解するために理論的および経験的分析を用い,タスク関連情報をそのまま保持しながら,ビュー間の相互情報(MI)を削減すべきだと論じる。
この仮説を検証するため,MIの削減をめざして効果的な視点を学習する,教師なしおよび半教師なしのフレームワークを考案した。
また,データ拡張をmi削減の方法として考慮し,データ拡張の増大によってmiが減少し,下流分類精度が向上することを示す。
副産物として、ImageNet分類のための教師なし事前トレーニング(ResNet-50で73\%$ top-1 linear readout)に関する新しい最先端の精度を実現する。
さらに、私たちのモデルをPASCAL VOCオブジェクト検出とCOCOインスタンスセグメンテーションに転送することは、教師付き事前トレーニングよりも一貫して優れています。
コード:http://github.com/hobbitlong/pycontrast Contrastive learning between multiple views of the data has recently achieved state of the art performance in the field of self-supervised representation learning. Despite its success, the influence of different view choices has been less studied. In this paper, we use theoretical and empirical analysis to better understand the importance of view selection, and argue that we should reduce the mutual information (MI) between views while keeping task-relevant information intact. To verify this hypothesis, we devise unsupervised and semi-supervised frameworks that learn effective views by aiming to reduce their MI. We also consider data augmentation as a way to reduce MI, and show that increasing data augmentation indeed leads to decreasing MI and improves downstream classification accuracy. As a by-product, we achieve a new state-of-the-art accuracy on unsupervised pre-training for ImageNet classification ($73\%$ top-1 linear readout with a ResNet-50). In addition, transferring our models to PASCAL VOC object detection and COCO instance segmentation consistently outperforms supervised pre-training. Code:http://github.com/HobbitLong/PyContrast | 翻訳日:2022-12-01 05:04:40 公開日:2020-12-18 |
# 映像テンポ一貫性を用いた映像表現学習 Video Representation Learning with Visual Tempo Consistency ( http://arxiv.org/abs/2006.15489v2 ) ライセンス: Link先を確認 | Ceyuan Yang, Yinghao Xu, Bo Dai, Bolei Zhou | (参考訳) アクションの速度を示すvisual tempoは、教師付きアクション認識の可能性を示している。
本研究では,視覚的テンポが映像表現学習の自己超越信号として機能することを示す。
本稿では,階層的コントラスト学習(VTHCL)によるスロービデオと高速ビデオの表現間の相互情報の最大化を提案する。
具体的には、スローフレームレートと高速フレームレートで同じインスタンスをサンプリングすることで、同じセマンティクスを共有しながら異なる視覚的テンポを含むスローフレームと高速フレームを得ることができる。
VTHCLから学んだビデオ表現は、UCF-101 (82.1\%) と HMDB-51 (49.2\%) の自己超越評価プロトコルの下で、競争性能を達成する。
さらに,AVAでの行動検出やEpic-Kitchenでの行動予測など,学習された表現が他の下流タスクとよく一致していることを示す。
最後に,コントラスト学習によって獲得される共有意味論を可視化するインスタンス対応マップ(icm)を提案する。 Visual tempo, which describes how fast an action goes, has shown its potential in supervised action recognition. In this work, we demonstrate that visual tempo can also serve as a self-supervision signal for video representation learning. We propose to maximize the mutual information between representations of slow and fast videos via hierarchical contrastive learning (VTHCL). Specifically, by sampling the same instance at slow and fast frame rates respectively, we can obtain slow and fast video frames which share the same semantics but contain different visual tempos. Video representations learned from VTHCL achieve the competitive performances under the self-supervision evaluation protocol for action recognition on UCF-101 (82.1\%) and HMDB-51 (49.2\%). Moreover, comprehensive experiments suggest that the learned representations are generalized well to other downstream tasks including action detection on AVA and action anticipation on Epic-Kitchen. Finally, we propose Instance Correspondence Map (ICM) to visualize the shared semantics captured by contrastive learning. | 翻訳日:2022-11-16 02:43:26 公開日:2020-12-18 |
# マルチ露光画像のためのHDR画像合成のためのエンドツーエンド微分学習 End-to-End Differentiable Learning to HDR Image Synthesis for Multi-exposure Images ( http://arxiv.org/abs/2006.15833v2 ) ライセンス: Link先を確認 | Jung Hee Kim, Siyeong Lee, and Suk-Ju Kang | (参考訳) 近年,与えられた単一露光からの多重露光スタックに基づく高ダイナミックレンジ(HDR)画像再構成では,ディープラーニングフレームワークを用いて高品質なHDR画像を生成する。
これらのネットワークはマルチ露光スタックを再構築する露光伝達タスクに重点を置いている。
したがって、反転アーティファクトが発生すると、複数の露光スタックを知覚的に快適なhdrイメージに融合することができないことが多い。
本稿では, スタック再構築手法の問題点を, 完全に微分可能な高ダイナミックレンジイメージング(HDRI)プロセスを用いた新しいフレームワークを提案する。
ネットワークの出力と真実のHDR画像とを明示的に比較することで,HDRIの多重露光スタックを生成するニューラルネットワークを安定してトレーニングすることが可能となる。
言い換えれば、我々の微分可能なHDR合成層は、深層ニューラルネットワークがHDRIプロセスにおけるマルチ露光画像間の正確な相関を反映しながら、マルチ露光スタックを作成する訓練を支援する。
さらに,本ネットワークでは,画像分解と再帰処理を用いて,露出伝達作業を容易にし,再帰周波数に適応的に応答する。
実験の結果,提案したネットワークは,露光伝達タスクと全HDRIプロセスの両面で,最先端の定量的および定性的な結果よりも優れていた。 Recently, high dynamic range (HDR) image reconstruction based on the multiple exposure stack from a given single exposure utilizes a deep learning framework to generate high-quality HDR images. These conventional networks focus on the exposure transfer task to reconstruct the multi-exposure stack. Therefore, they often fail to fuse the multi-exposure stack into a perceptually pleasant HDR image as the inversion artifacts occur. We tackle the problem in stack reconstruction-based methods by proposing a novel framework with a fully differentiable high dynamic range imaging (HDRI) process. By explicitly using the loss, which compares the network's output with the ground truth HDR image, our framework enables a neural network that generates the multiple exposure stack for HDRI to train stably. In other words, our differentiable HDR synthesis layer helps the deep neural network to train to create multi-exposure stacks while reflecting the precise correlations between multi-exposure images in the HDRI process. In addition, our network uses the image decomposition and the recursive process to facilitate the exposure transfer task and to adaptively respond to recursion frequency. The experimental results show that the proposed network outperforms the state-of-the-art quantitative and qualitative results in terms of both the exposure transfer tasks and the whole HDRI process. | 翻訳日:2022-11-15 15:06:53 公開日:2020-12-18 |
# 正確性を超えた:CNNと人間の裁判による行動の定量化 Beyond accuracy: quantifying trial-by-trial behaviour of CNNs and humans by measuring error consistency ( http://arxiv.org/abs/2006.16736v3 ) ライセンス: Link先を確認 | Robert Geirhos, Kristof Meding, Felix A. Wichmann | (参考訳) 認知科学や行動神経科学、機械学習や人工知能の研究の中心的な問題は、2つ以上の意思決定者(脳やアルゴリズムなど)が同じ戦略を採用するかどうかを確かめることである。
2つのシステムは、非常に異なる戦略で同様の精度を達成することができる。
精度以上の差別化の必要性は、CNN(Convolutional Neural Networks)や人間の視覚的物体認識のような、2つのシステムが天井に近い性能である場合、特に顕著である。
本稿では、2つの意思決定システムが同一の入力に対してシステム的にエラーを発生させるかどうかを定量的に分析する。
裁判ごとに一貫した誤りを犯すことは、意思決定者間の同様の処理戦略に必要な条件である。
本分析は,アルゴリズムと人間,アルゴリズムを人間と比較することに適用できる。
オブジェクト認識にエラー整合性を適用すると、3つの主な発見が得られる: (1.) アーキテクチャに反し、CNNは互いに著しく整合している。
(2.)
しかし、CNNと人間のオブザーバーの一貫性は、偶然にも期待できる以上のものではない。
(3.)
cornet-sは「霊長類の腹側視覚の流れの現在の最良のモデル」と呼ばれ、人間の行動データの本質的な特徴を捉えられず、基本的には標準のfeedforward resnet-50のように振る舞う。
総合すると、エラー一貫性分析は、人間とマシンビジョンが使用する戦略が依然として大きく異なっていることを示唆します。 A central problem in cognitive science and behavioural neuroscience as well as in machine learning and artificial intelligence research is to ascertain whether two or more decision makers (be they brains or algorithms) use the same strategy. Accuracy alone cannot distinguish between strategies: two systems may achieve similar accuracy with very different strategies. The need to differentiate beyond accuracy is particularly pressing if two systems are near ceiling performance, like Convolutional Neural Networks (CNNs) and humans on visual object recognition. Here we introduce trial-by-trial error consistency, a quantitative analysis for measuring whether two decision making systems systematically make errors on the same inputs. Making consistent errors on a trial-by-trial basis is a necessary condition for similar processing strategies between decision makers. Our analysis is applicable to compare algorithms with algorithms, humans with humans, and algorithms with humans. When applying error consistency to object recognition we obtain three main findings: (1.) Irrespective of architecture, CNNs are remarkably consistent with one another. (2.) The consistency between CNNs and human observers, however, is little above what can be expected by chance alone -- indicating that humans and CNNs are likely implementing very different strategies. (3.) CORnet-S, a recurrent model termed the "current best model of the primate ventral visual stream", fails to capture essential characteristics of human behavioural data and behaves essentially like a standard purely feedforward ResNet-50 in our analysis. Taken together, error consistency analysis suggests that the strategies used by human and machine vision are still very different -- but we envision our general-purpose error consistency analysis to serve as a fruitful tool for quantifying future progress. | 翻訳日:2022-11-15 05:29:02 公開日:2020-12-18 |
# カメラモーションとビデオオブジェクトセグメンテーションから物体深度を学習する Learning Object Depth from Camera Motion and Video Object Segmentation ( http://arxiv.org/abs/2007.05676v3 ) ライセンス: Link先を確認 | Brent A. Griffin and Jason J. Corso | (参考訳) ビデオオブジェクトのセグメンテーション(つまり、ビデオ中の背景からターゲットオブジェクトを分離する)は、近年、現実的で挑戦的なビデオで大きな進歩を遂げている。
この進歩を3Dアプリケーションで活用するために、カメラの動き(例えば、ロボットキネマティクスや車両のオドメトリー)の測定により、セグメント化された物体の深さを推定する学習の課題に対処する。
まず、多様な拡張可能なデータセットを導入し、次に、セグメンテーションマスクと補正されていないカメラの動きのみを用いてオブジェクトの深さを推定する新しいディープネットワークを設計する。
データ生成フレームワークは、カメラとオブジェクト間の距離の変化をスケールする人工オブジェクトセグメンテーションを作成し、ネットワークはセグメンテーションエラーであってもオブジェクトの深さを推定することを学習します。
我々は,ycbデータセットの物体をロボットカメラで検出し,運転中の障害物を車両カメラで検出する手法を実証する。 Video object segmentation, i.e., the separation of a target object from background in video, has made significant progress on real and challenging videos in recent years. To leverage this progress in 3D applications, this paper addresses the problem of learning to estimate the depth of segmented objects given some measurement of camera motion (e.g., from robot kinematics or vehicle odometry). We achieve this by, first, introducing a diverse, extensible dataset and, second, designing a novel deep network that estimates the depth of objects using only segmentation masks and uncalibrated camera movement. Our data-generation framework creates artificial object segmentations that are scaled for changes in distance between the camera and object, and our network learns to estimate object depth even with segmentation errors. We demonstrate our approach across domains using a robot camera to locate objects from the YCB dataset and a vehicle camera to locate obstacles while driving. | 翻訳日:2022-11-11 13:37:04 公開日:2020-12-18 |
# 値分解多エージェントアクタ臨界 Value-Decomposition Multi-Agent Actor-Critics ( http://arxiv.org/abs/2007.12306v4 ) ライセンス: Link先を確認 | Jianyu Su, Stephen Adams, Peter A. Beling | (参考訳) 余剰状態情報の活用はマルチエージェント強化学習(marl)において活発な研究分野となっている。
QMIXは、非負関数近似器を用いた共同動作値を表し、マルチエージェントベンチマーク、StarCraft IIマイクロマネジメントタスクにおいて、これまでで最高のパフォーマンスを達成する。
しかし,本実験により,QMIXはアルゴリズム学習効率を向上させる訓練パラダイムであるA2Cと互換性がない場合がある。
トレーニング効率とアルゴリズム性能の合理的なトレードオフを得るため,A2Cと互換性のあるアクター批判に価値分解を拡張し,新しいアクター批判フレームワーク,バリュー分解アクター批判(VDAC)を提案する。
本稿では,StarCraft II マイクロマネジメントタスクのテストベッド上での VDAC の評価を行い,提案手法が他のアクター・クリティカルな手法よりも中央値の性能を向上させることを示す。
さらに,vdacsの性能に寄与する鍵となる因子を同定するために,アブレーション実験のセットを用いる。 The exploitation of extra state information has been an active research area in multi-agent reinforcement learning (MARL). QMIX represents the joint action-value using a non-negative function approximator and achieves the best performance, by far, on multi-agent benchmarks, StarCraft II micromanagement tasks. However, our experiments show that, in some cases, QMIX is incompatible with A2C, a training paradigm that promotes algorithm training efficiency. To obtain a reasonable trade-off between training efficiency and algorithm performance, we extend value-decomposition to actor-critics that are compatible with A2C and propose a novel actor-critic framework, value-decomposition actor-critics (VDACs). We evaluate VDACs on the testbed of StarCraft II micromanagement tasks and demonstrate that the proposed framework improves median performance over other actor-critic methods. Furthermore, we use a set of ablation experiments to identify the key factors that contribute to the performance of VDACs. | 翻訳日:2022-11-07 06:12:31 公開日:2020-12-18 |
# 深層強化学習における説明可能性 Explainability in Deep Reinforcement Learning ( http://arxiv.org/abs/2008.06693v4 ) ライセンス: Link先を確認 | Alexandre Heuillet, Fabien Couthouis and Natalia D\'iaz-Rodr\'iguez | (参考訳) 説明可能な人工知能(XAI)の文献の大規模なセットは、ディープニューラルネットワーク(DNN)の出力を説明する機能関連技術や、画像ソースデータを取り込み込むモデルの説明に現れている。
しかしながら、XAI技術が分類タスク以外のモデル、例えば強化学習(RL)の理解にどのように役立つかを評価することは、広く研究されていない。
本稿では,最近の研究成果である説明可能強化学習(xrl)の達成に向けて検討する。説明可能な人工知能の比較的新しいサブフィールドであり,一般の一般用途での利用を意図しており,多様なオーディエンスを対象とし,倫理的,責任的,信頼性の高いアルゴリズムを必要とする。
エージェントの行動の正当化と説明が不可欠である重要な状況において、rlモデルのより優れた説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
我々は,説明可能性を直接rlにリンクする研究を主に評価し,説明の生成方法に応じて2つのカテゴリに分類した。
また、レンズから最も顕著なXAIの成果を概観し、RLにおける最新の進歩のさらなる展開を、日々の課題の現在と未来にどのように啓蒙するかを考察する。 A large set of the explainable Artificial Intelligence (XAI) literature is emerging on feature relevance techniques to explain a deep neural network (DNN) output or explaining models that ingest image source data. However, assessing how XAI techniques can help understand models beyond classification tasks, e.g. for reinforcement learning (RL), has not been extensively studied. We review recent works in the direction to attain Explainable Reinforcement Learning (XRL), a relatively new subfield of Explainable Artificial Intelligence, intended to be used in general public applications, with diverse audiences, requiring ethical, responsible and trustable algorithms. In critical situations where it is essential to justify and explain the agent's behaviour, better explainability and interpretability of RL models could help gain scientific insight on the inner workings of what is still considered a black box. We evaluate mainly studies directly linking explainability to RL, and split these into two categories according to the way the explanations are generated: transparent algorithms and post-hoc explainaility. We also review the most prominent XAI works from the lenses of how they could potentially enlighten the further deployment of the latest advances in RL, in the demanding present and future of everyday problems. | 翻訳日:2022-10-28 21:02:51 公開日:2020-12-18 |
# 機械推論のための文化常識のアトラスを目指して Towards an Atlas of Cultural Commonsense for Machine Reasoning ( http://arxiv.org/abs/2009.05664v3 ) ライセンス: Link先を確認 | Anurag Acharya, Kartik Talamadupula and Mark A Finlayson | (参考訳) AIとNLPタスクのための既存の常識推論データセットは、人間の生活の重要な側面である文化的差異に対処できない。
文化的・民族的集団に起因する知識の相違を取り入れることで,コモンセンス知識のクラウドソーシングに関する先行研究を拡大するアプローチを導入する。
我々は、米国とインドという2つの国家集団で、出産、結婚、葬儀、新年、誕生日の6つのかなり普遍的な儀式を取り巻く常識知識を収集して、このテクニックを実証する。
本研究は,コモンセンス推論の分野において,既存の作業が認識する関係の異なるタイプを拡張し,これらの新しいタイプを用いて,知識を提供するグループのアイデンティティを識別する情報を収集する。
それはまた、普遍的な(そしておそらく西洋バイアスの)コモンセンス知識の堅固な枠組みを前提とせず、むしろ文脈的かつ文化的に敏感な方法で推論する能力を持つ機械を構築するための一歩を踏み出した。
我々の期待は、このような文化的知識が、質問応答(QA)やテキスト理解・生成といったNLPタスクにおいて、より人間的なパフォーマンスをもたらすことである。 Existing commonsense reasoning datasets for AI and NLP tasks fail to address an important aspect of human life: cultural differences. We introduce an approach that extends prior work on crowdsourcing commonsense knowledge by incorporating differences in knowledge that are attributable to cultural or national groups. We demonstrate the technique by collecting commonsense knowledge that surrounds six fairly universal rituals -- birth, coming-of-age, marriage, funerals, new year, and birthdays -- across two national groups: the United States and India. Our study expands the different types of relationships identified by existing work in the field of commonsense reasoning for commonplace events, and uses these new types to gather information that distinguish the identity of the groups providing the knowledge. It also moves us a step closer towards building a machine that doesn't assume a rigid framework of universal (and likely Western-biased) commonsense knowledge, but rather has the ability to reason in a contextually and culturally sensitive way. Our hope is that cultural knowledge of this sort will lead to more human-like performance in NLP tasks such as question answering (QA) and text understanding and generation. | 翻訳日:2022-10-19 20:50:23 公開日:2020-12-18 |
# スケーラブルでインダクティブなサブスペースクラスタリングのための自己表現メトリクスの学習 Learning Self-Expression Metrics for Scalable and Inductive Subspace Clustering ( http://arxiv.org/abs/2009.12875v2 ) ライセンス: Link先を確認 | Julian Busch, Evgeniy Faerman, Matthias Schubert and Thomas Seidl | (参考訳) サブスペースクラスタリングは、高次元データをクラスタリングするための最先端のアプローチとして確立された。
特に、自己表現性プロパティに依存するメソッドは、最近特に成功している。
第一に、二次サイズの係数行列が直接学習され、これらの手法が小さなデータセットを超えてスケールすることを防ぐ。
第二に、トレーニングされたモデルはトランスダクティブであるため、トレーニング中に見つからないサンプルデータのクラスタリングには使用できない。
自己表現係数を直接学習する代わりに,siameseニューラルネットワークアーキテクチャを用いた部分空間親和関数を学習するための新しいメトリック学習手法を提案する。
その結果、パラメータの一定数とメモリフットプリントの恩恵を受け、かなり大きなデータセットにスケールできるようになりました。
さらに、独立性を前提として、outモデルがサブスペースクラスタを正確にリカバリできることを正式に示すことができる。
シアムアーキテクチャと新しい幾何学的分類器を組み合わせることで、我々のモデルをさらに誘導し、サンプル外のデータをクラスタ化することができる。
さらに、アーキテクチャに自動エンコーダモジュールを追加するだけで、非線形クラスタを検出することができる。
モデル全体は、自己監督された方法でエンドツーエンドでトレーニングすることができる。
この研究は、MNISTデータセットに期待できる事前結果を報告している。
再現可能な研究の精神では、すべてのコードを公開しています。
今後の取り組みとして,モデルの拡張をいくつか検討し,実験的な評価を拡大する予定である。 Subspace clustering has established itself as a state-of-the-art approach to clustering high-dimensional data. In particular, methods relying on the self-expressiveness property have recently proved especially successful. However, they suffer from two major shortcomings: First, a quadratic-size coefficient matrix is learned directly, preventing these methods from scaling beyond small datasets. Secondly, the trained models are transductive and thus cannot be used to cluster out-of-sample data unseen during training. Instead of learning self-expression coefficients directly, we propose a novel metric learning approach to learn instead a subspace affinity function using a siamese neural network architecture. Consequently, our model benefits from a constant number of parameters and a constant-size memory footprint, allowing it to scale to considerably larger datasets. In addition, we can formally show that out model is still able to exactly recover subspace clusters given an independence assumption. The siamese architecture in combination with a novel geometric classifier further makes our model inductive, allowing it to cluster out-of-sample data. Additionally, non-linear clusters can be detected by simply adding an auto-encoder module to the architecture. The whole model can then be trained end-to-end in a self-supervised manner. This work in progress reports promising preliminary results on the MNIST dataset. In the spirit of reproducible research, me make all code publicly available. In future work we plan to investigate several extensions of our model and to expand experimental evaluation. | 翻訳日:2022-10-14 03:09:21 公開日:2020-12-18 |
# 畳み込み生成逆数ネットワークにおける空間周波数バイアス Spatial Frequency Bias in Convolutional Generative Adversarial Networks ( http://arxiv.org/abs/2010.01473v3 ) ライセンス: Link先を確認 | Mahyar Khayatkhoei, Ahmed Elgammal | (参考訳) 自然画像におけるGAN(Generative Adversarial Networks)の成功が、様々な領域にわたる様々な実生活アプリケーションに急速に普及するにつれ、それらの制限を明確に理解することがますます重要になる。
特に、自然画像の低周波支配スペクトルを超えて、空間周波数の全スペクトル、すなわち、GANの能力を理解することは、詳細に敏感なアプリケーション(例えば、医療や衛星画像におけるノイズ、補充、超解像)において、GAN生成データの信頼性を評価するために重要である。
本稿では,GANが分布を学習する能力は,基礎となるキャリア信号の空間周波数,すなわち高空間周波数の学習に対するバイアスに大きく影響していることを示す。
重要なのは、このバイアスは、自然画像における高周波の不足の結果であるだけでなく、データセットにおける高周波数の学習を妨げるシステムバイアスであることを示している。
さらに, 自然画像の微細な詳細を生成できる大規模GANの能力が, このバイアスの悪影響を排除できない理由を説明する。
最後に,このバイアスを最小の計算オーバーヘッドで操作する方法を提案する。
この手法は、データセットの特定の空間周波数に計算資源を明示的に向けることで、GANの柔軟性を拡張できる。 As the success of Generative Adversarial Networks (GANs) on natural images quickly propels them into various real-life applications across different domains, it becomes more and more important to clearly understand their limitations. Specifically, understanding GANs' capability across the full spectrum of spatial frequencies, i.e. beyond the low-frequency dominant spectrum of natural images, is critical for assessing the reliability of GAN generated data in any detail-sensitive application (e.g. denoising, filling and super-resolution in medical and satellite images). In this paper, we show that the ability of convolutional GANs to learn a distribution is significantly affected by the spatial frequency of the underlying carrier signal, that is, GANs have a bias against learning high spatial frequencies. Crucially, we show that this bias is not merely a result of the scarcity of high frequencies in natural images, rather, it is a systemic bias hindering the learning of high frequencies regardless of their prominence in a dataset. Furthermore, we explain why large-scale GANs' ability to generate fine details on natural images does not exclude them from the adverse effects of this bias. Finally, we propose a method for manipulating this bias with minimal computational overhead. This method can be used to explicitly direct computational resources towards any specific spatial frequency of interest in a dataset, extending the flexibility of GANs. | 翻訳日:2022-10-11 03:22:15 公開日:2020-12-18 |
# 圧縮モデルにおけるバイアスの特徴付け Characterising Bias in Compressed Models ( http://arxiv.org/abs/2010.03058v2 ) ライセンス: Link先を確認 | Sara Hooker, Nyalleng Moorosi, Gregory Clark, Samy Bengio, Emily Denton | (参考訳) プルーニングと量子化の人気と普及は、厳しいレイテンシ、メモリ、エネルギー要求のある環境にディープニューラルネットワークをデプロイするという厳しいリソース制約によって引き起こされる。
これらの技術は、トップラインのメトリクス(トップ1とトップ5の精度)に無視できない影響で高いレベルの圧縮を実現する。
しかし、全体的な精度は、サンプルの小さなサブセットに不釣り合いに高いエラーを隠している。
さらに、CIEの例では、圧縮は既存のアルゴリズムバイアスを増幅する。
プルーニングは不釣り合いにパフォーマンスに過小評価された機能に影響を与え、しばしばフェアネスの考慮と一致する。
CIEは比較的小さなサブセットであるが、モデルにおけるエラーの大きな貢献者であるため、ドメインの専門家によるさらなるインスペクションやアノテーションのために、データセットの抽出可能なサブセットをサーフェスするために、ヒューマン・イン・ザ・ループ監査ツールとしての利用を提案する。
我々は、CIEが人間のループ内監査におけるデータ配信において最も困難な例を提示する定性的かつ定量的な支援を提供する。 The popularity and widespread use of pruning and quantization is driven by the severe resource constraints of deploying deep neural networks to environments with strict latency, memory and energy requirements. These techniques achieve high levels of compression with negligible impact on top-line metrics (top-1 and top-5 accuracy). However, overall accuracy hides disproportionately high errors on a small subset of examples; we call this subset Compression Identified Exemplars (CIE). We further establish that for CIE examples, compression amplifies existing algorithmic bias. Pruning disproportionately impacts performance on underrepresented features, which often coincides with considerations of fairness. Given that CIE is a relatively small subset but a great contributor of error in the model, we propose its use as a human-in-the-loop auditing tool to surface a tractable subset of the dataset for further inspection or annotation by a domain expert. We provide qualitative and quantitative support that CIE surfaces the most challenging examples in the data distribution for human-in-the-loop auditing. | 翻訳日:2022-10-10 05:45:38 公開日:2020-12-18 |
# ブロック項テンソルニューラルネットワーク Block-term Tensor Neural Networks ( http://arxiv.org/abs/2010.04963v2 ) ライセンス: Link先を確認 | Jinmian Ye, Guangxi Li, Di Chen, Haiqin Yang, Shandian Zhe, and Zenglin Xu | (参考訳) ディープニューラルネットワーク(DNN)は、画像分類や自然言語処理など、幅広いアプリケーションにおいて、優れたパフォーマンスを実現している。
優れたパフォーマンスにもかかわらず、DNNの膨大な数のパラメータは、DNNの効率的なトレーニングや、限られたコンピューティングリソースを持つローエンドデバイスへの展開に困難をもたらす。
本稿では,重み行列の相関について検討し,重み行列を低ランクブロック長テンソルで近似する。
我々は、新しい対応する構造をブロック終端テンソル層(BT層)と呼び、CNNやRNNといったニューラルネットワークモデルに容易に適応できる。
特に、BT層内の入力と出力は、類似または改善された表現力を持つ低次元高階テンソルに変換される。
CNNとRNNのBT層は、元のDNNの表現力を維持したり改善したりしながら、パラメータ数に対して非常に大きな圧縮比が得られることを示した。 Deep neural networks (DNNs) have achieved outstanding performance in a wide range of applications, e.g., image classification, natural language processing, etc. Despite the good performance, the huge number of parameters in DNNs brings challenges to efficient training of DNNs and also their deployment in low-end devices with limited computing resources. In this paper, we explore the correlations in the weight matrices, and approximate the weight matrices with the low-rank block-term tensors. We name the new corresponding structure as block-term tensor layers (BT-layers), which can be easily adapted to neural network models, such as CNNs and RNNs. In particular, the inputs and the outputs in BT-layers are reshaped into low-dimensional high-order tensors with a similar or improved representation power. Sufficient experiments have demonstrated that BT-layers in CNNs and RNNs can achieve a very large compression ratio on the number of parameters while preserving or improving the representation power of the original DNNs. | 翻訳日:2022-10-08 22:29:11 公開日:2020-12-18 |
# 一般化とロバスト性向上のための最大エントロピー逆データ拡張 Maximum-Entropy Adversarial Data Augmentation for Improved Generalization and Robustness ( http://arxiv.org/abs/2010.08001v2 ) ライセンス: Link先を確認 | Long Zhao, Ting Liu, Xi Peng, Dimitris Metaxas | (参考訳) 敵対的なデータ拡張は、予期せぬデータシフトや腐敗に対する堅牢なディープニューラルネットワークのトレーニングを約束することを示している。
しかしながら、ソース分布と大きく異なる「ハード」な逆摂動を含む効果的な架空のターゲット分布を生成するヒューリスティックを定義することは困難である。
本稿では,敵対的データ拡張のための新しい効果的な正規化用語を提案する。
理論的には、最大エントロピーの定式化をもたらす情報ボトルネック原理から導出する。
直観的には、この正規化項は、現在のモデルの予測の不確実性を拡大するために基礎となるソース分布を摂動させることを奨励し、生成された「ハード」な逆摂動がトレーニング中のモデルのロバスト性を改善することができる。
3つの標準ベンチマークによる実験結果から,本手法は統計的に有意なマージンで既存の技術に一貫して勝っていることが示された。 Adversarial data augmentation has shown promise for training robust deep neural networks against unforeseen data shifts or corruptions. However, it is difficult to define heuristics to generate effective fictitious target distributions containing "hard" adversarial perturbations that are largely different from the source distribution. In this paper, we propose a novel and effective regularization term for adversarial data augmentation. We theoretically derive it from the information bottleneck principle, which results in a maximum-entropy formulation. Intuitively, this regularization term encourages perturbing the underlying source distribution to enlarge predictive uncertainty of the current model, so that the generated "hard" adversarial perturbations can improve the model robustness during training. Experimental results on three standard benchmarks demonstrate that our method consistently outperforms the existing state of the art by a statistically significant margin. | 翻訳日:2022-10-07 03:24:05 公開日:2020-12-18 |
# 深部ReLUネットワークを用いた量子回帰:推定器と最小値 Quantile regression with deep ReLU Networks: Estimators and minimax rates ( http://arxiv.org/abs/2010.08236v5 ) ライセンス: Link先を確認 | Oscar Hernan Madrid Padilla, Wesley Tansey, Yanzhen Chen | (参考訳) 分位回帰 (quantile regression) は、既知の共変量の集合から、中央値のような特定のパーセンタイル応答を推定するタスクである。
relu(recurtified linear unit)ニューラルネットワークを用いた定性的回帰をモデルクラスとして検討した。
共変量集合上の任意の量子条件を推定するために使用されるReLUネットワークの期待平均2乗誤差の上界を導出する。
この上限は、可能な限りの近似誤差、ネットワーク内のレイヤ数、レイヤ毎のノード数にのみ依存する。
さらに、h\"older関数の合成とベゾフ空間の構成という2つの大きな関数のクラスに対して密接な上界を示す。
これらの厳密な境界は、量的回帰を持つreluネットワークが、関数型の幅広いコレクションのミニマックスレートを達成することを意味する。
既存の研究とは異なり、理論結果は最小限の仮定で成り立ち、重み付き分布を含む一般的な誤差分布に適用される。
一連の合成応答関数に関する実験シミュレーションは、理論結果がReLUネットワークの実装に変換されることを示す。
全体として、理論的および実証的な結果は、幅広い関数クラスとエラー分布にわたる量子回帰のためのReLUニューラルネットワークの強い性能に関する洞察を与える。
この論文のすべてのコードは、https://github.com/tansey/quantile-regressionで公開されている。 Quantile regression is the task of estimating a specified percentile response, such as the median, from a collection of known covariates. We study quantile regression with rectified linear unit (ReLU) neural networks as the chosen model class. We derive an upper bound on the expected mean squared error of a ReLU network used to estimate any quantile conditional on a set of covariates. This upper bound only depends on the best possible approximation error, the number of layers in the network, and the number of nodes per layer. We further show upper bounds that are tight for two large classes of functions: compositions of H\"older functions and members of a Besov space. These tight bounds imply ReLU networks with quantile regression achieve minimax rates for broad collections of function types. Unlike existing work, the theoretical results hold under minimal assumptions and apply to general error distributions, including heavy-tailed distributions. Empirical simulations on a suite of synthetic response functions demonstrate the theoretical results translate to practical implementations of ReLU networks. Overall, the theoretical and empirical results provide insight into the strong performance of ReLU neural networks for quantile regression across a broad range of function classes and error distributions. All code for this paper is publicly available at https://github.com/tansey/quantile-regression. | 翻訳日:2022-10-06 22:00:33 公開日:2020-12-18 |
# ジョイント圧縮アーティファクト低減と超解像によるハイレベルビジョンの促進 Boosting High-Level Vision with Joint Compression Artifacts Reduction and Super-Resolution ( http://arxiv.org/abs/2010.08919v2 ) ライセンス: Link先を確認 | Xiaoyu Xiang, Qian Lin, Jan P. Allebach | (参考訳) 帯域幅とストレージスペースの制限のため、デジタルイメージは通常、ネットワーク経由で送信されるとダウンスケールされ、圧縮されるため、細部やジャリングアーティファクトが失われ、ハイレベルなビジュアルタスクのパフォーマンスが低下する。
本稿では,圧縮アーティファクト低減(car)とスーパーレゾリューション(sr)の課題を検討することにより,任意の品質因子で圧縮された低解像度画像から,アーティファクトフリーな高解像度画像を生成することを目的とする。
まず, 局所的特徴と非局所的特徴を統合し, 車とsrを一段階に解く, 文脈認識型ジョイントカーとsrニューラルネットワーク(cajnn)を提案する。
最後に、高画質・高分解能画像の予測にディープリコンストラクションネットワークを採用する。
CARおよびSRベンチマークデータセットの評価では、我々のCAJNNモデルは従来の手法より優れており、ランタイムも26.2%短い。
このモデルに基づいて,低解像度テキストの光学的文字認識と極めて小さな顔検出という,ハイレベルコンピュータビジョンにおける2つの重要な課題に対処する。
我々は,CAJNNが有効な画像前処理手法として機能し,実シーンのテキスト認識の精度(85.30%から85.75%)と顔検出の精度(0.317から0.611)を向上させることを実証した。 Due to the limits of bandwidth and storage space, digital images are usually down-scaled and compressed when transmitted over networks, resulting in loss of details and jarring artifacts that can lower the performance of high-level visual tasks. In this paper, we aim to generate an artifact-free high-resolution image from a low-resolution one compressed with an arbitrary quality factor by exploring joint compression artifacts reduction (CAR) and super-resolution (SR) tasks. First, we propose a context-aware joint CAR and SR neural network (CAJNN) that integrates both local and non-local features to solve CAR and SR in one-stage. Finally, a deep reconstruction network is adopted to predict high quality and high-resolution images. Evaluation on CAR and SR benchmark datasets shows that our CAJNN model outperforms previous methods and also takes 26.2% shorter runtime. Based on this model, we explore addressing two critical challenges in high-level computer vision: optical character recognition of low-resolution texts, and extremely tiny face detection. We demonstrate that CAJNN can serve as an effective image preprocessing method and improve the accuracy for real-scene text recognition (from 85.30% to 85.75%) and the average precision for tiny face detection (from 0.317 to 0.611). | 翻訳日:2022-10-06 04:42:31 公開日:2020-12-18 |
# Q-Learningのための変圧器に基づく動作系列生成の安定化 Stabilizing Transformer-Based Action Sequence Generation For Q-Learning ( http://arxiv.org/abs/2010.12698v2 ) ライセンス: Link先を確認 | Gideon Stein, Andrey Filchenkov, Arip Asadulaev | (参考訳) オリジナルのTransformerアーキテクチャ(Vaswaniら)が出版されてから、Transformersは自然言語処理の分野に革命をもたらした。
これは主に、競合するRNNベースのアーキテクチャよりも、タイムリーな依存関係を理解できるためである。
驚くべきことに、このアーキテクチャの変更は強化学習(RL)の分野には影響しない。
最近、Parisottoら(2019年)は、RLにおけるトランスフォーマーの最初の有望な研究を行った。
この研究の成果を裏付けるために,本論文ではトランスフォーマーベースのrl法の追加例を提案する。
具体的には、トランスフォーマーベースのDeep Q-Learning法で、複数の環境で安定している。
トランスフォーマーとRLの不安定な性質から,Q-ラーニングだけでなくトランスフォーマーの周辺開発も活用する最終手法に到達するための広範な手法探索が実施された。
提案手法は,制御環境における古典的Q-ラーニングの性能と,選択したAtariベンチマークのポテンシャルとを一致させることができる。
さらに、トランスフォーマーとrlの関係についてさらなる洞察を与えるために、批判的に評価された。 Since the publication of the original Transformer architecture (Vaswani et al. 2017), Transformers revolutionized the field of Natural Language Processing. This, mainly due to their ability to understand timely dependencies better than competing RNN-based architectures. Surprisingly, this architecture change does not affect the field of Reinforcement Learning (RL), even though RNNs are quite popular in RL, and time dependencies are very common in RL. Recently, Parisotto et al. 2019) conducted the first promising research of Transformers in RL. To support the findings of this work, this paper seeks to provide an additional example of a Transformer-based RL method. Specifically, the goal is a simple Transformer-based Deep Q-Learning method that is stable over several environments. Due to the unstable nature of Transformers and RL, an extensive method search was conducted to arrive at a final method that leverages developments around Transformers as well as Q-learning. The proposed method can match the performance of classic Q-learning on control environments while showing potential on some selected Atari benchmarks. Furthermore, it was critically evaluated to give additional insights into the relation between Transformers and RL. | 翻訳日:2022-10-03 23:46:34 公開日:2020-12-18 |
# 実験設計のための局所探索フレームワーク A Local Search Framework for Experimental Design ( http://arxiv.org/abs/2010.15805v2 ) ライセンス: Link先を確認 | Lap Chi Lau and Hong Zhou | (参考訳) 実験的な設計問題に対する組合せアルゴリズムとラウンドアルゴリズムの両方を設計・解析するための局所探索フレームワークを提案する。
このフレームワークは、D/A/E-Designにおける既知のすべての結果と一致し、改善するための統一的なアプローチを提供する。
組合せアルゴリズムについて,古典フェドロフ交換法の新しい解析法を提案する。
この単純な局所探索アルゴリズムは、条件数が良いほぼ最適解が存在する限り有効であることが証明される。
さらに,後悔の最小化フレームワークを用いて,E設計のための新しい組合せ局所探索アルゴリズムを設計する。
ラウンド化アルゴリズムでは,d/a/e設計の結果にマッチし,改善するための統一ランダム化交換アルゴリズムを提供する。
さらに、このアルゴリズムはより一般的な設定で複数のナップサック制約を概ね満たし、重み付け実験設計やフェアネス制約を実験設計に組み込むために使用できる。 We present a local search framework to design and analyze both combinatorial algorithms and rounding algorithms for experimental design problems. This framework provides a unifying approach to match and improve all known results in D/A/E-design and to obtain new results in previously unknown settings. For combinatorial algorithms, we provide a new analysis of the classical Fedorov's exchange method. We prove that this simple local search algorithm works well as long as there exists an almost optimal solution with good condition number. Moreover, we design a new combinatorial local search algorithm for E-design using the regret minimization framework. For rounding algorithms, we provide a unified randomized exchange algorithm to match and improve previous results for D/A/E-design. Furthermore, the algorithm works in the more general setting to approximately satisfy multiple knapsack constraints, which can be used for weighted experimental design and for incorporating fairness constraints into experimental design. | 翻訳日:2022-10-01 22:35:39 公開日:2020-12-18 |
# 直接学習された大きなスパイクニューラルネットワークでさらに深まる Going Deeper With Directly-Trained Larger Spiking Neural Networks ( http://arxiv.org/abs/2011.05280v2 ) ライセンス: Link先を確認 | Hanle Zheng, Yujie Wu, Lei Deng, Yifan Hu and Guoqi Li | (参考訳) スパイキングニューラルネットワーク(SNN)は、時空間情報とイベント駆動の信号処理のためのバイオプレースブルコーディングにおいて有望であり、ニューロモルフィックハードウェアにおけるエネルギー効率のよい実装に非常に適している。
しかし、SNNのユニークな動作モードにより、従来のネットワークよりもトレーニングが困難になる。
現在、高い性能で深層SNNの訓練を行うための2つの主要なルートがある。
まず、事前訓練されたannモデルをsnnバージョンに変換する。これは通常、収束のために長いコーディングウィンドウが必要であり、時間的タスクを解決するためのトレーニング中に時空間的特徴を活用できない。
もう1つは、時空間領域でSNNを直接訓練することである。
しかし、発火関数のバイナリスパイク活動と勾配消滅や爆発の問題により、現在の手法は浅いアーキテクチャに限定され、大規模なデータセット(イメージネットなど)を利用するのが困難である。
そこで本研究では,STBP-tdBNと呼ばれる新たな時空間バックプロパゲーションに基づく閾値依存型バッチ正規化(tdBN)手法を提案する。
提案手法と細かなショートカット接続により,浅い構造(<10層)から非常に深い構造(50層)まで,直接学習したSNNを著しく拡張する。
さらに,本手法の有効性を「ブロック力学等尺法」理論に基づいて理論的に解析した。
最後に,cifar-10では93.15 %,dvs-cifar10では67.8 %,imagenetでは67.05%であった。
私たちの知る限り、ImageNet上で直接訓練されたディープSNNをハイパフォーマンスで探索するのは初めてです。 Spiking neural networks (SNNs) are promising in a bio-plausible coding for spatio-temporal information and event-driven signal processing, which is very suited for energy-efficient implementation in neuromorphic hardware. However, the unique working mode of SNNs makes them more difficult to train than traditional networks. Currently, there are two main routes to explore the training of deep SNNs with high performance. The first is to convert a pre-trained ANN model to its SNN version, which usually requires a long coding window for convergence and cannot exploit the spatio-temporal features during training for solving temporal tasks. The other is to directly train SNNs in the spatio-temporal domain. But due to the binary spike activity of the firing function and the problem of gradient vanishing or explosion, current methods are restricted to shallow architectures and thereby difficult in harnessing large-scale datasets (e.g. ImageNet). To this end, we propose a threshold-dependent batch normalization (tdBN) method based on the emerging spatio-temporal backpropagation, termed "STBP-tdBN", enabling direct training of a very deep SNN and the efficient implementation of its inference on neuromorphic hardware. With the proposed method and elaborated shortcut connection, we significantly extend directly-trained SNNs from a shallow structure ( < 10 layer) to a very deep structure (50 layers). Furthermore, we theoretically analyze the effectiveness of our method based on "Block Dynamical Isometry" theory. Finally, we report superior accuracy results including 93.15 % on CIFAR-10, 67.8 % on DVS-CIFAR10, and 67.05% on ImageNet with very few timesteps. To our best knowledge, it's the first time to explore the directly-trained deep SNNs with high performance on ImageNet. | 翻訳日:2022-10-01 22:01:17 公開日:2020-12-18 |
# 説明可能な人工知能における質的研究--社会科学からの洞察 Qualitative Investigation in Explainable Artificial Intelligence: A Bit More Insight from Social Science ( http://arxiv.org/abs/2011.07130v2 ) ライセンス: Link先を確認 | Adam J. Johs, Denise E. Agosto, Rosina O. Weber | (参考訳) 本稿では,定性的調査を伴う説明可能な人工知能(XAI)におけるユーザ研究の焦点を絞った分析を行う。
我々は、XAI研究者が観察、インタビュー、フォーカスグループ、および/またはアンケートを用いて質的なデータを収集する研究の厳密さを改善する方法を提案する。
我々は, 質的研究文献に記載された厳密な構成要素に従って, 分析に含まれるxai論文の提示を文脈化する。
1)基礎となる理論または枠組み
2)方法論的アプローチ
3)データ収集方法、及び
4) データ分析プロセス。
分析の結果は,XAIコミュニティの他者から,社会規律の専門家とのコラボレーションを提唱し,ユーザスタディにおける厳格さと有効性を高めている。 We present a focused analysis of user studies in explainable artificial intelligence (XAI) entailing qualitative investigation. We draw on social science corpora to suggest ways for improving the rigor of studies where XAI researchers use observations, interviews, focus groups, and/or questionnaires to capture qualitative data. We contextualize the presentation of the XAI papers included in our analysis according to the components of rigor described in the qualitative research literature: 1) underlying theories or frameworks, 2) methodological approaches, 3) data collection methods, and 4) data analysis processes. The results of our analysis support calls from others in the XAI community advocating for collaboration with experts from social disciplines to bolster rigor and effectiveness in user studies. | 翻訳日:2022-09-26 00:29:11 公開日:2020-12-18 |
# 強化学習による粒子物理学の階層的クラスタリング Hierarchical clustering in particle physics through reinforcement learning ( http://arxiv.org/abs/2011.08191v2 ) ライセンス: Link先を確認 | Johann Brehmer, Sebastian Macaluso, Duccio Pappadopulo, Kyle Cranmer | (参考訳) 粒子物理学の実験は、しばしば観測された最終状態粒子の階層的クラスタリングを通して崩壊パターンの再構築を必要とする。
このタスクをマルコフ決定プロセスとして表現し,強化学習アルゴリズムを適用して解くことができることを示す。
特に,ニューラルポリシーに導かれるモンテカルロ木探索は,高品質な階層的クラスタリングを構築し,確立された欲望およびビーム探索ベースラインを上回ることができることを示す。 Particle physics experiments often require the reconstruction of decay patterns through a hierarchical clustering of the observed final-state particles. We show that this task can be phrased as a Markov Decision Process and adapt reinforcement learning algorithms to solve it. In particular, we show that Monte-Carlo Tree Search guided by a neural policy can construct high-quality hierarchical clusterings and outperform established greedy and beam search baselines. | 翻訳日:2022-09-24 23:58:50 公開日:2020-12-18 |
# AGenT Zero: スキルアセスメントのためのゼロショット自動多項目質問生成 AGenT Zero: Zero-shot Automatic Multiple-Choice Question Generation for Skill Assessments ( http://arxiv.org/abs/2012.01186v2 ) ライセンス: Link先を確認 | Eric Li, Jingyi Su, Hao Sheng, Lawrence Wai | (参考訳) マルチチョイス質問(英語版)(mcqs)は、仮想教育と求人の時代に最も有望なスキル評価手段であり、プロジェクトやエッセイのような伝統的なパフォーマンスベースの代替案は実現不可能となり、採点資源は制限されている。
MCQの自動生成は、大規模な評価作成を可能にする。
自然言語処理の最近の進歩は、多くの複雑な質問生成手法を生み出している。
しかし、特定のドメインにデプロイ可能な結果を生成する数少ない方法は、取得に非常にコストがかかるドメイン固有のトレーニングデータを必要とする。
我々の研究は、質問コンテキスト(タスクと比較)を戦略的に強調することにより、高データ取得コストシナリオ下でのMCQ生成の初期段階を提供する。
質問応答ペア間のセマンティックな類似性を維持することに加えて、AGenT Zeroと呼ばれるパイプラインは、事前訓練されたモデルのみで構成され、質問生成のためのデータ取得コストを最小限に抑えながら微調整を必要としない。
AGenT Zeroは、他のトレーニング済みメソッドよりも、流布やセマンティックな類似性が優れている。
さらに、いくつかの小さな変更によって、私たちのアセスメントパイプラインは、短い回答や空白の質問の埋め合わせを含む、より広範な質問と回答空間に一般化できます。 Multiple-choice questions (MCQs) offer the most promising avenue for skill evaluation in the era of virtual education and job recruiting, where traditional performance-based alternatives such as projects and essays have become less viable, and grading resources are constrained. The automated generation of MCQs would allow assessment creation at scale. Recent advances in natural language processing have given rise to many complex question generation methods. However, the few methods that produce deployable results in specific domains require a large amount of domain-specific training data that can be very costly to acquire. Our work provides an initial foray into MCQ generation under high data-acquisition cost scenarios by strategically emphasizing paraphrasing the question context (compared to the task). In addition to maintaining semantic similarity between the question-answer pairs, our pipeline, which we call AGenT Zero, consists of only pre-trained models and requires no fine-tuning, minimizing data acquisition costs for question generation. AGenT Zero successfully outperforms other pre-trained methods in fluency and semantic similarity. Additionally, with some small changes, our assessment pipeline can be generalized to a broader question and answer space, including short answer or fill in the blank questions. | 翻訳日:2022-09-21 01:45:43 公開日:2020-12-18 |
# (参考訳) 予測予測:多様性の問題 Forecast with Forecasts: Diversity Matters ( http://arxiv.org/abs/2012.01643v2 ) ライセンス: CC0 1.0 | Yanfei Kang, Wei Cao, Fotios Petropoulos, Feng Li | (参考訳) 過去数十年間、予測精度を向上させるために予測の組み合わせが広く適用されてきた。
近年,時系列特徴を用いた予測組み合わせモデルの構築が,予測領域で盛んに行われている。
このアイデアはm3やm4といったいくつかの予測競技で有益であることが証明されているが、多くの状況では実用的ではないかもしれない。
例えば、予測モデルを構築するための適切な機能を選択する作業は、多くの研究者にとって大きな課題となる。
特徴を定義する方法が1つあるとしても、現在ある特徴は、将来変化する運命にある歴史的パターンに基づいて推定されるか、あるいは、限られた歴史データの場合、実現不可能である。
本研究では,歴史的データから生成した予測へ焦点を移して特徴を抽出することを提案する。
対応する予測に基づいてモデルのプールの多様性を決定的な特徴として計算し、メタラーニングを用いて多様性に基づく予測の組み合わせモデルを構築する。
提案手法の性能を評価するために,時系列の豊富な組を用いる。
実験の結果,多様性に基づく予測組み合わせフレームワークはモデリングプロセスを単純化するだけでなく,予測性能も向上することがわかった。 Forecast combination has been widely applied in the last few decades to improve forecast accuracy. In recent years, the idea of using time series features to construct forecast combination model has flourished in the forecasting area. Although this idea has been proved to be beneficial in several forecast competitions such as the M3 and M4 competitions, it may not be practical in many situations. For example, the task of selecting appropriate features to build forecasting models can be a big challenge for many researchers. Even if there is one acceptable way to define the features, existing features are estimated based on the historical patterns, which are doomed to change in the future, or infeasible in the case of limited historical data. In this work, we suggest a change of focus from the historical data to the produced forecasts to extract features. We calculate the diversity of a pool of models based on the corresponding forecasts as a decisive feature and use meta-learning to construct diversity-based forecast combination models. A rich set of time series are used to evaluate the performance of the proposed method. Experimental results show that our diversity-based forecast combination framework not only simplifies the modelling process but also achieves superior forecasting performance. | 翻訳日:2021-05-24 04:00:19 公開日:2020-12-18 |
# (参考訳) 異常検出器の比較:文脈問題 Comparison of Anomaly Detectors: Context Matters ( http://arxiv.org/abs/2012.06260v2 ) ライセンス: CC BY 4.0 | V\'it \v{S}kv\'ara, Jan Franc\r{u}, Mat\v{e}j Zorek, Tom\'a\v{s} Pevn\'y, V\'aclav \v{S}m\'idl | (参考訳) 深部生成モデルは、現在、異常検出の分野で古典的な手法に挑戦している。
あらゆる新しい手法は前者より優れており、しばしば矛盾した結果をもたらす。
この比較の目的は、様々なパラダイムの異常検出方法の比較と、異なる結果をもたらす可能性のある変動源の同定である。
これらの手法は一般的な表や画像のデータセットと比較された。
1つのクラスサポートベクターマシン(oc-svm)は表型データセットに競合しないが、画像データの最良の結果は機能マッチングganか、実験条件に応じて変分オートエンコーダ(vae)とoc-svmの組み合わせによって得られた。
提案手法の性能に影響を及ぼす変数の主な要因は,探索されたハイパーパラメータの範囲,モデル選択の方法論,異常サンプルの選択である。
コードと結果はすべてダウンロード可能です。 Deep generative models are challenging the classical methods in the field of anomaly detection nowadays. Every new method provides evidence of outperforming its predecessors, often with contradictory results. The objective of this comparison is twofold: comparison of anomaly detection methods of various paradigms, and identification of sources of variability that can yield different results. The methods were compared on popular tabular and image datasets. While the one class support-vector machine (OC-SVM) had no rival on the tabular datasets, the best results on the image data were obtained either by a feature-matching GAN or a combination of variational autoencoder (VAE) and OC-SVM, depending on the experimental conditions. The main sources of variability that can influence the performance of the methods were identified to be: the range of searched hyper-parameters, the methodology of model selection, and the choice of the anomalous samples. All our code and results are available for download. | 翻訳日:2021-05-11 13:08:37 公開日:2020-12-18 |
# (参考訳) 動的分類器選択のためのコスト感受性階層クラスタリング Cost-sensitive Hierarchical Clustering for Dynamic Classifier Selection ( http://arxiv.org/abs/2012.09608v2 ) ライセンス: CC BY 4.0 | Meinolf Sellmann and Tapan Shah | (参考訳) 動的分類器選択(DCS)問題を考える: 分類器の集合が与えられた場合、分類する特定の入力ベクトルに応じてどの分類器を使うかを選択する。
この問題は、与えられた入力を処理するために使用できる複数の異なるアルゴリズムがある一般アルゴリズム選択問題の特別な場合である。
コストセンシティブな階層クラスタリング(CSHC)というアルゴリズム選択のための手法がDCSに適しているかを検討する。
分類アルゴリズムの選択に際し, CSHC法にいくつかの追加を加え, 性能への影響を評価する。
そして、いくつかの最先端動的分類器選択法と比較する。
実験の結果,修正cshcアルゴリズムは好ましく比較できることがわかった。 We consider the dynamic classifier selection (DCS) problem: Given an ensemble of classifiers, we are to choose which classifier to use depending on the particular input vector that we get to classify. The problem is a special case of the general algorithm selection problem where we have multiple different algorithms we can employ to process a given input. We investigate if a method developed for general algorithm selection named cost-sensitive hierarchical clustering (CSHC) is suited for DCS. We introduce some additions to the original CSHC method for the special case of choosing a classification algorithm and evaluate their impact on performance. We then compare with a number of state-of-the-art dynamic classifier selection methods. Our experimental results show that our modified CSHC algorithm compares favorably | 翻訳日:2021-05-08 19:44:11 公開日:2020-12-18 |
# (参考訳) ディープニューラルネットワークの大規模バッチ分散トレーニングのためのデータ最適化 Data optimization for large batch distributed training of deep neural networks ( http://arxiv.org/abs/2012.09272v2 ) ライセンス: CC BY 4.0 | Shubhankar Gahlot, Junqi Yin, Mallikarjun Shankar | (参考訳) ディープラーニング(DL)における分散トレーニングは、データやモデルの成長に伴って一般的に行われる。
ディープニューラルネットワークの分散トレーニングの現在のプラクティスは、大規模運用時の通信ボトルネックや、グローバルバッチサイズの増加によるモデルの精度低下といった課題に直面している。
現在のソリューションは、メッセージ交換効率の改善と、トレーニングプロセスにおけるバッチサイズとモデルを調整するテクニックの実装に焦点を当てています。
訓練精度の低下は、通常、損失関数が局所的なミニマに閉じ込められるため起こる。
モデルとトレーニングデータの両方でロスランドスケープ最小化が形成されることを観察し、ローカルミニマを少なくするロスランドスケープを暗黙的に滑らかにするために機械学習を利用するデータ最適化アプローチを提案する。
このアプローチでは、機能学習において重要でないデータポイントをフィルタリングし、より大きなバッチサイズでのモデルのトレーニングを高速化し、精度を向上させる。 Distributed training in deep learning (DL) is common practice as data and models grow. The current practice for distributed training of deep neural networks faces the challenges of communication bottlenecks when operating at scale, and model accuracy deterioration with an increase in global batch size. Present solutions focus on improving message exchange efficiency as well as implementing techniques to tweak batch sizes and models in the training process. The loss of training accuracy typically happens because the loss function gets trapped in a local minima. We observe that the loss landscape minimization is shaped by both the model and training data and propose a data optimization approach that utilizes machine learning to implicitly smooth out the loss landscape resulting in fewer local minima. Our approach filters out data points which are less important to feature learning, enabling us to speed up the training of models on larger batch sizes to improved accuracy. | 翻訳日:2021-05-03 06:09:46 公開日:2020-12-18 |
# 最善から学ぶ: 逆情報校正による合理化予測 Learning from the Best: Rationalizing Prediction by Adversarial Information Calibration ( http://arxiv.org/abs/2012.08884v2 ) ライセンス: Link先を確認 | Lei Sha, Oana-Maria Camburu, and Thomas Lukasiewicz | (参考訳) AIモデルの予測を説明することは、法律や医療分野など、安全クリティカルな応用において最重要である。
予測のための説明の1つの形式は、抽出的論理(extractive rationale)、すなわち、モデルがそのインスタンスにその予測を与えるように導くインスタンスの特徴のサブセットである。
前回の抽出的合理性の生成には、通常、最も重要な特徴(すなわち合理性)を選択するセレクタと、選択された特徴のみに基づいて予測を行う予測器という2相モデルを用いる。
これらの研究の欠点の1つは、機能を選択するための学習の主なシグナルは、予測者が与える答えと地対答えを比較することによるものである。
本研究では,情報キャリブレーション手法を用いて,予測者からの情報を絞り込む手法を提案する。
より正確には、2つのモデルを共同でトレーニングする。1つは手前のタスクを正確だがブラックボックスな方法で解く典型的なニューラルモデルであり、もう1つはセレクタ予測モデルであり、予測の根拠も生み出す。
第1モデルは第2モデルのガイドとして使用される。
我々は,2つのモデルから抽出した情報を,その差分が欠落あるいは過剰選択された特徴の指標となるように校正するために,逆数に基づく手法を用いる。
また,自然言語のタスクに対しては,言語モデルに基づく正規化手法を用いて,有理数抽出を促進することを提案する。
法的領域からの感情分析課題と3つの課題に関する実験結果から,抽出の合理化へのアプローチの有効性が示された。 Explaining the predictions of AI models is paramount in safety-critical applications, such as in legal or medical domains. One form of explanation for a prediction is an extractive rationale, i.e., a subset of features of an instance that lead the model to give its prediction on the instance. Previous works on generating extractive rationales usually employ a two-phase model: a selector that selects the most important features (i.e., the rationale) followed by a predictor that makes the prediction based exclusively on the selected features. One disadvantage of these works is that the main signal for learning to select features comes from the comparison of the answers given by the predictor and the ground-truth answers. In this work, we propose to squeeze more information from the predictor via an information calibration method. More precisely, we train two models jointly: one is a typical neural model that solves the task at hand in an accurate but black-box manner, and the other is a selector-predictor model that additionally produces a rationale for its prediction. The first model is used as a guide to the second model. We use an adversarial-based technique to calibrate the information extracted by the two models such that the difference between them is an indicator of the missed or over-selected features. In addition, for natural language tasks, we propose to use a language-model-based regularizer to encourage the extraction of fluent rationales. Experimental results on a sentiment analysis task as well as on three tasks from the legal domain show the effectiveness of our approach to rationale extraction. | 翻訳日:2021-05-03 03:13:33 公開日:2020-12-18 |
# (参考訳) 深層強化学習による中国の最適地域暖房温度制御に向けて Towards Optimal District Heating Temperature Control in China with Deep Reinforcement Learning ( http://arxiv.org/abs/2012.09508v2 ) ライセンス: CC BY 4.0 | Adrien Le-Coz, Tahar Nabil, Francois Courtot | (参考訳) 中国の地域熱ネットワークの効率向上を実現し、炭素排出量を減らすためには、現在の産業用ツールを超えた新しい最適制御方法が必要である。
そこで本研究では,二次ネットワークに着目し,データ駆動型深層強化学習(drl)手法を提案する。
室内温度を予測するために,シミュレーションデータに基づくリカレントニューラルネットワークを構築した。
このモデルは、供給水温の最適制御のために、2つのDRLエージェントを専門家の指導なしに訓練するために使用される。
マルチアパートメント設定で行ったテストでは, 両エージェントが高熱的快適性を確保でき, 同時に, 最適化されたベースライン戦略と比較してエネルギーコストを低減できることがわかった。 Achieving efficiency gains in Chinese district heating networks, thereby reducing their carbon footprint, requires new optimal control methods going beyond current industry tools. Focusing on the secondary network, we propose a data-driven deep reinforcement learning (DRL) approach to address this task. We build a recurrent neural network, trained on simulated data, to predict the indoor temperatures. This model is then used to train two DRL agents, with or without expert guidance, for the optimal control of the supply water temperature. Our tests in a multi-apartment setting show that both agents can ensure a higher thermal comfort and at the same time a smaller energy cost, compared to an optimized baseline strategy. | 翻訳日:2021-05-02 18:18:56 公開日:2020-12-18 |
# (参考訳) RainNet: 空間沈降ダウンスケーリングのための大規模データセット RainNet: A Large-Scale Dataset for Spatial Precipitation Downscaling ( http://arxiv.org/abs/2012.09700v2 ) ライセンス: CC BY 4.0 | Xuanhong Chen, Kairui Feng, Naiyuan Liu, Yifan Lu, Zhengyan Tong, Bingbing Ni, Ziang Liu, Ning Lin | (参考訳) 空間沈降ダウンスケーリングは地球科学コミュニティで最も重要な問題の一つである。
しかし、現在も未解決のままである。
ディープラーニングは、ダウンスケールのための有望なソリューションです。
深層学習のための降水ダウンスケーリングの研究を容易にするため,約17年間,62,424組の低分解能降水マップと高分解能降水マップを含む,初の大規模降水ダウンスケーリングデータセットであるRainNetを提示する。
シミュレーションデータとは対照的に、実際のデータセットは様々な種類の気象現象(ハリケーン、スカルなど)をカバーしている。
そして、ダウンスケーリングアルゴリズムに挑戦する物理的文字(時間的不一致、時間的スパース、流体的特性)を示します。
潜在的なダウンスケーリングソリューションを十分に検討するために,上記の特徴を学習するための暗黙的物理的推定フレームワークを提案する。
データセットの物理的特性を特に考慮した8つの指標が上げられ、提案データセット上で14のモデルが評価される。
最後に,降水ダウンスケーリングタスクにおけるモデルの有効性と実現可能性について分析する。
DatasetとCodeはhttps://neuralchen.github.io/RainNet/.comで入手できる。 Spatial Precipitation Downscaling is one of the most important problems in the geo-science community. However, it still remains an unaddressed issue. Deep learning is a promising potential solution for downscaling. In order to facilitate the research on precipitation downscaling for deep learning, we present the first REAL (non-simulated) Large-Scale Spatial Precipitation Downscaling Dataset, RainNet, which contains 62,424 pairs of low-resolution and high-resolution precipitation maps for 17 years. Contrary to simulated data, this real dataset covers various types of real meteorological phenomena (e.g., Hurricane, Squall, etc.), and shows the physical characters - Temporal Misalignment, Temporal Sparse and Fluid Properties - that challenge the downscaling algorithms. In order to fully explore potential downscaling solutions, we propose an implicit physical estimation framework to learn the above characteristics. Eight metrics specifically considering the physical property of the data set are raised, while fourteen models are evaluated on the proposed dataset. Finally, we analyze the effectiveness and feasibility of these models on precipitation downscaling task. The Dataset and Code will be available at https://neuralchen.github.io/RainNet/. | 翻訳日:2021-05-02 15:36:27 公開日:2020-12-18 |
# (参考訳) イメージベースジェット解析 Image-Based Jet Analysis ( http://arxiv.org/abs/2012.09719v2 ) ライセンス: CC BY 4.0 | Michael Kagan | (参考訳) 画像に基づくジェット解析は、高エネルギー物理学とコンピュータビジョンとディープラーニングの分野との直接接続を可能にするジェットのジェット画像表現に基づいている。
この接続を通じて、様々な新しいジェット解析技術が出現した。
本稿では,主に畳み込みニューラルネットワークを用いて構築されたジェット画像に基づく分類モデルを調査し,これらのモデルが何を学んだのか,不確実性に敏感であるかを理解するための手法を検討するとともに,これらのモデルが現象学的研究からLHC実験への現実的応用へ移行した最近の成果を概観する。
ジェット分類以外にも,エネルギ推定,積算雑音低減,データ生成,異常検出など,ジェット画像に基づく手法の応用についても論じている。 Image-based jet analysis is built upon the jet image representation of jets that enables a direct connection between high energy physics and the fields of computer vision and deep learning. Through this connection, a wide array of new jet analysis techniques have emerged. In this text, we survey jet image based classification models, built primarily on the use of convolutional neural networks, examine the methods to understand what these models have learned and what is their sensitivity to uncertainties, and review the recent successes in moving these models from phenomenological studies to real world application on experiments at the LHC. Beyond jet classification, several other applications of jet image based techniques, including energy estimation, pileup noise reduction, data generation, and anomaly detection, are discussed. | 翻訳日:2021-05-02 14:31:38 公開日:2020-12-18 |
# (参考訳) 無限の自然: 単一画像からの自然シーンの永遠の視点生成 Infinite Nature: Perpetual View Generation of Natural Scenes from a Single Image ( http://arxiv.org/abs/2012.09855v2 ) ライセンス: CC0 1.0 | Andrew Liu, Richard Tucker, Varun Jampani, Ameesh Makadia, Noah Snavely, Angjoo Kanazawa | (参考訳) 一つの画像が与えられた任意の長さのカメラ軌跡に対応する新しいビューの長距離生成という、永続的なビュー生成の問題を紹介する。
これは、限られた範囲の視点で動作し、大きなカメラの動きで提示されるとすぐに縮退する現在のビュー合成手法の能力をはるかに超える、難しい問題である。
ビデオ生成用に設計された手法は、長いビデオシーケンスを生成する能力に制限があり、しばしばシーン幾何学に依存しない。
私たちは、幾何と画像合成の両方を反復レンダリング、洗練、反復フレームワークに統合するハイブリッドアプローチを採用し、数百フレームの後に大きな距離をカバーする長距離生成を可能にします。
提案手法は,手動のアノテーションを使わずに,一眼レフビデオシーケンスの集合から訓練することができる。
提案手法は,近年の景観合成と条件付き映像生成ベースラインとを比較し,既存の手法と比較して,大規模なカメラ軌道上におけるより長い時間的地平線を撮影できることを示す。
プロジェクトのページはhttps://infinite-nature.github.io/。 We introduce the problem of perpetual view generation -- long-range generation of novel views corresponding to an arbitrarily long camera trajectory given a single image. This is a challenging problem that goes far beyond the capabilities of current view synthesis methods, which work for a limited range of viewpoints and quickly degenerate when presented with a large camera motion. Methods designed for video generation also have limited ability to produce long video sequences and are often agnostic to scene geometry. We take a hybrid approach that integrates both geometry and image synthesis in an iterative render, refine, and repeat framework, allowing for long-range generation that cover large distances after hundreds of frames. Our approach can be trained from a set of monocular video sequences without any manual annotation. We propose a dataset of aerial footage of natural coastal scenes, and compare our method with recent view synthesis and conditional video generation baselines, showing that it can generate plausible scenes for much longer time horizons over large camera trajectories compared to existing methods. Please visit our project page at https://infinite-nature.github.io/. | 翻訳日:2021-05-02 11:20:21 公開日:2020-12-18 |
# ディープセマンティックハッシュによる検索型チャットボットの超高速, 低ストレージ, 高効率粗粒選択 Ultra-Fast, Low-Storage, Highly Effective Coarse-grained Selection in Retrieval-based Chatbot by Using Deep Semantic Hashing ( http://arxiv.org/abs/2012.09647v2 ) ライセンス: Link先を確認 | Tian Lan, Xian-Ling Mao, Xiaoyan Gao, Wei Wei, Heyan Huang | (参考訳) 検索型チャットボットにおける粗粒度選択モジュールについて検討する。
粗粒度選択は検索ベースのチャットボットの基本モジュールであり、データベース全体から粗い候補セットを構築し、顧客との対話を高速化する。
これまでのところ, 粗粒度選択モジュールには(1) スパース表現, (2) 密表現という2種類のアプローチがある。
我々の知る限りでは、検索ベースのチャットボットにおけるこれらの2つのアプローチの体系的な比較は行われず、実際のシナリオにおいてどの手法が優れているかは、まだ未解決の問題である。
本稿では,まずこれらの2つの手法を,(1)有効性,(2)指標ストージ,(3)探索時間コスト,(4)人的評価の4つの側面から体系的に比較する。
広範な実験の結果、密表現法はスパース表現を大きく上回るが、時間とストレージの占有が増大することが示された。
密度表現法の致命的な弱点を克服するために,DSHCモデルと呼ばれる超高速,低ストレージ,高効率なディープセマンティックハッシュ粗粒化法を提案する。
具体的には,提案するDSHCモデルにおいて,2つのオートエンコーダモデルからなるハッシュ最適化モジュールを訓練された高密度表現モデル上に積み重ね,その最適化のために3つの損失関数を設計する。
ハッシュ最適化モジュールによって提供されるハッシュコードは、密閉ベクトル内の豊富な意味と類似性情報を効果的に保存する。
その結果,提案したDSHCモデルは疎表現よりもはるかに高速かつ低ストレージ化が可能であり,高密度表現と比較して性能損失は限定的であることがわかった。
さらに、将来の研究のためにソースコードが公開されています。 We study the coarse-grained selection module in retrieval-based chatbot. Coarse-grained selection is a basic module in a retrieval-based chatbot, which constructs a rough candidate set from the whole database to speed up the interaction with customers. So far, there are two kinds of approaches for coarse-grained selection module: (1) sparse representation; (2) dense representation. To the best of our knowledge, there is no systematic comparison between these two approaches in retrieval-based chatbots, and which kind of method is better in real scenarios is still an open question. In this paper, we first systematically compare these two methods from four aspects: (1) effectiveness; (2) index stoarge; (3) search time cost; (4) human evaluation. Extensive experiment results demonstrate that dense representation method significantly outperforms the sparse representation, but costs more time and storage occupation. In order to overcome these fatal weaknesses of dense representation method, we propose an ultra-fast, low-storage, and highly effective Deep Semantic Hashing Coarse-grained selection method, called DSHC model. Specifically, in our proposed DSHC model, a hashing optimizing module that consists of two autoencoder models is stacked on a trained dense representation model, and three loss functions are designed to optimize it. The hash codes provided by hashing optimizing module effectively preserve the rich semantic and similarity information in dense vectors. Extensive experiment results prove that, our proposed DSHC model can achieve much faster speed and lower storage than sparse representation, with limited performance loss compared with dense representation. Besides, our source codes have been publicly released for future research. | 翻訳日:2021-05-02 07:30:43 公開日:2020-12-18 |
# ソフトメルローマックス演算子によるq学習の安定化 Stabilizing Q Learning Via Soft Mellowmax Operator ( http://arxiv.org/abs/2012.09456v2 ) ライセンス: Link先を確認 | Yaozhong Gan, Zhe Zhang, Xiaoyang Tan | (参考訳) 関数近似による高次元状態空間における複雑な値関数の学習は、時間差分更新に使用される最大演算子が、ほとんどの線形あるいは非線形近似スキームの不安定性を理論的に引き起こすため、難しい作業である。
mellowmaxは、最近提案された微分可能かつ非拡張ソフトマックス演算子であり、学習と計画において収束的な振る舞いを可能にする。
残念なことに、不動点に収束する性能は未だ不明であり、実際にはパラメータは様々な領域に敏感であり、ケースごとに調整されなければならない。
最後に、Mellowmax演算子は、アグリゲーション時に各アクションに対して取られる確率を無視するため、過度なスムーシングに悩まされることがある。
本稿では,SM2(Soft Mellowmax)と呼ばれる拡張Mellowmax演算子を用いて,上記の問題に対処する。
特に,提案した演算子は信頼性が高く,実装が容易で,Mellowmaxのすべての利点を保ちながら,保証可能な性能保証を備えている。
さらに, SM2演算子を多エージェント強化学習シナリオに適用することにより, 安定な値関数近似と技術性能の状態を実現できることを示す。 Learning complicated value functions in high dimensional state space by function approximation is a challenging task, partially due to that the max-operator used in temporal difference updates can theoretically cause instability for most linear or non-linear approximation schemes. Mellowmax is a recently proposed differentiable and non-expansion softmax operator that allows a convergent behavior in learning and planning. Unfortunately, the performance bound for the fixed point it converges to remains unclear, and in practice, its parameter is sensitive to various domains and has to be tuned case by case. Finally, the Mellowmax operator may suffer from oversmoothing as it ignores the probability being taken for each action when aggregating them. In this paper, we address all the above issues with an enhanced Mellowmax operator, named SM2 (Soft Mellowmax). Particularly, the proposed operator is reliable, easy to implement, and has provable performance guarantee, while preserving all the advantages of Mellowmax. Furthermore, we show that our SM2 operator can be applied to the challenging multi-agent reinforcement learning scenarios, leading to stable value function approximation and state of the art performance. | 翻訳日:2021-05-02 07:20:23 公開日:2020-12-18 |
# 学習と共有:画像特徴学習のためのマルチタスク遺伝的プログラミングアプローチ Learning and Sharing: A Multitask Genetic Programming Approach to Image Feature Learning ( http://arxiv.org/abs/2012.09444v2 ) ライセンス: Link先を確認 | Ying Bi, Bing Xue, and Mengjie Zhang | (参考訳) 進化的計算アルゴリズムを使って知識共有で複数のタスクを解くことは有望なアプローチである。
画像特徴学習は、異なるタスクが同様の特徴空間を持つ可能性があるため、マルチタスク問題とみなすことができる。
遺伝的プログラミング(GP)は分類のための画像特徴学習に成功している。
しかし、既存のGP手法のほとんどは、十分なトレーニングデータを用いて独立して1つのタスクを解く。
画像特徴学習のためのマルチタスクgp手法は開発されていない。
そこで本稿では,限られた学習データを用いた画像特徴学習のためのマルチタスクGP手法を提案する。
GPの柔軟な表現により、GPが2つのタスク間で何を共有すべきかを自動的に学習し、学習性能を向上させるために、新しい個別表現に基づく知識共有機構が開発された。
共有知識は共通木としてコード化され、2つのタスクの共通/一般的な特徴を表現することができる。
新しい個別表現では、共通木とタスク固有の特徴を表すタスク固有木から抽出した特徴を用いて各タスクを解く。
最も一般的な、タスク固有の木を学ぶために、新しい進化過程と新しいフィットネス機能を開発した。
提案手法の性能を,訓練データに制限のある12の画像分類データセットの6つのマルチタスク問題に対して検討し,3つのGPと14の非GPベースの競合手法と比較した。
実験の結果, この手法は, ほぼすべての比較において, 比較手法よりも優れていることがわかった。
さらなる分析により、新しいアプローチは単純だが効果的な共通木を高い有効性と伝達性で学習することが明らかとなった。 Using evolutionary computation algorithms to solve multiple tasks with knowledge sharing is a promising approach. Image feature learning can be considered as a multitask problem because different tasks may have a similar feature space. Genetic programming (GP) has been successfully applied to image feature learning for classification. However, most of the existing GP methods solve one task, independently, using sufficient training data. No multitask GP method has been developed for image feature learning. Therefore, this paper develops a multitask GP approach to image feature learning for classification with limited training data. Owing to the flexible representation of GP, a new knowledge sharing mechanism based on a new individual representation is developed to allow GP to automatically learn what to share across two tasks and to improve its learning performance. The shared knowledge is encoded as a common tree, which can represent the common/general features of two tasks. With the new individual representation, each task is solved using the features extracted from a common tree and a task-specific tree representing task-specific features. To learn the best common and task-specific trees, a new evolutionary process and new fitness functions are developed. The performance of the proposed approach is examined on six multitask problems of 12 image classification datasets with limited training data and compared with three GP and 14 non-GP-based competitive methods. Experimental results show that the new approach outperforms these compared methods in almost all the comparisons. Further analysis reveals that the new approach learns simple yet effective common trees with high effectiveness and transferability. | 翻訳日:2021-05-02 07:17:37 公開日:2020-12-18 |
# (参考訳) PINN深層学習を用いた脱落型NLS方程式におけるデータ駆動ローグ波とパラメータ発見 Data-driven rogue waves and parameter discovery in the defocusing NLS equation with a potential using the PINN deep learning ( http://arxiv.org/abs/2012.09984v1 ) ライセンス: CC BY 4.0 | Li Wang, Zhenya Yan | (参考訳) 物理インフォームドニューラルネットワーク(PINN)は非線形偏微分方程式やその他の物理モデルの深層学習に利用できる。
本稿では,多層PINN深層学習法を用いて,ログ波,ヤコビ楕円コサイン関数,2-ガウス関数,3-双曲型セカント関数,周期境界条件などの初期条件を考慮し,時間依存ポテンシャルを持つ非線形Schr\"odinger(NLS)方程式のデータ駆動型ローグ波解について検討する。
さらに, 多層PINNアルゴリズムは, ローグ波解の知覚の下で, 時間依存ポテンシャルを持つ除染NLS方程式のパラメータを学習するためにも利用できる。
これらの結果は, 深層学習ニューラルネットワークの研究において, 脱着型NLS方程式のローグ波解について検討する上で有用である。 The physics-informed neural networks (PINNs) can be used to deep learn the nonlinear partial differential equations and other types of physical models. In this paper, we use the multi-layer PINN deep learning method to study the data-driven rogue wave solutions of the defocusing nonlinear Schr\"odinger (NLS) equation with the time-dependent potential by considering several initial conditions such as the rogue wave, Jacobi elliptic cosine function, two-Gaussian function, or three-hyperbolic-secant function, and periodic boundary conditions. Moreover, the multi-layer PINN algorithm can also be used to learn the parameter in the defocusing NLS equation with the time-dependent potential under the sense of the rogue wave solution. These results will be useful to further discuss the rogue wave solutions of the defocusing NLS equation with a potential in the study of deep learning neural networks. | 翻訳日:2021-05-02 05:33:41 公開日:2020-12-18 |
# (参考訳) objectron: ポーズアノテーション付きオブジェクト中心のビデオの大規模データセット Objectron: A Large Scale Dataset of Object-Centric Videos in the Wild with Pose Annotations ( http://arxiv.org/abs/2012.09988v1 ) ライセンス: CC BY 4.0 | Adel Ahmadyan, Liangkai Zhang, Jianing Wei, Artsiom Ablavatski, Matthias Grundmann | (参考訳) ロボット工学、拡張現実、自律性、画像検索など多くの応用により、近年3Dオブジェクト検出が普及している。
本研究では,3次元物体検出における最先端技術であるobjectronデータセットを導入し,3次元物体追跡,ビュー合成,改良された3次元形状表現など,新たな研究と応用を展開する。
データセットには9つのカテゴリの注記付きオブジェクト中心のショートビデオが含まれており、14,819の注釈付きビデオに400万の注釈付き画像が含まれている。
また, 3次元物体検出のための新しい評価指標である3次元交叉法を提案する。
このデータセットでトレーニングされたベースラインモデルを提供することで、3次元オブジェクト検出タスクにおけるデータセットの有用性を示す。
私たちのデータセットと評価ソースコードはhttp://www.objectron.dev.comで公開されている。 3D object detection has recently become popular due to many applications in robotics, augmented reality, autonomy, and image retrieval. We introduce the Objectron dataset to advance the state of the art in 3D object detection and foster new research and applications, such as 3D object tracking, view synthesis, and improved 3D shape representation. The dataset contains object-centric short videos with pose annotations for nine categories and includes 4 million annotated images in 14,819 annotated videos. We also propose a new evaluation metric, 3D Intersection over Union, for 3D object detection. We demonstrate the usefulness of our dataset in 3D object detection tasks by providing baseline models trained on this dataset. Our dataset and evaluation source code are available online at http://www.objectron.dev | 翻訳日:2021-05-02 05:18:51 公開日:2020-12-18 |
# (参考訳) ソーシャルメディアにおけるテキスト属性を用いたソーシャルPOI境界推定手法の改良 An Improved Approach for Estimating Social POI Boundaries With Textual Attributes on Social Media ( http://arxiv.org/abs/2012.09990v1 ) ライセンス: CC BY 4.0 | Cong Tran, Dung D. Vu, Won-Yong Shin | (参考訳) ソーシャルメディア上でのテキスト属性を利用して、密度に基づくクラスタリングを行う方法については不十分である。
本稿では,凸多角形として形成される社会的な関心点境界(POI)の発見を目指す。
より具体的には、社会POI境界推定(SoBEst)に関する以前の研究に基づいて、新しいアプローチとアルゴリズムを提案する。
このSoBEstアプローチは、テキストフィールドにPOI名またはそのバリエーションを含む地理的領域内の関連レコードと無関係レコードの両方を考慮に入れている。
SoBEstが基本的に想定している各POIの固定された代表座標は、特定のPOIに対して推定された社会的POI境界の遠心点から遠く離れている可能性がある。
したがって、そのような場合、SoBEstを使用すると境界推定品質(BEQ)が不満足な結果になる可能性があり、これは$F$-measureの関数として表される。
この問題を解決するために、円の半径とPOIの代表座標$c$を同時に求める共同最適化問題を、$c$を更新することで定式化する。
その後、いくつかのPOIに対して高いBEQを実現できる反復型SoBEst(I-SoBEst)アルゴリズムを設計する。
提案したI-SoBEstアルゴリズムの計算複雑性はレコード数と線形にスケールすることが示されている。
元のSoBEstを含む競合クラスタリング手法よりもアルゴリズムの方が優れていることを示す。 It has been insufficiently explored how to perform density-based clustering by exploiting textual attributes on social media. In this paper, we aim at discovering a social point-of-interest (POI) boundary, formed as a convex polygon. More specifically, we present a new approach and algorithm, built upon our earlier work on social POI boundary estimation (SoBEst). This SoBEst approach takes into account both relevant and irrelevant records within a geographic area, where relevant records contain a POI name or its variations in their text field. Our study is motivated by the following empirical observation: a fixed representative coordinate of each POI that SoBEst basically assumes may be far away from the centroid of the estimated social POI boundary for certain POIs. Thus, using SoBEst in such cases may possibly result in unsatisfactory performance on the boundary estimation quality (BEQ), which is expressed as a function of the $F$-measure. To solve this problem, we formulate a joint optimization problem of simultaneously finding the radius of a circle and the POI's representative coordinate $c$ by allowing to update $c$. Subsequently, we design an iterative SoBEst (I-SoBEst) algorithm, which enables us to achieve a higher degree of BEQ for some POIs. The computational complexity of the proposed I-SoBEst algorithm is shown to scale linearly with the number of records. We demonstrate the superiority of our algorithm over competing clustering methods including the original SoBEst. | 翻訳日:2021-05-02 05:05:59 公開日:2020-12-18 |
# (参考訳) 車両シークエンシング問題の事例空間解析 Instance Space Analysis for the Car Sequencing Problem ( http://arxiv.org/abs/2012.10053v1 ) ライセンス: CC BY 4.0 | Yuan Sun, Samuel Esler, Dhananjay Thiruvady, Andreas T. Ernst, Xiaodong Li and Kerri Morgan | (参考訳) 本稿では,カーシークエンシング問題における重要な研究課題,すなわち,どの特徴がインスタンスの解決を困難にしているのかを検討する。
そこで本研究では,問題特徴のベクトルを抽出してインスタンスを特徴付け,特徴ベクトルを主成分分析を用いて2次元空間に投影することにより,カーシークエンシング問題に対するインスタンス空間解析を行う。
結果として得られた2次元の可視化は、テストに使用されるインスタンスの特性と、これらが異なる最適化アルゴリズムにどのように影響するかを比較するための洞察を提供する。
これにより、さまざまなインスタンスプロパティを持つ新しいベンチマークインスタンスのセットを構築するのに役立ちます。
これらは以前のベンチマークよりも多様であることが示されており、解決の難しいインスタンスが多数含まれている。
カーシークエンシング問題を解くための6つのアルゴリズムの性能を系統的に比較する。
テストされた手法には、文献からの既存の3つのアルゴリズムと、3つの新しいアルゴリズムが含まれる。
重要なのは、アルゴリズムがうまく機能すると思われるインスタンス空間のニッチを特定するために、機械学習モデルを構築することです。
その結果,新しいアルゴリズムは最先端であることがわかった。
この分析は、問題の難易度を理解し、与えられたカーシーケンシング問題のインスタンスを解決する適切なアルゴリズムを選択するのに役立つ。 In this paper, we investigate an important research question in the car sequencing problem, that is, what characteristics make an instance hard to solve? To do so, we carry out an Instance Space Analysis for the car sequencing problem, by extracting a vector of problem features to characterize an instance and projecting feature vectors onto a two-dimensional space using principal component analysis. The resulting two dimensional visualizations provide insights into both the characteristics of the instances used for testing and to compare how these affect different optimisation algorithms. This guides us in constructing a new set of benchmark instances with a range of instance properties. These are shown to be both more diverse than the previous benchmarks and include many hard to solve instances. We systematically compare the performance of six algorithms for solving the car sequencing problem. The methods tested include three existing algorithms from the literature and three new ones. Importantly, we build machine learning models to identify the niche in the instance space that an algorithm is expected to perform well on. Our results show that the new algorithms are state-of-the-art. This analysis helps to understand problem hardness and select an appropriate algorithm for solving a given car sequencing problem instance. | 翻訳日:2021-05-02 04:05:21 公開日:2020-12-18 |
# (参考訳) 台湾における地中オゾン生成と今後の展望 Investigating the Ground-level Ozone Formation and Future Trend in Taiwan ( http://arxiv.org/abs/2012.10058v1 ) ライセンス: CC0 1.0 | Yu-Wen Chen, Sourav Medya and Yi-Chun Chen | (参考訳) 対流圏オゾン (O3) は大気汚染物質であり、環境に深刻なダメージを与える。
したがって、o3形成過程に関連する様々な因子の重要性を評価することが不可欠である。
しかし、利用可能な気候モデルによってシミュレーションされたO3は、異なる場所で大きなばらつきを示し、O3の形成過程を正しく説明できないことを示す。
本稿では,O3生成に及ぼす諸因子の影響を理解し,O3濃度を予測することを目的とする。
16の気象および化学的変数を用いて観測されたO3を推定するために、よく知られた6つの学習手法を評価する。
xgboostモデルと畳み込みニューラルネットワーク(cnn)モデルが最も正確な予測を行うことがわかった。
また,いくつかの変数の重要性を実証する。
その結果、窒素酸化物はO3の予測に負の寄与をするが、太陽放射の量は著しく正の寄与をもたらすことが示唆された。
さらに、XGBoostモデルを気候O3予測に適用し、地球規模の気候モデルによりシミュレーションされたO3の校正能力を示す。 Tropospheric ozone (O3) is an influential ground-level air pollutant which can severely damage the environment. Thus evaluating the importance of various factors related to the O3 formation process is essential. However, O3 simulated by the available climate models exhibits large variance in different places, indicating the insufficiency of models in explaining the O3 formation process correctly. In this paper, we aim to understand the impact of various factors on O3 formation and predict the O3 concentrations. Six well-known supervised learning methods are evaluated to estimate the observed O3 using sixteen meteorological and chemical variables. We find that the XGBoost and the convolution neural network (CNN) models achieve most accurate predictions. We also demonstrate the importance of several variables empirically. The results suggest that while Nitrogen Oxides negatively contributes to predicting O3, the amount of solar radiation makes significantly positive contribution. Furthermore, we apply the XGBoost model on climate O3 prediction and show its competence in calibrating the O3 simulated by a global climate model. | 翻訳日:2021-05-02 03:47:11 公開日:2020-12-18 |
# (参考訳) PointINet: Point Cloud Frame Interpolation Network PointINet: Point Cloud Frame Interpolation Network ( http://arxiv.org/abs/2012.10066v1 ) ライセンス: CC BY 4.0 | Fan Lu and Guang Chen and Sanqing Qu and Zhijun Li and Yinlong Liu and Alois Knoll | (参考訳) lidar point cloud streamsは通常、ハードウェアのパフォーマンスによって制限された時間次元でスパースする。
一般的に、機械式LiDARセンサーのフレームレートは10Hzから20Hzであり、カメラなどの一般的なセンサーよりもはるかに低い。
本稿では,LiDARセンサの時間的制限を克服するために,Point Cloud Frame Interpolationという新しいタスクについて述べる。
2つの連続するクラウドフレームを与えられたポイントクラウドフレーム補間は、それらの中間フレームを生成することを目的としている。
そこで我々は,pointinet(point cloud frame interpolation network)という新しいフレームワークを提案する。
提案手法により,低フレームレートのクラウドストリームを高いフレームレートにアップサンプリングすることができる。
まず,2点の雲間の双方向3次元シーンフローを推定し,その3次元シーンフローに基づいて所定の時間ステップにワープする。
2つの重ね合せフレームを融合させ,中間点雲を生成するため,2つの重ね合せ点雲を同時に考慮した,新しい学習ベースの点融合モジュールを提案する。
我々は,2つの大規模屋外LiDARデータセットにおける点雲フレーム補間法の性能を評価するための定量的および定性的な実験を設計し,提案したPointINetの有効性を実証した。
私たちのコードはhttps://github.com/ispc-lab/pointinet.gitで利用可能です。 LiDAR point cloud streams are usually sparse in time dimension, which is limited by hardware performance. Generally, the frame rates of mechanical LiDAR sensors are 10 to 20 Hz, which is much lower than other commonly used sensors like cameras. To overcome the temporal limitations of LiDAR sensors, a novel task named Point Cloud Frame Interpolation is studied in this paper. Given two consecutive point cloud frames, Point Cloud Frame Interpolation aims to generate intermediate frame(s) between them. To achieve that, we propose a novel framework, namely Point Cloud Frame Interpolation Network (PointINet). Based on the proposed method, the low frame rate point cloud streams can be upsampled to higher frame rates. We start by estimating bi-directional 3D scene flow between the two point clouds and then warp them to the given time step based on the 3D scene flow. To fuse the two warped frames and generate intermediate point cloud(s), we propose a novel learning-based points fusion module, which simultaneously takes two warped point clouds into consideration. We design both quantitative and qualitative experiments to evaluate the performance of the point cloud frame interpolation method and extensive experiments on two large scale outdoor LiDAR datasets demonstrate the effectiveness of the proposed PointINet. Our code is available at https://github.com/ispc-lab/PointINet.git. | 翻訳日:2021-05-02 03:39:02 公開日:2020-12-18 |
# (参考訳) SQLクエリ生成のためのメンション抽出とリンク Mention Extraction and Linking for SQL Query Generation ( http://arxiv.org/abs/2012.10074v1 ) ライセンス: CC BY 4.0 | Jianqiang Ma, Zeyu Yan, Shuai Pang, Yang Zhang, Jianping Shen | (参考訳) WikiSQLベンチマークでは、最先端のテキストからSQLへのシステムは通常、スロットごとに複数の専用モデルを構築することでスロットを埋めるアプローチを取る。
このようなモジュール化されたシステムは複雑なだけでなく、SQL節間の依存性をキャプチャする能力も制限されている。
そこで本研究では,連結抽出器が質問文に現れるすべてのスロット参照を,リンカが認識した列をテーブルスキーマにマップして実行可能なsqlクエリを生成する前に認識する,新しい抽出リンク手法を提案する。
提案手法は,自動生成アノテーションを用いて学習し,WikiSQLベンチマークで第一位となる。 On the WikiSQL benchmark, state-of-the-art text-to-SQL systems typically take a slot-filling approach by building several dedicated models for each type of slots. Such modularized systems are not only complex butalso of limited capacity for capturing inter-dependencies among SQL clauses. To solve these problems, this paper proposes a novel extraction-linking approach, where a unified extractor recognizes all types of slot mentions appearing in the question sentence before a linker maps the recognized columns to the table schema to generate executable SQL queries. Trained with automatically generated annotations, the proposed method achieves the first place on the WikiSQL benchmark. | 翻訳日:2021-05-02 02:43:04 公開日:2020-12-18 |
# (参考訳) 確率型ODEソルバの安定実装 Stable Implementation of Probabilistic ODE Solvers ( http://arxiv.org/abs/2012.10106v1 ) ライセンス: CC BY 4.0 | Nicholas Kr\"amer and Philipp Hennig | (参考訳) 常微分方程式(odes)の確率論的解法は、力学系のシミュレーションに関連する数値不確かさの効率的な定量化を提供する。
その収束速度は、理論分析の増大によって確立されている。
しかし、これらのアルゴリズムは、高い順序で実行されたり、小さなステップサイズで実行された場合、数値的な不安定さに悩まされる。
本研究は,この問題に対する解決策を提案し,検討する。
正確な初期化、数値安定性をステップサイズ非依存にする座標変更事前条件、平方根実装の3つのコンポーネントを含んでいる。
これら3つの手法を用いることで、一組の挑戦的なテスト問題で示されるように、ODEの確率的解を最大11のアルゴリズムで数値計算することができる。
結果として生じる急速な収束は、高次で最先端の古典的手法と競合することが示されている。
その結果、確率的ODEソルバの分析と興味深い機械学習問題への適用の障壁を効果的に除去する。 Probabilistic solvers for ordinary differential equations (ODEs) provide efficient quantification of numerical uncertainty associated with simulation of dynamical systems. Their convergence rates have been established by a growing body of theoretical analysis. However, these algorithms suffer from numerical instability when run at high order or with small step-sizes -- that is, exactly in the regime in which they achieve the highest accuracy. The present work proposes and examines a solution to this problem. It involves three components: accurate initialisation, a coordinate change preconditioner that makes numerical stability concerns step-size-independent, and square-root implementation. Using all three techniques enables numerical computation of probabilistic solutions of ODEs with algorithms of order up to 11, as demonstrated on a set of challenging test problems. The resulting rapid convergence is shown to be competitive to high-order, state-of-the-art, classical methods. As a consequence, a barrier between analysing probabilistic ODE solvers and applying them to interesting machine learning problems is effectively removed. | 翻訳日:2021-05-02 02:18:28 公開日:2020-12-18 |
# (参考訳) ラベルは完璧ではない:物体検出における空間的不確かさの推測 Labels Are Not Perfect: Inferring Spatial Uncertainty in Object Detection ( http://arxiv.org/abs/2012.12195v1 ) ライセンス: CC BY 4.0 | Di Feng, Zining Wang, Yiyang Zhou, Lars Rosenbaum, Fabian Timm, Klaus Dietmayer, Masayoshi Tomizuka, Wei Zhan | (参考訳) 多くの現実世界の運転データセットが利用できることは、自律運転におけるオブジェクト検出アルゴリズムの最近の進歩の背景にある重要な理由である。
しかしながら、オブジェクトラベルの曖昧さや失敗は、エラーを起こしやすいアノテーションプロセスやセンサ観測ノイズによるものである。
現在の公開オブジェクト検出データセットは、オブジェクト検出のための一般的なトレーニングプロセスや評価メトリクスと同様に、固有の不確かさを考慮せずに、決定論的オブジェクトラベルのみを提供する。
その結果, 物体検出手法の深度評価は依然として困難であり, 特に確率的物体検出において, 物体検出の訓練プロセスは準最適であることがわかった。
本研究では,lidar点雲から境界ボックスラベルの不確かさを生成モデルに基づいて推定し,空間的不確実性分布を通じて確率的境界ボックスの新しい表現を定義する。
包括的実験により,提案モデルはライダー知覚とラベル品質の複雑な環境雑音を反映していることがわかった。
さらに,ラベルの不確実性を組み込んだ評価指標として,Jaccard IoU(JIoU)を提案する。
JIoU測定値を用いて,複数のLiDAR系物体検出器の奥行き比較を行う。
最後に,提案するラベルの不確かさを損失関数に組み込んで確率的物体検出器を訓練し,検出精度を向上させる。
提案手法を2つの公開データセット (kitti, waymo) とシミュレーションデータで検証した。
コードはhttps://bit.ly/2W534yoでリリースされる。 The availability of many real-world driving datasets is a key reason behind the recent progress of object detection algorithms in autonomous driving. However, there exist ambiguity or even failures in object labels due to error-prone annotation process or sensor observation noise. Current public object detection datasets only provide deterministic object labels without considering their inherent uncertainty, as does the common training process or evaluation metrics for object detectors. As a result, an in-depth evaluation among different object detection methods remains challenging, and the training process of object detectors is sub-optimal, especially in probabilistic object detection. In this work, we infer the uncertainty in bounding box labels from LiDAR point clouds based on a generative model, and define a new representation of the probabilistic bounding box through a spatial uncertainty distribution. Comprehensive experiments show that the proposed model reflects complex environmental noises in LiDAR perception and the label quality. Furthermore, we propose Jaccard IoU (JIoU) as a new evaluation metric that extends IoU by incorporating label uncertainty. We conduct an in-depth comparison among several LiDAR-based object detectors using the JIoU metric. Finally, we incorporate the proposed label uncertainty in a loss function to train a probabilistic object detector and to improve its detection accuracy. We verify our proposed methods on two public datasets (KITTI, Waymo), as well as on simulation data. Code is released at https://bit.ly/2W534yo. | 翻訳日:2021-05-02 01:57:12 公開日:2020-12-18 |
# (参考訳) ニューラルネットワーク探索と量子化を用いたキーワードスポッティングのための資源効率の良いDNN Resource-efficient DNNs for Keyword Spotting using Neural Architecture Search and Quantization ( http://arxiv.org/abs/2012.10138v1 ) ライセンス: CC BY-SA 4.0 | David Peter, Wolfgang Roth, Franz Pernkopf | (参考訳) 本稿では,限定的リソース環境におけるキーワードスポッティング(kws)のための小モデルの自動発見のためのニューラルネットワーク検索(nas)を提案する。
我々は,畳み込みニューラルネットワーク(CNN)の構造を最適化し,推論当たりの演算数を最小化しつつ,分類精度を最大化するために,微分可能なNASアプローチを用いる。
NASのみを使用して、Googleの音声コマンドデータセットで95.4%の精度で、メモリ使用量は494.8kB、操作数は19.6万である。
さらに、メモリ消費をさらに削減するために重量量子化が用いられる。
低ビット幅(例)に対する重み量子化を示す。
1bit)は精度を著しく損なうことなく使用できる。
入力機能を10mfccから20mfccに増やすことで、340.1kbのメモリ使用と2710万オペレーションで96.3%の精度に向上することができた。 This paper introduces neural architecture search (NAS) for the automatic discovery of small models for keyword spotting (KWS) in limited resource environments. We employ a differentiable NAS approach to optimize the structure of convolutional neural networks (CNNs) to maximize the classification accuracy while minimizing the number of operations per inference. Using NAS only, we were able to obtain a highly efficient model with 95.4% accuracy on the Google speech commands dataset with 494.8 kB of memory usage and 19.6 million operations. Additionally, weight quantization is used to reduce the memory consumption even further. We show that weight quantization to low bit-widths (e.g. 1 bit) can be used without substantial loss in accuracy. By increasing the number of input features from 10 MFCC to 20 MFCC we were able to increase the accuracy to 96.3% at 340.1 kB of memory usage and 27.1 million operations. | 翻訳日:2021-05-02 01:20:47 公開日:2020-12-18 |
# (参考訳) 線形楕円型PDEの近似解に対するハイブリッドMGA-MSGD ANNトレーニング手法 A hybrid MGA-MSGD ANN training approach for approximate solution of linear elliptic PDEs ( http://arxiv.org/abs/2012.11517v1 ) ライセンス: CC BY 4.0 | Hamidreza Dehghani and Andreas Zilian | (参考訳) 本稿では,psd(artificial neural networks)によるpdesによる3次元機械的問題解決の精度と効率を大幅に向上させる"modified genetic algorithm-multilevel stochastic gradient descent"(mga-msgd)訓練アルゴリズムを提案する。
このアプローチにより、状態変数が物理問題に関連する制御方程式を満たすと期待される多くの関心の場所を選択することができる。
有限差分法や有限要素法のような古典的なPDE近似法とは異なり、特定の場所における機械的応答を予測するために、計算領域全体にわたる物理場量の確立と再構成は不要である。
MGA-MSGDの基本的な考え方は、学習可能なパラメータのコンポーネントがエラーの爆発の原因となり、ローカルなミニマのトラップを避けるために、比較的大きな学習率でネットワークを訓練できるようにすることである。
提案手法は,学習速度値,学習点密度と分布,およびランダムな初期パラメータにはあまり敏感ではない。
最小化のための距離関数は、物理法則や条件を含むPDEを導入する(いわゆる物理インフォームドANN)。
遺伝的アルゴリズムは、粗レベル確率勾配降下(csgd)を利用して子孫資格を決定するこのタイプのアンに適合するように修正されている。
提案手法を用いることで,従来のSGDやAdam optimiserなどの標準トレーニングアルゴリズムと比較して,精度と効率の両面で大幅な改善が見られた。
有限要素法 (FEM) の結果を基準変位として十分に微細なメッシュに導入することにより, 局所変位精度を検討した。
もう少し複雑な問題は、その実現可能性を保証するために解決される。 We introduce a hybrid "Modified Genetic Algorithm-Multilevel Stochastic Gradient Descent" (MGA-MSGD) training algorithm that considerably improves accuracy and efficiency of solving 3D mechanical problems described, in strong-form, by PDEs via ANNs (Artificial Neural Networks). This presented approach allows the selection of a number of locations of interest at which the state variables are expected to fulfil the governing equations associated with a physical problem. Unlike classical PDE approximation methods such as finite differences or the finite element method, there is no need to establish and reconstruct the physical field quantity throughout the computational domain in order to predict the mechanical response at specific locations of interest. The basic idea of MGA-MSGD is the manipulation of the learnable parameters' components responsible for the error explosion so that we can train the network with relatively larger learning rates which avoids trapping in local minima. The proposed training approach is less sensitive to the learning rate value, training points density and distribution, and the random initial parameters. The distance function to minimise is where we introduce the PDEs including any physical laws and conditions (so-called, Physics Informed ANN). The Genetic algorithm is modified to be suitable for this type of ANN in which a Coarse-level Stochastic Gradient Descent (CSGD) is exploited to make the decision of the offspring qualification. Employing the presented approach, a considerable improvement in both accuracy and efficiency, compared with standard training algorithms such as classical SGD and Adam optimiser, is observed. The local displacement accuracy is studied and ensured by introducing the results of Finite Element Method (FEM) at sufficiently fine mesh as the reference displacements. A slightly more complex problem is solved ensuring its feasibility. | 翻訳日:2021-05-02 00:14:30 公開日:2020-12-18 |
# (参考訳) テストケース優先化のための強化学習 Reinforcement Learning for Test Case Prioritization ( http://arxiv.org/abs/2012.11364v1 ) ライセンス: CC BY 4.0 | Jo\~ao Lousada, Miguel Ribeiro | (参考訳) 現代のソフトウエアエンジニアリングでは、継続的インテグレーション(CI)はソフトウェア開発のライフサイクルを体系的に管理するために必要なステップになっています。
大規模な企業はパイプラインの更新と運用の維持に苦労し、多くの変更と機能の追加によって、さまざまなプラットフォームで作業する開発者を抱えている。
このようなソフトウェア変更に関連して、テストには必ず強力なコンポーネントがあります。
チームやプロジェクトが成長するにつれて、徹底的なテストはすぐに阻害的になり、ソフトウェア品質を損なうことなく、最も適切なテストケースを先に選択するようになる。
本稿では,強化学習をテスト戦略に応用する最近の研究について述べる。
我々は,金融機関から抽出された新たなデータを用いて,ネットワーク近似器とテストケースエラーリワードを用いて,障害検出の正規化率(NAPFD)を0.6ドル以上とすることで,新しい環境に適応する能力をテストする。
さらに,記憶表現モデルとして決定木(dt)近似器を用いた場合の影響について検討したが,ニューラルネットワークと比較して大きな改善は得られなかった。 In modern software engineering, Continuous Integration (CI) has become an indispensable step towards systematically managing the life cycles of software development. Large companies struggle with keeping the pipeline updated and operational, in useful time, due to the large amount of changes and addition of features, that build on top of each other and have several developers, working on different platforms. Associated with such software changes, there is always a strong component of Testing. As teams and projects grow, exhaustive testing quickly becomes inhibitive, becoming adamant to select the most relevant test cases earlier, without compromising software quality. This paper extends recent studies on applying Reinforcement Learning to optimize testing strategies. We test its ability to adapt to new environments, by testing it on novel data extracted from a financial institution, yielding a Normalized percentage of Fault Detection (NAPFD) of over $0.6$ using the Network Approximator and Test Case Failure Reward. Additionally, we studied the impact of using Decision Tree (DT) Approximator as a model for memory representation, which failed to produce significant improvements relative to Artificial Neural Networks. | 翻訳日:2021-05-01 23:57:33 公開日:2020-12-18 |
# (参考訳) 論理的忘れやすいシングルヘッド式を再構築する Reconstructing a single-head formula to facilitate logical forgetting ( http://arxiv.org/abs/2012.10191v1 ) ライセンス: CC BY 4.0 | Paolo Liberatore | (参考訳) 論理的忘れは一般に指数関数的な時間を要するが、入力が単頭命題定式であるときではない。
シングルヘッドは、変数が複数の節の先頭ではないことを意味する。
可能であれば単頭式を作成するアルゴリズムを示す。
完備化することで、以前のものよりも改善され、常に与えられたものと同値な単頭公式が見つかる。 Logical forgetting may take exponential time in general, but it does not when its input is a single-head propositional definite Horn formula. Single-head means that no variable is the head of multiple clauses. An algorithm to make a formula single-head if possible is shown. It improves over a previous one by being complete: it always finds a single-head formula equivalent to the given one if any. | 翻訳日:2021-05-01 23:44:34 公開日:2020-12-18 |
# (参考訳) 総合強化学習における巨大動作空間の完全縮小 Exact Reduction of Huge Action Spaces in General Reinforcement Learning ( http://arxiv.org/abs/2012.10200v1 ) ライセンス: CC BY 4.0 | Sultan Javed Majeed and Marcus Hutter | (参考訳) 強化学習(RL)フレームワークは、相互作用による学習の概念を形式化する。
多くの現実世界の問題は、Go、StarCraft、タンパク質の折り畳み、ロボット工学のような大きな状態空間やアクション空間を持ち、非マルコフ的であり、RLアルゴリズムに重大な課題を引き起こしている。
本研究は,アクションを逐次化することで大規模なアクション空間問題に対処し,プランニングの地平線を増大させるため,アクション空間のサイズを2つのアクションに減らすことができる。
任意の履歴ベースのプロセスに対して、すべての利害関係に対する明示的かつ厳密な構成と等価証明を提供する。
MDPの場合、これはブートストラップを行うRLアルゴリズムに役立つ。
本研究では,非MDPケースにおけるアクションバイナリ化がエクストリーム状態アグリゲーション(ESA)境界を大幅に改善することを示す。
ESAは、任意の(非MDP、非エルゴード、歴史に基づく)RL問題を、マルコフ過程の助けを借りて固定サイズの非マルコフ状態空間にキャストできる。
利点として、ESAはマルコフモデルと同様の最適性を保証する。
しかし、デメリットは、集約された状態空間のサイズがアクション空間のサイズで指数関数的になることです。
本研究では,アクション空間をバイナライズすることでこの問題に対処する。
我々は,この二元化esaの状態数の上限を,元の動作空間サイズで対数的であり,二重指数的改善を与える。 The reinforcement learning (RL) framework formalizes the notion of learning with interactions. Many real-world problems have large state-spaces and/or action-spaces such as in Go, StarCraft, protein folding, and robotics or are non-Markovian, which cause significant challenges to RL algorithms. In this work we address the large action-space problem by sequentializing actions, which can reduce the action-space size significantly, even down to two actions at the expense of an increased planning horizon. We provide explicit and exact constructions and equivalence proofs for all quantities of interest for arbitrary history-based processes. In the case of MDPs, this could help RL algorithms that bootstrap. In this work we show how action-binarization in the non-MDP case can significantly improve Extreme State Aggregation (ESA) bounds. ESA allows casting any (non-MDP, non-ergodic, history-based) RL problem into a fixed-sized non-Markovian state-space with the help of a surrogate Markovian process. On the upside, ESA enjoys similar optimality guarantees as Markovian models do. But a downside is that the size of the aggregated state-space becomes exponential in the size of the action-space. In this work, we patch this issue by binarizing the action-space. We provide an upper bound on the number of states of this binarized ESA that is logarithmic in the original action-space size, a double-exponential improvement. | 翻訳日:2021-05-01 23:43:39 公開日:2020-12-18 |
# (参考訳) Commonsense説明のためのベンチマークアラビアデータセット A Benchmark Arabic Dataset for Commonsense Explanation ( http://arxiv.org/abs/2012.10251v1 ) ライセンス: CC0 1.0 | Saja AL-Tawalbeh, Mohammad AL-Smadi | (参考訳) 機械による言語理解と常識知識の検証は、まだアラビア語のテキストで研究され評価されている課題である。
本稿では,コモンセンス説明のためのベンチマークアラビアデータセットを提案する。
データセットは、アラビア語の文が意味をなさないことと、その文がなぜ偽であるのかを説明する3つの選択から成り立っている。
さらに,本研究の今後の評価を補助し,促進するための基礎的結果について述べる。
データセットはCreative Commons CC-BY-SA 4.0ライセンスで配布されており、GitHubで公開されている。 Language comprehension and commonsense knowledge validation by machines are challenging tasks that are still under researched and evaluated for Arabic text. In this paper, we present a benchmark Arabic dataset for commonsense explanation. The dataset consists of Arabic sentences that does not make sense along with three choices to select among them the one that explains why the sentence is false. Furthermore, this paper presents baseline results to assist and encourage the future evaluation of research in this field. The dataset is distributed under the Creative Commons CC-BY-SA 4.0 license and can be found on GitHub | 翻訳日:2021-05-01 23:26:22 公開日:2020-12-18 |
# (参考訳) スペクトルグラフネットワークの転送性に関する実験的研究 An Experimental Study of the Transferability of Spectral Graph Networks ( http://arxiv.org/abs/2012.10258v1 ) ライセンス: CC BY 4.0 | Axel Nilsson and Xavier Bresson | (参考訳) スペクトルグラフ畳み込みネットワーク(spectral graph convolutional network)は、ラプラシアン作用素を用いたグラフ構造化データのための標準畳み込みネットワークの一般化である。
一般的な誤解はスペクトルフィルタの不安定性である。
可変サイズのグラフとトポロジー間のスペクトルフィルタの転送が不可能である。
この誤解は、空間グラフネットワークに有利なマルチグラフタスクのためのスペクトルネットワークの開発を制限している。
しかし、近年の研究では、グラフ摂動下でのスペクトルフィルタの安定性が証明されている。
我々の研究は、異なる大きさのグラフと接続性を持つタスクにスペクトルグラフネットワークをベンチマークすることで、スペクトル転送性の高さを補完し、強調する。
数値実験は、2つのグラフベンチマーク上でのグラフ回帰、グラフ分類、ノード分類問題において良好な性能を示す。
私たちの実験の実装は再現性のためにGitHubで利用可能です。 Spectral graph convolutional networks are generalizations of standard convolutional networks for graph-structured data using the Laplacian operator. A common misconception is the instability of spectral filters, i.e. the impossibility to transfer spectral filters between graphs of variable size and topology. This misbelief has limited the development of spectral networks for multi-graph tasks in favor of spatial graph networks. However, recent works have proved the stability of spectral filters under graph perturbation. Our work complements and emphasizes further the high quality of spectral transferability by benchmarking spectral graph networks on tasks involving graphs of different size and connectivity. Numerical experiments exhibit favorable performance on graph regression, graph classification, and node classification problems on two graph benchmarks. The implementation of our experiments is available on GitHub for reproducibility. | 翻訳日:2021-05-01 23:20:49 公開日:2020-12-18 |
# (参考訳) 線形回帰における逆ロバスト推定とリスク分析 Adversarially Robust Estimate and Risk Analysis in Linear Regression ( http://arxiv.org/abs/2012.10278v1 ) ライセンス: CC BY 4.0 | Yue Xing, Ruizhi Zhang, Guang Cheng | (参考訳) 逆ロバスト学習は、入力変数の小さな逆摂動にロバストなアルゴリズムを設計することを目的としている。
本研究の目的は, 線形回帰モデルの設定において, 逆向きの頑健な推定値の統計的特性を理解し, 逆向きのリスクを分析することである。
対向ロバストな推定器の収束率を統計的に極小化することにより,対向ロバストな学習においてモデル情報(例えばスパーシティ)を取り入れることの重要性を強調する。
さらに,正反対推定と標準推定との明確な関係を明らかにするとともに,モデル構造情報を利用した2段階逆学習フレームワークを提案する。
理論的には、逆ロバストな推定器の一貫性が証明され、そのバハドゥル表現は統計的推論のためにも開発されている。
提案する推定器は、低次元またはスパースシナリオのいずれにおいても鋭い速度で収束する。
さらに,本理論は,逆ロバスト性が一般化を損なうこと,ラベルのないデータが一般化を改善すること,という,逆ロバスト学習における2つの現象を裏付ける。
最終的に、我々は理論を検証するために数値シミュレーションを行う。 Adversarially robust learning aims to design algorithms that are robust to small adversarial perturbations on input variables. Beyond the existing studies on the predictive performance to adversarial samples, our goal is to understand statistical properties of adversarially robust estimates and analyze adversarial risk in the setup of linear regression models. By discovering the statistical minimax rate of convergence of adversarially robust estimators, we emphasize the importance of incorporating model information, e.g., sparsity, in adversarially robust learning. Further, we reveal an explicit connection of adversarial and standard estimates, and propose a straightforward two-stage adversarial learning framework, which facilitates to utilize model structure information to improve adversarial robustness. In theory, the consistency of the adversarially robust estimator is proven and its Bahadur representation is also developed for the statistical inference purpose. The proposed estimator converges in a sharp rate under either low-dimensional or sparse scenario. Moreover, our theory confirms two phenomena in adversarially robust learning: adversarial robustness hurts generalization, and unlabeled data help improve the generalization. In the end, we conduct numerical simulations to verify our theory. | 翻訳日:2021-05-01 23:11:07 公開日:2020-12-18 |
# (参考訳) 生成事前学習による意味的構文解析のための文脈表現の学習 Learning Contextual Representations for Semantic Parsing with Generation-Augmented Pre-Training ( http://arxiv.org/abs/2012.10309v1 ) ライセンス: CC BY 4.0 | Peng Shi, Patrick Ng, Zhiguo Wang, Henghui Zhu, Alexander Hanbo Li, Jun Wang, Cicero Nogueira dos Santos, Bing Xiang | (参考訳) 最近では、大規模なテキストコーパスを活用して、マスケッド言語モデル(MLM)のような自己教師型学習目標を持つ大規模ニューラルネットワークモデルをトレーニングすることで、さまざまなNLPタスクの文脈表現の学習に大きな関心が寄せられている。
しかし、パイロット研究に基づいて、テキストからsqlへの意味的パーサに適用した場合、既存の汎用言語モデルの3つの問題を観察した: 発話中の列参照の検出に失敗したり、セル値からの列参照を推論できなかったり、複雑なsqlクエリを合成できなかったり。
そこで,本稿では,自然言語発話の表現とテーブルスキーマを共同で学習し,生成モデルを活用して事前学習データを生成する,モデル事前学習フレームワークであるgenes-augmented pre-training (gap)を提案する。
GAP MODELは、2Mの発話スキーマペアと30Kの発話スキーマSQLトリプルで訓練される。
実験結果に基づいて,GAP MODELを表現エンコーダとして利用するニューラルセマンティックパーサは,SPIDERとCRITERIA-TO-SQLベンチマークの両方で新たな最先端結果が得られる。 Most recently, there has been significant interest in learning contextual representations for various NLP tasks, by leveraging large scale text corpora to train large neural language models with self-supervised learning objectives, such as Masked Language Model (MLM). However, based on a pilot study, we observe three issues of existing general-purpose language models when they are applied to text-to-SQL semantic parsers: fail to detect column mentions in the utterances, fail to infer column mentions from cell values, and fail to compose complex SQL queries. To mitigate these issues, we present a model pre-training framework, Generation-Augmented Pre-training (GAP), that jointly learns representations of natural language utterances and table schemas by leveraging generation models to generate pre-train data. GAP MODEL is trained on 2M utterance-schema pairs and 30K utterance-schema-SQL triples, whose utterances are produced by generative models. Based on experimental results, neural semantic parsers that leverage GAP MODEL as a representation encoder obtain new state-of-the-art results on both SPIDER and CRITERIA-TO-SQL benchmarks. | 翻訳日:2021-05-01 23:09:52 公開日:2020-12-18 |
# (参考訳) 非オブザーブドコンファウンディングのためのカーネル法:負の制御、プロキシ、および機器 Kernel Methods for Unobserved Confounding: Negative Controls, Proxies, and Instruments ( http://arxiv.org/abs/2012.10315v1 ) ライセンス: CC BY 4.0 | Rahul Singh | (参考訳) 負の制御は、未測定のコンファウンディングの存在下で、治療と結果の因果関係を学ぶための戦略である。
それにもかかわらず、治療効果は2つの補助変数、すなわち、負の制御の処理(実際の結果に影響を与えない)と負の制御の結果(実際の処理の影響を受けない)が利用可能であれば識別できる。
これらの補助変数は、伝統的な制御変数の集合のプロキシと見なすことができ、楽器変数に類似している。
ネガティブコントロールによる治療効果を学習するための新しい非パラメトリックアルゴリズムを提案する。
私は、人口、サブ人口、代替人口の治療効果について検討する。
離散的、連続的で、低、高、無限次元のデータを許容します。
再生カーネルヒルベルト空間(RKHS)は、機械学習において一般的な非パラメトリック設定である。
均一な一貫性を証明し、収束の有限サンプル率を提供します。
私はシミュレーションで推定器を評価します。 Negative control is a strategy for learning the causal relationship between treatment and outcome in the presence of unmeasured confounding. The treatment effect can nonetheless be identified if two auxiliary variables are available: a negative control treatment (which has no effect on the actual outcome), and a negative control outcome (which is not affected by the actual treatment). These auxiliary variables can also be viewed as proxies for a traditional set of control variables, and they bear resemblance to instrumental variables. I propose a new family of non-parametric algorithms for learning treatment effects with negative controls. I consider treatment effects of the population, of sub-populations, and of alternative populations. I allow for data that may be discrete or continuous, and low-, high-, or infinite-dimensional. I impose the additional structure of the reproducing kernel Hilbert space (RKHS), a popular non-parametric setting in machine learning. I prove uniform consistency and provide finite sample rates of convergence. I evaluate the estimators in simulations. | 翻訳日:2021-05-01 22:47:08 公開日:2020-12-18 |
# (参考訳) 局所ベイズ最適化のための探索空間分割学習によるブラックボックス最適化問題の解法 Solving Black-Box Optimization Challenge via Learning Search Space Partition for Local Bayesian Optimization ( http://arxiv.org/abs/2012.10335v1 ) ライセンス: CC BY 4.0 | Mikita Sazanovich, Anastasiya Nikolskaya, Yury Belousov, Aleksei Shpilman | (参考訳) 本稿では,局所ベイズ最適化のための探索空間分割学習によるブラックボックス最適化問題の解法について述べる。
低予算最適化のためのアルゴリズムを開発する。
さらにベイズ最適化を用いてアルゴリズムのハイパーパラメータを最適化する。
我々のアプローチは競争で3位になった。 This paper describes our approach to solving the black-box optimization challenge through learning search space partition for local Bayesian optimization. We develop an algorithm for low budget optimization. We further optimize the hyper-parameters of our algorithm using Bayesian optimization. Our approach has been ranked 3rd in the competition. | 翻訳日:2021-05-01 22:02:07 公開日:2020-12-18 |
# (参考訳) マイクロ波ラジオサーモメトリーデータ解析における計算機シミュレーション結果と機械学習の適用 Application of computer simulation results and machine learning in analysis of microwave radiothermometry data ( http://arxiv.org/abs/2012.10343v1 ) ライセンス: CC BY 4.0 | Maxim Polyakov, Illarion Popov, Alexander Losev, Alexander Khoperskov | (参考訳) 本研究は,マイクロ波ラジオサーモメトリー法による時空間温度分布のモデル化と得られたデータインテリジェント解析に基づく乳がん早期鑑別診断基盤の開発を目的として行われた。
この記事ではマイクロ波ラジオサーモメトリーデータ解析における機械学習の応用について論じる。
また, 各種診断クラスにおける乳腺温度場コンピュータモデルの構築に伴う問題点についても考察した。
機械学習アルゴリズムセット(論理回帰、単純ベイズ分類器、サポートベクターマシン、決定木、勾配押し上げ、K-アレスト隣人など)に基づいたコンピュータ実験の助けを借りて
使用法 乳腺の温度場 コンピュータモデルで 適度に設定します This work was done with the aim of developing the fundamental breast cancer early differential diagnosis foundations based on modeling the space-time temperature distribution using the microwave radiothermometry method and obtained data intelligent analysis. The article deals with the machine learning application in the microwave radiothermometry data analysis. The problems associated with the construction mammary glands temperature fields computer models for patients with various diagnostics classes, are also discussed. With the help of a computer experiment, based on the machine learning algorithms set (logistic regression, naive Bayesian classifier, support vector machine, decision tree, gradient boosting, K-nearest neighbors, etc.) usage, the mammary glands temperature fields computer models set adequacy. | 翻訳日:2021-05-01 21:58:51 公開日:2020-12-18 |
# (参考訳) 小企業名別分類:性別・地理的起源バイアスへの対応 Small Business Classification By Name: Addressing Gender and Geographic Origin Biases ( http://arxiv.org/abs/2012.10348v1 ) ライセンス: CC BY 4.0 | Daniel Shapiro | (参考訳) 小さなビジネス分類は、顧客セグメンテーションを含む多くのアプリケーションにおいて困難で重要なタスクである。
小さなビジネス名のトレーニングは、性別と地理的起源バイアスを導入します。
本研究で、ビジネス名のみに基づく66のビジネスタイプのうちの1つを予測するモデルを開発した(top-1 f1-score = 60.2%)。
このモデルからバイアスを取り除くための2つのアプローチが検討されている: 与えられた名前をプレースホルダトークンで置き換える。
これらのアプローチの結果を報告し、モデルから与えられた名前を隠すことでモデルのバイアスを減らした。
しかし、バイアス低減は分類性能を犠牲にして達成された(top-1 f1-score = 56.6%)。
性別変化サンプルを用いたトレーニングデータの強化は,評価データセットにおける名前隠れアプローチよりもバイアス低減効果が低かった。 Small business classification is a difficult and important task within many applications, including customer segmentation. Training on small business names introduces gender and geographic origin biases. A model for predicting one of 66 business types based only upon the business name was developed in this work (top-1 f1-score = 60.2%). Two approaches to removing the bias from this model are explored: replacing given names with a placeholder token, and augmenting the training data with gender-swapped examples. The results for these approaches is reported, and the bias in the model was reduced by hiding given names from the model. However, bias reduction was accomplished at the expense of classification performance (top-1 f1-score = 56.6%). Augmentation of the training data with gender-swapping samples proved less effective at bias reduction than the name hiding approach on the evaluated dataset. | 翻訳日:2021-05-01 21:51:51 公開日:2020-12-18 |
# (参考訳) ドロップアウトニューラルネットワークにおける普遍近似 Universal Approximation in Dropout Neural Networks ( http://arxiv.org/abs/2012.10351v1 ) ライセンス: CC BY 4.0 | Oxana A. Manita, Mark A. Peletier, Jacobus W. Portegies, Jaron Sanders, Albert Senen-Cerda | (参考訳) 我々は、ドロップアウトニューラルネットワークに対する2つの普遍近似定理を証明した。
フィードフォワードニューラルネットワークは、各エッジにランダムな$\{0,1\}$-valued filterが与えられるが、これは2つの動作モードを持つ: 第一のエッジ出力はそのランダムなフィルタによって乗算され、第二のエッジ出力はそのフィルタの期待によって乗算され、決定論的出力をもたらす。
トレーニング中はランダムモード、テストと予測中は決定論的モードを用いるのが一般的である。
二つの定理は以下の形式である: 近似関数としきい値$\varepsilon>0$が与えられたとき、確率が$\varepsilon$-closeで$L^q$のドロップアウトネットワークが存在する。
最初の定理はランダムモードのドロップアウトネットワークに適用される。
活性化関数にはほとんど依存せず、幅広い種類のネットワークに適用でき、ニューラルネットワーク以外の近似スキームにも適用できる。
コアは代数的特性であり、決定論的ネットワークはランダムネットワークによって正確に一致できることを示す。
第二の定理はより強く仮定し、より強い結果を与える。
近似関数が与えられた場合、両方のモードを同時に近似するネットワークが存在する。
証明コンポーネントはエッジを独立したコピーで再帰的に置き換えるものであり、入力により大きなネットワークを結合する特別な第1層置換である。
近似される函数は一般ノルム空間の元であると仮定され、近似は対応するノルムで測定される。
ネットワークは明示的に構築されます。
証明方法が異なるため、2つの結果はランダムなドロップアウトネットワークの近似特性について独立した洞察を与える。
これにより、ドロップアウトニューラルネットワークは普遍近似特性を広く満たすことができる。 We prove two universal approximation theorems for a range of dropout neural networks. These are feed-forward neural networks in which each edge is given a random $\{0,1\}$-valued filter, that have two modes of operation: in the first each edge output is multiplied by its random filter, resulting in a random output, while in the second each edge output is multiplied by the expectation of its filter, leading to a deterministic output. It is common to use the random mode during training and the deterministic mode during testing and prediction. Both theorems are of the following form: Given a function to approximate and a threshold $\varepsilon>0$, there exists a dropout network that is $\varepsilon$-close in probability and in $L^q$. The first theorem applies to dropout networks in the random mode. It assumes little on the activation function, applies to a wide class of networks, and can even be applied to approximation schemes other than neural networks. The core is an algebraic property that shows that deterministic networks can be exactly matched in expectation by random networks. The second theorem makes stronger assumptions and gives a stronger result. Given a function to approximate, it provides existence of a network that approximates in both modes simultaneously. Proof components are a recursive replacement of edges by independent copies, and a special first-layer replacement that couples the resulting larger network to the input. The functions to be approximated are assumed to be elements of general normed spaces, and the approximations are measured in the corresponding norms. The networks are constructed explicitly. Because of the different methods of proof, the two results give independent insight into the approximation properties of random dropout networks. With this, we establish that dropout neural networks broadly satisfy a universal-approximation property. | 翻訳日:2021-05-01 21:41:38 公開日:2020-12-18 |
# (参考訳) 機械学習が量子コンピュータと出会うとき:ケーススタディ When Machine Learning Meets Quantum Computers: A Case Study ( http://arxiv.org/abs/2012.10360v1 ) ライセンス: CC BY 4.0 | Weiwen Jiang, Jinjun Xiong, Yiyu Shi | (参考訳) AIの民主化の発展に伴い、機械学習アプローチ、特にニューラルネットワークは、広範囲のアプリケーションに適用されている。
異なるアプリケーションシナリオでは、ニューラルネットワークはカスタマイズされたコンピューティングプラットフォーム上で加速される。
CPU、GPU、FPGA、ASICなどの古典的コンピューティングプラットフォーム上でのニューラルネットワークの高速化は広く研究されているが、アプリケーションのスケールが一貫して大きくなると、メモリボトルネックは明らかになり、メモリウォールとして知られるようになった。
このような課題に対応して、n量子ビット(量子ビット)を持つ2^n状態を表す高度な量子コンピューティングは有望な解と見なされる。
ニューラルネットワークの高速化のための量子回路の設計方法を知ることは急務である。
最近では、ニューラルネットワークを実際の量子プロセッサにマップする方法の研究が始まっている。
最先端の設計をより深く理解し,新しい設計方法論を刺激するために,本稿では,エンドツーエンド実装を実証する事例研究を行う。
ニューラルネットワークでは,マルチ層パーセプトロンを用いて,標準かつ広く使用されているMNISTデータセットを用いて画像分類タスクを完成させる。
量子コンピューティングに関しては、IBM Qiskitを用いてプログラムし、シミュレートできるIBM Quantumプロセッサをターゲットにしている。
この研究は、量子プロセッサ上でトレーニングされたニューラルネットワークの推論フェーズの加速を目標とする。
このケーススタディとともに、ニューラルネットワークを量子回路にマッピングするための典型的な手順を実証する。 Along with the development of AI democratization, the machine learning approach, in particular neural networks, has been applied to wide-range applications. In different application scenarios, the neural network will be accelerated on the tailored computing platform. The acceleration of neural networks on classical computing platforms, such as CPU, GPU, FPGA, ASIC, has been widely studied; however, when the scale of the application consistently grows up, the memory bottleneck becomes obvious, widely known as memory-wall. In response to such a challenge, advanced quantum computing, which can represent 2^N states with N quantum bits (qubits), is regarded as a promising solution. It is imminent to know how to design the quantum circuit for accelerating neural networks. Most recently, there are initial works studying how to map neural networks to actual quantum processors. To better understand the state-of-the-art design and inspire new design methodology, this paper carries out a case study to demonstrate an end-to-end implementation. On the neural network side, we employ the multilayer perceptron to complete image classification tasks using the standard and widely used MNIST dataset. On the quantum computing side, we target IBM Quantum processors, which can be programmed and simulated by using IBM Qiskit. This work targets the acceleration of the inference phase of a trained neural network on the quantum processor. Along with the case study, we will demonstrate the typical procedure for mapping neural networks to quantum circuits. | 翻訳日:2021-05-01 21:40:24 公開日:2020-12-18 |
# (参考訳) スペクトルMPT信号を用いた金属物体の同定:物体の特性と不変性 Identification of Metallic Objects using Spectral MPT Signatures: Object Characterisation and Invariants ( http://arxiv.org/abs/2012.10376v1 ) ライセンス: CC BY 4.0 | P.D. Ledger and B.A. Wilson and A.A.S. Amad and W.R.B. Lionheart | (参考訳) 銃やナイフのようなテロリストの脅威の早期発見は、金属探知の改善を通じて、攻撃の数を減らし、公衆の安全と安全を改善する可能性を秘めている。
これを実現するために、金属検出器がフィールドの摂動の中に隠れているため、異なる形状と異なる金属を区別するためにフィールドを応用して測定する可能性はかなりある。
磁気偏光性テンソル(MPT)は、異なる脅威と非脅威物体に対して計算できる金属物体の経済的な特徴付けを提供し、固定された理論的背景を持ち、誘導電圧が隠された物体のMPT係数の関数であることを示す。
本稿では, 単一周波数での計測と比較して, 誘導電圧を周波数範囲で測定する付加的な特性化情報について述べる。
このようなオブジェクトの特徴付けをMPTスペクトルシグネチャと呼ぶ。
次に,MPTスペクトルシグネチャを用いた隠蔽物体の分類を目的とした回転不変量について述べる。
最後に,機械学習アルゴリズムを分類目的に訓練するために使用できる,現実的脅威と非脅威オブジェクトのmptスペクトルシグネチャの計算例を含む。 The early detection of terrorist threats, such as guns and knives, through improved metal detection, has the potential to reduce the number of attacks and improve public safety and security. To achieve this, there is considerable potential to use the fields applied and measured by a metal detector to discriminate between different shapes and different metals since, hidden within the field perturbation, is object characterisation information. The magnetic polarizability tensor (MPT) offers an economical characterisation of metallic objects that can be computed for different threat and non-threat objects and has an established theoretical background, which shows that the induced voltage is a function of the hidden object's MPT coefficients. In this paper, we describe the additional characterisation information that measurements of the induced voltage over a range of frequencies offer compared to measurements at a single frequency. We call such object characterisations its MPT spectral signature. Then, we present a series of alternative rotational invariants for the purpose of classifying hidden objects using MPT spectral signatures. Finally, we include examples of computed MPT spectral signature characterisations of realistic threat and non-threat objects that can be used to train machine learning algorithms for classification purposes. | 翻訳日:2021-05-01 21:25:39 公開日:2020-12-18 |
# (参考訳) パラメトリック制約最小二乗問題における変数数の削減 Reduction of the Number of Variables in Parametric Constrained Least-Squares Problems ( http://arxiv.org/abs/2012.10423v1 ) ライセンス: CC BY 4.0 | Alberto Bemporad, Gionata Cimini | (参考訳) 本稿では,パラメータのベクトルに依存する線形制約最小二乗問題に対して,関連する最適化変数の数を減らす手法を提案する。
QR分解法により数値的にロバストな方法で等式制約を除いた後、我々は特異値分解(SVD)と教師なし学習に基づく手法を提案し、これを$K$-SVDと呼び、ニューラル分類器によりパラメータベクトルの集合を、元の問題をより小さな変数の集合を用いて近似した$K$非線形領域に自動的に分割する。
モデル予測制御 (mpc) の定式化から生じるパラメトリック制約最小二乗問題の特別な場合に対し, 等式制約除去のための新規かつ非常に効率的なqr因子分解法を提案する。
svdまたは$k$-svdと共に、この方法は標準的な凝縮および移動ブロッキング、および基底関数に基づくmpcの他の複雑さ低減方法に対する数値的にロバストな代替手段を提供する。
本稿では, 非線形ベンチマークプロセスの数値実験および線形化MPC問題において, 提案手法の優れた性能を示す。 For linearly constrained least-squares problems that depend on a vector of parameters, this paper proposes techniques for reducing the number of involved optimization variables. After first eliminating equality constraints in a numerically robust way by QR factorization, we propose a technique based on singular value decomposition (SVD) and unsupervised learning, that we call $K$-SVD, and neural classifiers to automatically partition the set of parameter vectors in $K$ nonlinear regions in which the original problem is approximated by using a smaller set of variables. For the special case of parametric constrained least-squares problems that arise from model predictive control (MPC) formulations, we propose a novel and very efficient QR factorization method for equality constraint elimination. Together with SVD or $K$-SVD, the method provides a numerically robust alternative to standard condensing and move blocking, and to other complexity reduction methods for MPC based on basis functions. We show the good performance of the proposed techniques in numerical tests and in a linearized MPC problem of a nonlinear benchmark process. | 翻訳日:2021-05-01 21:24:03 公開日:2020-12-18 |
# (参考訳) 深層ニューラルネットワークのロバストな説明に向けて Towards Robust Explanations for Deep Neural Networks ( http://arxiv.org/abs/2012.10425v1 ) ライセンス: CC BY-SA 4.0 | Ann-Kathrin Dombrowski, Christopher J. Anders, Klaus-Robert M\"uller, Pan Kessel | (参考訳) 説明手法は、ディープニューラルネットワークのようなブラックボックス分類器の決定過程に光を当てた。
しかし、それらの有用性は操作に影響を受けやすいため、損なわれる可能性がある。
この研究は,説明のレジリエンスを高めることを目的としている。
モデルの最大操作性に関する境界を導出するための統一理論フレームワークを開発する。
これらの理論的知見に基づいて,重み付きトレーニング,活性化関数の平滑化,ネットワークのヘシアンの最小化という,操作に対する堅牢性を高める3つの手法を提案する。
実験結果から,これらの手法の有効性を確認した。 Explanation methods shed light on the decision process of black-box classifiers such as deep neural networks. But their usefulness can be compromised because they are susceptible to manipulations. With this work, we aim to enhance the resilience of explanations. We develop a unified theoretical framework for deriving bounds on the maximal manipulability of a model. Based on these theoretical insights, we present three different techniques to boost robustness against manipulation: training with weight decay, smoothing activation functions, and minimizing the Hessian of the network. Our experimental results confirm the effectiveness of these approaches. | 翻訳日:2021-05-01 20:46:13 公開日:2020-12-18 |
# (参考訳) 対向例に対するロバスト決定木の効率的な学習 Efficient Training of Robust Decision Trees Against Adversarial Examples ( http://arxiv.org/abs/2012.10438v1 ) ライセンス: CC BY 4.0 | Dani\"el Vos, Sicco Verwer | (参考訳) 今日では、モデルの理解と堅牢性の両方を必要とする、センシティブなタスクに機械学習を使用します。
決定木のような伝統的なモデルは理解できるが、敵の攻撃に苦しむ。
決定木を用いてユーザの良性行動と悪意行動とを区別すると、敵対攻撃により、モデルが受信した入力を摂動することで、効果的にモデルを回避できる。
より堅牢な木に適合するために、敵の攻撃を考慮に入れるアルゴリズムを使うことができます。
本研究では,敵に対する精度を競いながら,最先端の作業よりも2桁高速なGROOTアルゴリズムを提案する。
GROOTは直感的で許容可能な脅威モデルを受け入れる。
従来の脅威モデルが距離ノルムに制限されていた場合、各機能は、最大距離または摂動方向の制約という、ユーザが指定したパラメータで摂動することができる。
これまでの研究では、良質なユーザーと悪意のあるユーザーの両方がモデル回避を試みたが、どのクラスが敵攻撃を行うかを選択できた。
さらに、GROOTが正規および対向的な設定で性能をトレードオフできるハイパーパラメータローを導入する。 In the present day we use machine learning for sensitive tasks that require models to be both understandable and robust. Although traditional models such as decision trees are understandable, they suffer from adversarial attacks. When a decision tree is used to differentiate between a user's benign and malicious behavior, an adversarial attack allows the user to effectively evade the model by perturbing the inputs the model receives. We can use algorithms that take adversarial attacks into account to fit trees that are more robust. In this work we propose an algorithm, GROOT, that is two orders of magnitude faster than the state-of-the-art-work while scoring competitively on accuracy against adversaries. GROOT accepts an intuitive and permissible threat model. Where previous threat models were limited to distance norms, we allow each feature to be perturbed with a user-specified parameter: either a maximum distance or constraints on the direction of perturbation. Previous works assumed that both benign and malicious users attempt model evasion but we allow the user to select which classes perform adversarial attacks. Additionally, we introduce a hyperparameter rho that allows GROOT to trade off performance in the regular and adversarial settings. | 翻訳日:2021-05-01 20:45:09 公開日:2020-12-18 |
# (参考訳) CityLearn:需要対応と都市エネルギー管理のためのマルチエージェント強化学習の標準化研究 CityLearn: Standardizing Research in Multi-Agent Reinforcement Learning for Demand Response and Urban Energy Management ( http://arxiv.org/abs/2012.10504v1 ) ライセンス: CC BY 4.0 | Jose R Vazquez-Canteli, Sourav Dey, Gregor Henze, Zoltan Nagy | (参考訳) 急速な都市化、分散型再生可能エネルギー資源の統合、エネルギー貯蔵、電気自動車は電力網に新たな課題をもたらす。
米国では、建物が総電力需要の約70%を占め、需要応答は電力のピークを約20%削減する可能性がある。
このポテンシャルをアンロックするには、理想的にはデータ駆動でモデルフリーな分散システムで動作する制御システムが必要です。
このため, 近年, 強化学習(RL)アルゴリズムへの関心が高まっている。
しかし、需要対応のためのRLの研究は、コンピュータ科学コミュニティにおけるRL研究の大幅な進歩を促す標準化のレベルを欠いている。
そこで我々はCityLearnを開発した。CityLearnはOpenAI Gym環境で、研究者が要求応答のためにRLの実装を実装し、共有し、複製し、比較することができる。
ここでは,この分野のさらなる進歩を推進すべく,我々が主催したRLコンペティションであるThe CityLearn Challengeについて論じる。 Rapid urbanization, increasing integration of distributed renewable energy resources, energy storage, and electric vehicles introduce new challenges for the power grid. In the US, buildings represent about 70% of the total electricity demand and demand response has the potential for reducing peaks of electricity by about 20%. Unlocking this potential requires control systems that operate on distributed systems, ideally data-driven and model-free. For this, reinforcement learning (RL) algorithms have gained increased interest in the past years. However, research in RL for demand response has been lacking the level of standardization that propelled the enormous progress in RL research in the computer science community. To remedy this, we created CityLearn, an OpenAI Gym Environment which allows researchers to implement, share, replicate, and compare their implementations of RL for demand response. Here, we discuss this environment and The CityLearn Challenge, a RL competition we organized to propel further progress in this field. | 翻訳日:2021-05-01 19:50:10 公開日:2020-12-18 |
# (参考訳) 3次元デジタル画像相関を用いたコンピュータビジョンによる構造物のトモグラフィー Computer Vision based Tomography of Structures Using 3D Digital Image Correlation ( http://arxiv.org/abs/2012.10516v1 ) ライセンス: CC0 1.0 | Mehrdad Shafiei Dizaji, Devin Harris | (参考訳) 試料の内部特性は、材料密度や化学組成の変化に依存する超音波装置、磁気共鳴画像(mri)、光コヒーレンス断層撮影(oct)などの医用イメージングツールによって観察することができる [1-21]。
本研究では, 三次元不均一試料の弾性率分布の相違から推定される内部欠陥を, 局所的均一性や弾性率分布の仮定を伴わずに, 逆最適化アルゴリズムとしての有限要素モデル更新のみで検出できる可能性について検討した。
近年, 著者らは, フルスケール鋼部品の構成特性同定におけるフルフィールド計測として, ディジタル画像相関技術を活用している[22-27]。
先行研究の延長に向けて,本稿では,構造同定のための3次元ディジタル画像相関を用いた構造成分の3次元不均質空間の内部における不審な体積欠陥分布の復元を目的とした新しい考え方 [28-57] について述べる。
概念実証として,提案するコンピュータビジョン技術により,見えない内部欠陥を識別する可能性を示し,内部異種材料を機械的特性分布と条件状態に特徴付ける新たな機会を見出した。 Internal properties of a sample can be observed by medical imaging tools, such as ultrasound devices, magnetic resonance imaging (MRI) and optical coherence tomography (OCT) which are based on relying on changes in material density or chemical composition [1-21]. As a preliminary investigation, the feasibility to detect interior defects inferred from the discrepancy in elasticity modulus distribution of a three-dimensional heterogeneous sample using only surface full-field measurements and finite element model updating as an inverse optimization algorithm without any assumption about local homogeneities and also the elasticity modulus distribution is investigated. Recently, the authors took advantages of the digital image correlation technique as a full field measurement in constitutive property identification of a full-scale steel component [22-27]. To the extension of previous works, in this brief technical note, the new idea intended at recovering unseen volumetric defect distributions within the interior of three-dimensional heterogeneous space of the structural component using 3D-Digital Image Correlation for structural identification [28-57]. As a proof of concept, the results of this paper illustrate the potential to identify invisible internal defect by the proposed computer vision technique establishes the potential for new opportunities to characterize internal heterogeneous materials for their mechanical property distribution and condition state. | 翻訳日:2021-05-01 19:35:35 公開日:2020-12-18 |
# (参考訳) 空間不確実性モデリングによる人間の3次元キーポイント Human 3D keypoints via spatial uncertainty modeling ( http://arxiv.org/abs/2012.10518v1 ) ライセンス: CC BY 4.0 | Francis Williams, Or Litany, Avneesh Sud, Kevin Swersky, Andrea Tagliasacchi | (参考訳) 本稿では,キーポイントの空間的不確実性の概念を直接モデル化する3次元人間のキーポイント推定手法を提案する。
本手法は,ロバスト統計学の手法に触発された空間的不確かさをモデル化する原理的手法を用いる。
さらに、パイプラインには3D地上の真理ラベルは必要とせず、代わりに2D画像レベルのキーポイントに依存しています。
提案手法は,Human3.6mにおける最先端性能を効率よく評価し,簡便に実現する。 We introduce a technique for 3D human keypoint estimation that directly models the notion of spatial uncertainty of a keypoint. Our technique employs a principled approach to modelling spatial uncertainty inspired from techniques in robust statistics. Furthermore, our pipeline requires no 3D ground truth labels, relying instead on (possibly noisy) 2D image-level keypoints. Our method achieves near state-of-the-art performance on Human3.6m while being efficient to evaluate and straightforward to | 翻訳日:2021-05-01 19:26:31 公開日:2020-12-18 |
# (参考訳) 簡易理論を用いた物理誘導機械学習 Physics guided machine learning using simplified theories ( http://arxiv.org/abs/2012.13343v1 ) ライセンス: CC BY 4.0 | Suraj Pawar, Omer San, Burak Aksoylu, Adil Rasheed, Trond Kvamsdal | (参考訳) 機械学習、特にディープラーニングの最近の応用は、物理科学における統計的推論アプローチの一般化可能性に対処する必要性を動機付けている。
本稿では,データ駆動予測エンジンの精度向上を目的とした,モジュラー物理誘導機械学習フレームワークを提案する。
我々のアプローチの主なアイデアは、単純化された理論の知識を基礎となる学習プロセスで強化することである。
それらの物理的重要性を強調するため、アーキテクチャは入力層ではなく中間層に特定の機能を追加する。
本手法を実証するために, ポテンシャル流理論の強化により, 標準翼空力問題を選択する。
学習手順において,未確認構成に対して効率的に計算できるパネル法で得られた特徴を含む。
一般化可能性の問題に対処することで,提案手法が多くの科学的機械学習アプリケーション,特に理論的,経験的,あるいは単純化されたモデルを用いて学習モジュールを導くシステムにおいて効果的に利用できることを示唆する。 Recent applications of machine learning, in particular deep learning, motivate the need to address the generalizability of the statistical inference approaches in physical sciences. In this letter, we introduce a modular physics guided machine learning framework to improve the accuracy of such data-driven predictive engines. The chief idea in our approach is to augment the knowledge of the simplified theories with the underlying learning process. To emphasise on their physical importance, our architecture consists of adding certain features at intermediate layers rather than in the input layer. To demonstrate our approach, we select a canonical airfoil aerodynamic problem with the enhancement of the potential flow theory. We include features obtained by a panel method that can be computed efficiently for an unseen configuration in our training procedure. By addressing the generalizability concerns, our results suggest that the proposed feature enhancement approach can be effectively used in many scientific machine learning applications, especially for the systems where we can use a theoretical, empirical, or simplified model to guide the learning module. | 翻訳日:2021-05-01 19:19:18 公開日:2020-12-18 |
# (参考訳) グラフ表現学習とトップk類似度尺度を用いた生体医学知識グラフの洗練・完成 Biomedical Knowledge Graph Refinement and Completion using Graph Representation Learning and Top-K Similarity Measure ( http://arxiv.org/abs/2012.10540v1 ) ライセンス: CC BY 4.0 | Islam Akef Ebeid, Majdi Hassan, Tingyi Wanyan, Jack Roper, Abhik Seal, Ying Ding | (参考訳) 知識グラフは異種データソースを統合するための基本的な方法の1つだ。
異種データソースの統合は、特にバイオメディカル領域において重要であり、薬物発見のような中心的なデータ駆動タスクは、異なるバイオメディカルデータベースの情報を統合することに依存する。
これらのデータベースには、タンパク質(PDB)、遺伝子(遺伝子オントロジー)、薬物(DrugBank)、疾患(DDB)、タンパク質-タンパク質相互作用(BioGRID)など様々な生物学的実体と関係がある。
不均一な生物医学データベースを意味的に統合するプロセスには、しばしば不完全さが伴う。
データ駆動型薬物発見の品質は、使用される採掘方法の精度とデータの品質にも依存している。
したがって、完全かつ洗練されたバイオメディカル知識グラフを持つことは、より正確な薬物発見結果を達成するための中心となる。
本稿では、最新のグラフ表現学習と埋め込みモデルを用いて、バイオメディカル知識グラフの洗練と完全化を提案する。
この予備的な研究は、統合バイオメディカル知識グラフChem2Bio2RD[3]の学習離散表現を示す。
学習された埋め込みベクトル間の単純なトップkコサイン類似度尺度を用いて,知識グラフの補完・精細化タスクを行い,データに存在する薬物と標的間の欠落リンクを予測する。
リンク予測において,この単純な手続きをバイナリ分類器に代えて使用できることを示す。 Knowledge Graphs have been one of the fundamental methods for integrating heterogeneous data sources. Integrating heterogeneous data sources is crucial, especially in the biomedical domain, where central data-driven tasks such as drug discovery rely on incorporating information from different biomedical databases. These databases contain various biological entities and relations such as proteins (PDB), genes (Gene Ontology), drugs (DrugBank), diseases (DDB), and protein-protein interactions (BioGRID). The process of semantically integrating heterogeneous biomedical databases is often riddled with imperfections. The quality of data-driven drug discovery relies on the accuracy of the mining methods used and the data's quality as well. Thus, having complete and refined biomedical knowledge graphs is central to achieving more accurate drug discovery outcomes. Here we propose using the latest graph representation learning and embedding models to refine and complete biomedical knowledge graphs. This preliminary work demonstrates learning discrete representations of the integrated biomedical knowledge graph Chem2Bio2RD [3]. We perform a knowledge graph completion and refinement task using a simple top-K cosine similarity measure between the learned embedding vectors to predict missing links between drugs and targets present in the data. We show that this simple procedure can be used alternatively to binary classifiers in link prediction. | 翻訳日:2021-05-01 19:07:17 公開日:2020-12-18 |
# (参考訳) 肯定的アルゴリズム:公正を意識する法的根拠 Affirmative Algorithms: The Legal Grounds for Fairness as Awareness ( http://arxiv.org/abs/2012.14285v1 ) ライセンス: CC BY 4.0 | Daniel E. Ho and Alice Xiang | (参考訳) アルゴリズム的公正性の研究は盛んに行われているが、現代の反差別法はそのような手法の採用を禁止している。
我々は3つの貢献をした。
まず,このようなアプローチが「自己肯定的行動」と見なされる可能性について議論し,特に高等教育法学において,平等保護を侵害する重大な法的リスクを提起する。
このようなケースは次第に反分類へと変わり、「個別の考慮」を要求し、目的に関係なく正式な量的重み付けを禁止している。
したがって、このケース法則は、機械学習における公平性と根本的に相容れない。
第2に,これらの事例は,俳優の歴史的差別に基づく明示的かつ定量的な人種ベースの救済を許容するため,政府契約の事例は,アルゴリズム的公平性に対する代替的根拠を提供すると主張する。
第3に、このドクトリナルアプローチはアルゴリズムの公平性の将来を導くもので、今日の格差を引き起こす歴史的差別に対するエンティティの責任に合わせて調整を行うことを義務付けている。
請負業者のケースは、現在の憲法ドクトリンの下でアルゴリズムの公平性に対して法的に実行可能な経路を提供するが、バイアス緩和が特定の原因とバイアスのメカニズムに合わせたものであることを保証するために、アルゴリズムの公平性と因果推論の交点におけるさらなる研究を要求する。 While there has been a flurry of research in algorithmic fairness, what is less recognized is that modern antidiscrimination law may prohibit the adoption of such techniques. We make three contributions. First, we discuss how such approaches will likely be deemed "algorithmic affirmative action," posing serious legal risks of violating equal protection, particularly under the higher education jurisprudence. Such cases have increasingly turned toward anticlassification, demanding "individualized consideration" and barring formal, quantitative weights for race regardless of purpose. This case law is hence fundamentally incompatible with fairness in machine learning. Second, we argue that the government-contracting cases offer an alternative grounding for algorithmic fairness, as these cases permit explicit and quantitative race-based remedies based on historical discrimination by the actor. Third, while limited, this doctrinal approach also guides the future of algorithmic fairness, mandating that adjustments be calibrated to the entity's responsibility for historical discrimination causing present-day disparities. The contractor cases provide a legally viable path for algorithmic fairness under current constitutional doctrine but call for more research at the intersection of algorithmic fairness and causal inference to ensure that bias mitigation is tailored to specific causes and mechanisms of bias. | 翻訳日:2021-05-01 18:56:54 公開日:2020-12-18 |
# TVQAデータセットにおけるモダリティバイアスについて On Modality Bias in the TVQA Dataset ( http://arxiv.org/abs/2012.10210v1 ) ライセンス: Link先を確認 | Thomas Winterbottom, Sarah Xiao, Alistair McLean, Noura Al Moubayed | (参考訳) TVQAは、人気のテレビ番組を基にした大規模ビデオ質問応答(ビデオQA)データセットである。
質問は「答えるために視覚と言語理解の両方を必要とする」よう特別に設計された。
本研究では,テキスト字幕モダリティに対するデータセットに固有のバイアスを示す。
特に、字幕で訓練されたモデルが平均して学習し、ビデオ機能への貢献を抑制することを発見した。
その結果,視覚情報のみに基づいてトレーニングしたモデルでは,質問の45%程度が解答可能であり,字幕のみを使用すれば約68%が解答できることがわかった。
モダリティの共役表現に基づく双線型プーリングは、モダリティ固有情報に依存する9%のモデル性能を損なうことが判明した。
また,テレビQAは,VQAで普及したRUBiモダリティバイアス低減手法の恩恵を受けないことを示す。
BERT埋め込みによるテキスト処理をTVQAで最初に提案した単純なモデルで簡単に改善することにより、非常に複雑なSTAGEモデル(70.50%)と比較して、最先端の結果(72.13%)が得られる。
我々は、モデルのバイアスを強調し、データの視覚およびテキスト依存部分集合を分離できるマルチモーダル評価フレームワークを推奨する。
本フレームワークを用いて,TVQAを意図したマルチモーダルモデリングを容易にするために,TVQAのサブセットを提案する。 TVQA is a large scale video question answering (video-QA) dataset based on popular TV shows. The questions were specifically designed to require "both vision and language understanding to answer". In this work, we demonstrate an inherent bias in the dataset towards the textual subtitle modality. We infer said bias both directly and indirectly, notably finding that models trained with subtitles learn, on-average, to suppress video feature contribution. Our results demonstrate that models trained on only the visual information can answer ~45% of the questions, while using only the subtitles achieves ~68%. We find that a bilinear pooling based joint representation of modalities damages model performance by 9% implying a reliance on modality specific information. We also show that TVQA fails to benefit from the RUBi modality bias reduction technique popularised in VQA. By simply improving text processing using BERT embeddings with the simple model first proposed for TVQA, we achieve state-of-the-art results (72.13%) compared to the highly complex STAGE model (70.50%). We recommend a multimodal evaluation framework that can highlight biases in models and isolate visual and textual reliant subsets of data. Using this framework we propose subsets of TVQA that respond exclusively to either or both modalities in order to facilitate multimodal modelling as TVQA originally intended. | 翻訳日:2021-05-01 18:27:35 公開日:2020-12-18 |
# マルチモーダル機械翻訳のための効率的なオブジェクトレベルのビジュアルコンテキストモデリング:無関係オブジェクトのマスキングは接地に役立つ Efficient Object-Level Visual Context Modeling for Multimodal Machine Translation: Masking Irrelevant Objects Helps Grounding ( http://arxiv.org/abs/2101.05208v1 ) ライセンス: Link先を確認 | Dexin Wang and Deyi Xiong | (参考訳) ビジュアルコンテキストはマルチモーダル機械翻訳(MMT)の基盤情報を提供する。
しかし、従来のMTモデルと視覚的特徴の探索研究は、視覚情報はテキスト情報に冗長であることが多いため、MTでは探索されないことを示唆している。
本稿では,マルチモーダル機械翻訳のための視覚情報を効率的に捉え,探索するためのオブジェクト指向ビジュアルコンテキストモデリングフレームワーク(ovc)を提案する。
検出対象により、提案したOVCは、視覚的モダリティにおいて無関係な物体をマスキングすることにより、MMTが望ましい視覚オブジェクトの翻訳を行うように促す。
我々は、この目標を達成するために、提案する追加のオブジェクトマスキング損失を装備する。
マスクされたオブジェクトとソーステキストとの類似性に応じて、オブジェクトマスキング損失を推定し、マスキングソース非関連オブジェクトを奨励する。
さらに、視覚に一貫性のあるターゲット語を生成するために、OVCに対して視覚強調翻訳損失を提案する。
MMTデータセットの実験では、提案したOVCモデルが最先端のMTTモデルより優れており、無関係な物体のマスキングがMTTの接地に役立つことが示されている。 Visual context provides grounding information for multimodal machine translation (MMT). However, previous MMT models and probing studies on visual features suggest that visual information is less explored in MMT as it is often redundant to textual information. In this paper, we propose an object-level visual context modeling framework (OVC) to efficiently capture and explore visual information for multimodal machine translation. With detected objects, the proposed OVC encourages MMT to ground translation on desirable visual objects by masking irrelevant objects in the visual modality. We equip the proposed with an additional object-masking loss to achieve this goal. The object-masking loss is estimated according to the similarity between masked objects and the source texts so as to encourage masking source-irrelevant objects. Additionally, in order to generate vision-consistent target words, we further propose a vision-weighted translation loss for OVC. Experiments on MMT datasets demonstrate that the proposed OVC model outperforms state-of-the-art MMT models and analyses show that masking irrelevant objects helps grounding in MMT. | 翻訳日:2021-05-01 18:27:12 公開日:2020-12-18 |
# テキスト変換器と強化学習を用いたフルーレントクエリ再構成の探索 Exploring Fluent Query Reformulations with Text-to-Text Transformers and Reinforcement Learning ( http://arxiv.org/abs/2012.10033v1 ) ライセンス: Link先を確認 | Jerry Zikun Chen, Shi Yu, Haoran Wang | (参考訳) クエリ再構成は、潜在的にノイズや曖昧なテキストシーケンスを、自然言語の質問に近い一貫性のあるものに変更することを目的としている。
このプロセスでは、リプレースされたクエリを入力として与えたときの質問応答のような下流環境におけるパフォーマンスの維持と向上も重要です。
そこで本研究では,テキストからテキストへのトランスフォーマーを用いた再編成者を訓練し,ポリシーに基づく強化学習アルゴリズムを適用し,報酬学習をさらに促進する手法を提案する。
クエリフルーエンシは、人間の評価した良質なデータセットに基づいて微調整された同じモデルのクラスによって数値的に評価される。
トランスファーラーニングから得られた言語知識を活用し、定性的および定量的分析において翻訳に基づくモデルよりも、より良く形成された再構成を生成する。
強化学習中は、RLの目的を最適化して質問応答報酬を取得し、質的評価においてサンプル外テキストデータに一般化する。
我々のRLフレームワークはフレキシブルであることを示し、インテント分類などの下流環境から報奨信号を発生させることができる。 Query reformulation aims to alter potentially noisy or ambiguous text sequences into coherent ones closer to natural language questions. In this process, it is also crucial to maintain and even enhance performance in a downstream environments like question answering when rephrased queries are given as input. We explore methods to generate these query reformulations by training reformulators using text-to-text transformers and apply policy-based reinforcement learning algorithms to further encourage reward learning. Query fluency is numerically evaluated by the same class of model fine-tuned on a human-evaluated well-formedness dataset. The reformulator leverages linguistic knowledge obtained from transfer learning and generates more well-formed reformulations than a translation-based model in qualitative and quantitative analysis. During reinforcement learning, it better retains fluency while optimizing the RL objective to acquire question answering rewards and can generalize to out-of-sample textual data in qualitative evaluations. Our RL framework is demonstrated to be flexible, allowing reward signals to be sourced from different downstream environments such as intent classification. | 翻訳日:2021-05-01 18:26:52 公開日:2020-12-18 |
# フーリエ特徴ネットワークの固有ベクトルバイアスについて:物理インフォームドニューラルネットワークを用いた多スケールPDEの回帰から解法へ On the eigenvector bias of Fourier feature networks: From regression to solving multi-scale PDEs with physics-informed neural networks ( http://arxiv.org/abs/2012.10047v1 ) ライセンス: Link先を確認 | Sifan Wang, Hanwen Wang, Paris Perdikaris | (参考訳) 物理インフォームドニューラルネットワーク(PINN)は、物理モデルと余分でノイズの多い観測データを統合するという、目覚ましい将来性を示しているが、それでも、近似されるターゲット関数が高周波またはマルチスケールの特徴を示す場合に苦戦している。
本研究では,この限界を神経接核(ntk)理論のレンズを通して検討し,ピンが支配的固有方向に沿って学習関数にどのように偏っているかを解明する。
この観測により、時空間およびマルチスケールのランダムフーリエ特徴を用いた新しいアーキテクチャを構築し、そのような座標埋め込み層が堅牢かつ正確なPINNモデルにどのように寄与するかを正当化する。
波動伝播や反応拡散ダイナミクスなど,従来のピンモデルが故障したいくつかの問題に対して,提案手法が多スケールの偏微分方程式を含む前方および逆問題に対して効果的に対処できることを示す数値例が提示されている。
この原稿に付随するデータはすべて、 \url{https://github.com/PredictiveIntelligenceLab/MultiscalePINNs} で公開されている。 Physics-informed neural networks (PINNs) are demonstrating remarkable promise in integrating physical models with gappy and noisy observational data, but they still struggle in cases where the target functions to be approximated exhibit high-frequency or multi-scale features. In this work we investigate this limitation through the lens of Neural Tangent Kernel (NTK) theory and elucidate how PINNs are biased towards learning functions along the dominant eigen-directions of their limiting NTK. Using this observation, we construct novel architectures that employ spatio-temporal and multi-scale random Fourier features, and justify how such coordinate embedding layers can lead to robust and accurate PINN models. Numerical examples are presented for several challenging cases where conventional PINN models fail, including wave propagation and reaction-diffusion dynamics, illustrating how the proposed methods can be used to effectively tackle both forward and inverse problems involving partial differential equations with multi-scale behavior. All code an data accompanying this manuscript will be made publicly available at \url{https://github.com/PredictiveIntelligenceLab/MultiscalePINNs}. | 翻訳日:2021-05-01 18:26:36 公開日:2020-12-18 |
# MASSIVE:多次元楽器変数モデルのトラクタブルおよびロバストベイズ学習 MASSIVE: Tractable and Robust Bayesian Learning of Many-Dimensional Instrumental Variable Models ( http://arxiv.org/abs/2012.10141v1 ) ライセンス: Link先を確認 | Ioan Gabriel Bucur, Tom Claassen and Tom Heskes | (参考訳) 最近のゲノムワイドアソシエーション研究(gwas)のような、巨大で多次元のデータセットは、因果推論を強化する多くの機会を提供している。
一般的なアプローチの1つは、これらの多次元測定を機器変数(インストゥルメント)として、他の変数間の因果効果推定を改善することである。
残念なことに、多次元の候補集合における適切な機器の探索は、難解なモデル空間と、これらの候補のどれが妥当であるかを直接テストできないことによる厄介な作業である。
我々は,少なくとも一部の候補が (近い) 有効である限り, 先行する候補を知らずに, 集合的に目標との相互作用に十分な制限を課して, 信頼できる因果効果推定が得られることを示す。
本稿では,最も有望な多次元インスツルメンタル変数モデルに対してベイズモデル平均化を行うことにより,モデル不確実性を考慮に入れた汎用的で効率的な因果推論アルゴリズムを提案する。
シミュレーションおよび実世界のデータを用いた実験結果により, アルゴリズムの効率性, 堅牢性, 予測性能を示す。 The recent availability of huge, many-dimensional data sets, like those arising from genome-wide association studies (GWAS), provides many opportunities for strengthening causal inference. One popular approach is to utilize these many-dimensional measurements as instrumental variables (instruments) for improving the causal effect estimate between other pairs of variables. Unfortunately, searching for proper instruments in a many-dimensional set of candidates is a daunting task due to the intractable model space and the fact that we cannot directly test which of these candidates are valid, so most existing search methods either rely on overly stringent modeling assumptions or fail to capture the inherent model uncertainty in the selection process. We show that, as long as at least some of the candidates are (close to) valid, without knowing a priori which ones, they collectively still pose enough restrictions on the target interaction to obtain a reliable causal effect estimate. We propose a general and efficient causal inference algorithm that accounts for model uncertainty by performing Bayesian model averaging over the most promising many-dimensional instrumental variable models, while at the same time employing weaker assumptions regarding the data generating process. We showcase the efficiency, robustness and predictive performance of our algorithm through experimental results on both simulated and real-world data. | 翻訳日:2021-05-01 18:26:16 公開日:2020-12-18 |
# ビデオQAにおけるバイリニアプールの試み Trying Bilinear Pooling in Video-QA ( http://arxiv.org/abs/2012.10285v1 ) ライセンス: Link先を確認 | Thomas Winterbottom, Sarah Xiao, Alistair McLean, Noura Al Moubayed | (参考訳) BLP(Bilinear pooling)は、VQAモデルのために開発された様々なモードから特徴を融合させるために最近開発された演算系である。
双線型(外部積)拡張は、モデルが2つの特徴空間間の相互作用を学習することを奨励し、VQAベンチマーク上での'simpler'ベクトル演算(結合と要素ワイド付加/乗法)を実験的に上回ったと考えられている。
逐次的BLP技術は計算コストを下げて高い性能をもたらし、しばしば注意機構と共に実装されている。
しかしながら、VQAの大幅な進歩にもかかわらず、BLP法はより最近のビデオ質問応答(ビデオQA)タスクには広く適用されていない。
本稿では,この研究ギャップをTVQA, TGIF-QA, Ego-VQA, MSVD-QAといった様々なビデオQAベンチマークに適用することによって埋める。
我々は,tvqaベースラインモデルと,最近提案されているヘテロジニアスメモリ型マルチモーダルアテンション(hme)モデルについて結果を共有する。
我々の実験は、既存のモデルにおける特徴連結をBLPに置き換えることと、BLPに対応するためのTVQAベースラインの修正版「Dual-stream」モデルの両方を含む。
比較的単純なBLP統合では、これらのビデオQAベンチマークのパフォーマンスは向上せず、ほとんど損なわれない。
最近提案された理論的マルチモーダル融合分類法を用いて、ビデオQAベンチマークにおけるBLP駆動のパフォーマンス向上が、以前のVQAモデルよりも困難であることを示す。
ビデオQAにBLPを適用する際に考慮すべき「ベストプラクティス」をいくつか提案する。
我々は,ビデオQAモデルにおいて,「冗長」融合の計算コストを回避するために,BLPからの複雑な表現ポテンシャルが実際に必要となる場所を慎重に検討する必要があることを強調する。 Bilinear pooling (BLP) refers to a family of operations recently developed for fusing features from different modalities predominantly developed for VQA models. A bilinear (outer-product) expansion is thought to encourage models to learn interactions between two feature spaces and has experimentally outperformed `simpler' vector operations (concatenation and element-wise-addition/multiplication) on VQA benchmarks. Successive BLP techniques have yielded higher performance with lower computational expense and are often implemented alongside attention mechanisms. However, despite significant progress in VQA, BLP methods have not been widely applied to more recently explored video question answering (video-QA) tasks. In this paper, we begin to bridge this research gap by applying BLP techniques to various video-QA benchmarks, namely: TVQA, TGIF-QA, Ego-VQA and MSVD-QA. We share our results on the TVQA baseline model, and the recently proposed heterogeneous-memory-enchanced multimodal attention (HME) model. Our experiments include both simply replacing feature concatenation in the existing models with BLP, and a modified version of the TVQA baseline to accommodate BLP we name the `dual-stream' model. We find that our relatively simple integration of BLP does not increase, and mostly harms, performance on these video-QA benchmarks. Using recently proposed theoretical multimodal fusion taxonomies, we offer insight into why BLP-driven performance gain for video-QA benchmarks may be more difficult to achieve than in earlier VQA models. We suggest a few additional `best-practices' to consider when applying BLP to video-QA. We stress that video-QA models should carefully consider where the complex representational potential from BLP is actually needed to avoid computational expense on `redundant' fusion. | 翻訳日:2021-05-01 18:25:52 公開日:2020-12-18 |
# stnet: クラウドカウントのためのマルチレベルアクシリエータを備えたスケールツリーネットワーク STNet: Scale Tree Network with Multi-level Auxiliator for Crowd Counting ( http://arxiv.org/abs/2012.10189v1 ) ライセンス: Link先を確認 | Mingjie Wang, Hao Cai, Xianfeng Han, Jun Zhou, Minglun Gong | (参考訳) 大規模なスケールの変動、密度の不整合、複雑なバックグラウンドの存在は、カウントの精度を著しく低下させる可能性があるため、群衆カウントは依然として難しい課題である。
そこで本研究では, 精度低下問題に対処するために, スケールツリーネットワーク (stnet) と呼ばれる新しい強力なネットワークを提案する。
STNetは、Scale-Tree Diversity EnhancerとSemi-supervised Multi-level Auxiliatorの2つの重要なコンポーネントで構成されている。
具体的には、ダイバーシティエンハンサーは、スケールのレベル不足による既存の方法の制限を緩和する、スケールの多様性を強化するように設計されている。
階層的に粗大な群集領域を解析する新しい木構造を採用する。
さらに,複数レベルの共通特性を利用して,より正確な背景認識を実現するため,単純で効果的なマルチレベル補助器を提案する。
stnet全体は、メインタスクと補助タスクの間の損失重みを手動でチューニングする必要なしに、エンドツーエンドでトレーニングされる。
4つの挑戦的な群集データセットに対する大規模な実験により,提案手法の優位性を示した。 Crowd counting remains a challenging task because the presence of drastic scale variation, density inconsistency, and complex background can seriously degrade the counting accuracy. To battle the ingrained issue of accuracy degradation, we propose a novel and powerful network called Scale Tree Network (STNet) for accurate crowd counting. STNet consists of two key components: a Scale-Tree Diversity Enhancer and a Semi-supervised Multi-level Auxiliator. Specifically, the Diversity Enhancer is designed to enrich scale diversity, which alleviates limitations of existing methods caused by insufficient level of scales. A novel tree structure is adopted to hierarchically parse coarse-to-fine crowd regions. Furthermore, a simple yet effective Multi-level Auxiliator is presented to aid in exploiting generalisable shared characteristics at multiple levels, allowing more accurate pixel-wise background cognition. The overall STNet is trained in an end-to-end manner, without the needs for manually tuning loss weights between the main and the auxiliary tasks. Extensive experiments on four challenging crowd datasets demonstrate the superiority of the proposed method. | 翻訳日:2021-05-01 18:25:23 公開日:2020-12-18 |
# 新型コロナウイルス臨床治験のための注意型LSTMネットワーク Attention-Based LSTM Network for COVID-19 Clinical Trial Parsing ( http://arxiv.org/abs/2012.10063v1 ) ライセンス: Link先を確認 | Xiong Liu, Luca A. Finelli, Greg L. Hersch, Iya Khalil | (参考訳) 新型コロナウイルス(COVID-19)の予防と治療のための治療を開発する上で、臨床試験のデザインは重要な課題である。
本研究では, 試験設計と最適化の定量的分析を可能にするために, 新型コロナウイルスの治験から資格基準変数を抽出する深層学習手法を適用した。
具体的には,注意に基づく双方向長期短期記憶モデル(att-bilstm)を訓練し,その最適モデルを用いてcovid-19臨床試験の適格性基準から実体(変数)を抽出する。
Att-BiLSTMの性能を従来のオントロジー法と比較した。
ベンチマークデータセットの結果から、Att-BiLSTMはオントロジーモデルよりも優れています。
Att-BiLSTMは0.942の精度、0.810のリコール、0.871のF1の精度、オントロジーモデルは0.715の精度、0.659のリコール、0.686のF1の精度しか達成していない。
Att-BiLSTMは, 新型コロナウイルスの臨床試験において, 患者を特徴付けるための効果的なアプローチである。 COVID-19 clinical trial design is a critical task in developing therapeutics for the prevention and treatment of COVID-19. In this study, we apply a deep learning approach to extract eligibility criteria variables from COVID-19 trials to enable quantitative analysis of trial design and optimization. Specifically, we train attention-based bidirectional Long Short-Term Memory (Att-BiLSTM) models and use the optimal model to extract entities (i.e., variables) from the eligibility criteria of COVID-19 trials. We compare the performance of Att-BiLSTM with traditional ontology-based method. The result on a benchmark dataset shows that Att-BiLSTM outperforms the ontology model. Att-BiLSTM achieves a precision of 0.942, recall of 0.810, and F1 of 0.871, while the ontology model only achieves a precision of 0.715, recall of 0.659, and F1 of 0.686. Our analyses demonstrate that Att-BiLSTM is an effective approach for characterizing patient populations in COVID-19 clinical trials. | 翻訳日:2021-05-01 18:25:05 公開日:2020-12-18 |
# 翻訳の理解とドメイン理解のためのトランスフォーマー Understood in Translation, Transformers for Domain Understanding ( http://arxiv.org/abs/2012.10271v1 ) ライセンス: Link先を確認 | Dimitrios Christofidellis, Matteo Manica, Leonidas Georgopoulos, Hans Vandierendonck | (参考訳) 知識獲得は知識グラフ(KG)アプリケーションにとって不可欠な第一歩である。
この知識は所定のコーパス(kg生成プロセス)から抽出するか、既存のkg(kg特定プロセス)から特定することができる。
ドメイン固有のソリューションに焦点を当てた知識獲得は、通常、主題の専門家によって編成され、監督される労働集約的なタスクです。
具体的には、通常、関心領域は手動で定義され、必要な生成または抽出ツールを使用してKGを生成する。
本稿では,コーパスのドメイン定義のためのトランスフォーマーに基づく教師付き機械学習手法を提案する。
このようなドメイン構造の自動定義が、生成したグラフの構成時間と品質の両方において有益である理由を論じる。
提案手法は3つの公開データセット(WebNLG, NYT, DocRED)に対して,CNNモデルとRNNモデルに基づく2つの参照手法との比較により広く検証されている。
評価は、このタスクにおける我々のモデルの効率を示す。
学術文献理解に焦点をあて,PubMedから抽出した論文を基にした新たな健康領域データセットを提案する。
最後に、この作業が、完全に自動化され、教師なしのkg生成の基盤となることを実証する。 Knowledge acquisition is the essential first step of any Knowledge Graph (KG) application. This knowledge can be extracted from a given corpus (KG generation process) or specified from an existing KG (KG specification process). Focusing on domain specific solutions, knowledge acquisition is a labor intensive task usually orchestrated and supervised by subject matter experts. Specifically, the domain of interest is usually manually defined and then the needed generation or extraction tools are utilized to produce the KG. Herein, we propose a supervised machine learning method, based on Transformers, for domain definition of a corpus. We argue why such automated definition of the domain's structure is beneficial both in terms of construction time and quality of the generated graph. The proposed method is extensively validated on three public datasets (WebNLG, NYT and DocRED) by comparing it with two reference methods based on CNNs and RNNs models. The evaluation shows the efficiency of our model in this task. Focusing on scientific document understanding, we present a new health domain dataset based on publications extracted from PubMed and we successfully utilize our method on this. Lastly, we demonstrate how this work lays the foundation for fully automated and unsupervised KG generation. | 翻訳日:2021-05-01 18:24:44 公開日:2020-12-18 |
# EVA:条件付き変分オートエンコーダを用いた縦型電子健康記録の生成 EVA: Generating Longitudinal Electronic Health Records Using Conditional Variational Autoencoders ( http://arxiv.org/abs/2012.10020v1 ) ライセンス: Link先を確認 | Siddharth Biswal, Soumya Ghosh, Jon Duke, Bradley Malin, Walter Stewart and Jimeng Sun | (参考訳) 研究者は、医療の質と効率を改善する機械学習ソリューションの開発、テスト、検証、実装のために、現実世界の経時的電子健康記録(EHR)にタイムリーにアクセスする必要がある。
対照的に、医療システムは患者のプライバシーとデータセキュリティを深く重視する。
身元不明の EHR は、身元不明のデータは再身元不明になり、容積も制限されるため、健康システムのニーズに適切に対処しない。
合成EHRは潜在的な解決策を提供する。
本稿では,個別のEHR遭遇(例えば臨床訪問)と遭遇特徴(例えば,診断,薬品,処置)を合成するためのEVA(EHR Variational Autoencoder)を提案する。
EVA は現実的な EHR 配列を生成でき、患者間の個人差を考慮し、特定の疾患状況に適応できるので、疾患特異的な研究が可能になる。
確率的勾配マルコフ連鎖モンテカルロと不定形変分推論を組み合わせた効率的高精度な推論アルゴリズムを設計した。
我々は,250,000人以上の患者を含む大規模実世界のERHリポジトリにおける手法の有用性を評価した。
本研究は,知識豊富な臨床医によるユーザスタディを含め,ehrシーケンスの生成が現実的であることを示唆する。
合成データでトレーニングされた予測モデルの性能は実際のeersでトレーニングされたモデルと類似していることを確認した。
さらに, 合成EHRによる実データの増大は, 最高の予測性能をもたらすことが示唆され, 上位20回のリコールにおいて, 最大8%のベースライン改善が達成された。 Researchers require timely access to real-world longitudinal electronic health records (EHR) to develop, test, validate, and implement machine learning solutions that improve the quality and efficiency of healthcare. In contrast, health systems value deeply patient privacy and data security. De-identified EHRs do not adequately address the needs of health systems, as de-identified data are susceptible to re-identification and its volume is also limited. Synthetic EHRs offer a potential solution. In this paper, we propose EHR Variational Autoencoder (EVA) for synthesizing sequences of discrete EHR encounters (e.g., clinical visits) and encounter features (e.g., diagnoses, medications, procedures). We illustrate that EVA can produce realistic EHR sequences, account for individual differences among patients, and can be conditioned on specific disease conditions, thus enabling disease-specific studies. We design efficient, accurate inference algorithms by combining stochastic gradient Markov Chain Monte Carlo with amortized variational inference. We assess the utility of the methods on large real-world EHR repositories containing over 250, 000 patients. Our experiments, which include user studies with knowledgeable clinicians, indicate the generated EHR sequences are realistic. We confirmed the performance of predictive models trained on the synthetic data are similar with those trained on real EHRs. Additionally, our findings indicate that augmenting real data with synthetic EHRs results in the best predictive performance - improving the best baseline by as much as 8% in top-20 recall. | 翻訳日:2021-05-01 18:24:23 公開日:2020-12-18 |
# RAILS:ロバストな対人免疫誘発学習システム RAILS: A Robust Adversarial Immune-inspired Learning System ( http://arxiv.org/abs/2012.10485v1 ) ライセンス: Link先を確認 | Ren Wang, Tianqi Chen, Stephen Lindsly, Alnawaz Rehemtulla, Alfred Hero, Indika Rajapakse | (参考訳) ディープニューラルネットワークに対する敵対的攻撃は継続的に進化している。
効果的な防御がなければ、壊滅的な失敗につながる可能性がある。
長年、そして間違いなく最も強力な天然防衛システムは哺乳類の免疫システムであり、何百万年も前から新しい病原体による攻撃を防いできた。
本稿では,Robust Adversarial Immune-inspired Learning System (RAILS) と呼ばれる,新たな対人防御フレームワークを提案する。
RAILSにはアダプティブ免疫系エミュレーション(Adaptive Immune System Emulation、AISE)が組み込まれており、病原体による攻撃から宿主を守るための生物学的メカニズムをシリコでエミュレートする。
我々はRAILSを用いて、ディープk-Nearest Neighbor(DkNN)アーキテクチャをエスケープ攻撃に対して強化する。
進化的プログラミングは、B細胞凝集、クローン伸長、親和性成熟といった自然免疫系の過程をシミュレートするために用いられる。
RAILS学習曲線は, 生体内実験で観察されたように, 多様性選択学習フェーズを示す。
3つの異なるデータセットの逆画像分類に適用すると、RAILSはクリーンなデータに精度を損なうことなく、DkNNのみを適用することと比較して、さらに5.62%/12.56%/4.74%の堅牢性向上を提供する。 Adversarial attacks against deep neural networks are continuously evolving. Without effective defenses, they can lead to catastrophic failure. The long-standing and arguably most powerful natural defense system is the mammalian immune system, which has successfully defended against attacks by novel pathogens for millions of years. In this paper, we propose a new adversarial defense framework, called the Robust Adversarial Immune-inspired Learning System (RAILS). RAILS incorporates an Adaptive Immune System Emulation (AISE), which emulates in silico the biological mechanisms that are used to defend the host against attacks by pathogens. We use RAILS to harden Deep k-Nearest Neighbor (DkNN) architectures against evasion attacks. Evolutionary programming is used to simulate processes in the natural immune system: B-cell flocking, clonal expansion, and affinity maturation. We show that the RAILS learning curve exhibits similar diversity-selection learning phases as observed in our in vitro biological experiments. When applied to adversarial image classification on three different datasets, RAILS delivers an additional 5.62%/12.56%/4.74% robustness improvement as compared to applying DkNN alone, without appreciable loss of accuracy on clean data. | 翻訳日:2021-05-01 18:23:57 公開日:2020-12-18 |
# 多エージェントスポーツにおける軌跡予測のためのグラフ注意に基づくアプローチ A Graph Attention Based Approach for Trajectory Prediction in Multi-agent Sports Games ( http://arxiv.org/abs/2012.10531v1 ) ライセンス: Link先を確認 | Ding Ding and H. Howie Huang | (参考訳) 本研究では,複数エージェントの軌道予測問題について検討する。
以前のアプローチでは、調整されたエージェント間のきめ細かい依存関係をキャプチャする能力がなかった。
本論文では,複数の協調エージェントを持つチームの戦略を学習可能な時空間軌道予測手法を提案する。
特に,グラフに基づく注意モデルを用いてエージェントの依存性を学習する。
さらに,再帰的ネットワーク(例えばVRNN,LSTM)を利用する代わりに,時間的畳み込みネットワーク(TCN)を時系列モデルとして,長期有効履歴をサポートし,並列性や安定勾配などの重要な特徴を提供する。
バスケットボールとサッカーの2つの異なるスポーツゲームデータセットに対するアプローチの有効性と有効性を示す。
その結果, プレイヤーの依存度を推定するモデルでは, 関連する手法と比較して, 性能が大幅に向上することがわかった。
コードはhttps://github.com/iHeartGraph/predictで入手できる。 This work investigates the problem of multi-agents trajectory prediction. Prior approaches lack of capability of capturing fine-grained dependencies among coordinated agents. In this paper, we propose a spatial-temporal trajectory prediction approach that is able to learn the strategy of a team with multiple coordinated agents. In particular, we use graph-based attention model to learn the dependency of the agents. In addition, instead of utilizing the recurrent networks (e.g., VRNN, LSTM), our method uses a Temporal Convolutional Network (TCN) as the sequential model to support long effective history and provide important features such as parallelism and stable gradients. We demonstrate the validation and effectiveness of our approach on two different sports game datasets: basketball and soccer datasets. The result shows that compared to related approaches, our model that infers the dependency of players yields substantially improved performance. Code is available at https://github.com/iHeartGraph/predict | 翻訳日:2021-05-01 18:23:36 公開日:2020-12-18 |
# hatexplain:ヘイトスピーチ検出のためのベンチマークデータセット HateXplain: A Benchmark Dataset for Explainable Hate Speech Detection ( http://arxiv.org/abs/2012.10289v1 ) ライセンス: Link先を確認 | Binny Mathew, Punyajoy Saha, Seid Muhie Yimam, Chris Biemann, Pawan Goyal, and Animesh Mukherjee | (参考訳) ヘイトスピーチは、オンラインソーシャルメディアを悩ませる難しい問題だ。
ヘイトスピーチ検出のためのより良いモデルが継続的に開発されているが、ヘイトスピーチのバイアスと解釈可能性に関する研究はほとんどない。
本稿では,この問題の複数の側面をカバーする最初のベンチマークヘイトスピーチデータセットであるHateXplainを紹介する。
私たちのデータセットの各投稿は、3つの異なる視点から注釈付けされている: 基本的、一般的に使用される3つのクラス分類(ヘイト、攻撃的または正常)、対象のコミュニティ(投稿におけるヘイトスピーチ/攻撃的スピーチの犠牲者であるコミュニティ)、および理論的、すなわち、ラベル付け決定(ヘイト、攻撃的または正常)がベースとなっているポストの一部である。
既存の最先端モデルを用いて,分類に非常に優れたモデルであっても,モデルの信頼性や忠実性といった説明可能性指標を高く評価できないことを観察した。
また,人間的根拠をトレーニングに活用したモデルが,対象コミュニティに対する意図しないバイアスの軽減に有効であることも観察した。
コードとデータセットをhttps://github.com/punyajoy/HateXplainで公開しました。 Hate speech is a challenging issue plaguing the online social media. While better models for hate speech detection are continuously being developed, there is little research on the bias and interpretability aspects of hate speech. In this paper, we introduce HateXplain, the first benchmark hate speech dataset covering multiple aspects of the issue. Each post in our dataset is annotated from three different perspectives: the basic, commonly used 3-class classification (i.e., hate, offensive or normal), the target community (i.e., the community that has been the victim of hate speech/offensive speech in the post), and the rationales, i.e., the portions of the post on which their labelling decision (as hate, offensive or normal) is based. We utilize existing state-of-the-art models and observe that even models that perform very well in classification do not score high on explainability metrics like model plausibility and faithfulness. We also observe that models, which utilize the human rationales for training, perform better in reducing unintended bias towards target communities. We have made our code and dataset public at https://github.com/punyajoy/HateXplain | 翻訳日:2021-05-01 18:23:22 公開日:2020-12-18 |
# 低サンプリング率での視聴覚特徴量の時間的2線形符号化ネットワーク Temporal Bilinear Encoding Network of Audio-Visual Features at Low Sampling Rates ( http://arxiv.org/abs/2012.10283v1 ) ライセンス: Link先を確認 | Feiyan Hu, Eva Mohedano, Noel O'Connor and Kevin McGuinness | (参考訳) 現在のディープラーニングベースのビデオ分類アーキテクチャは、通常、大量のデータに対してエンドツーエンドで訓練され、広範な計算資源を必要とする。
本稿では,毎秒1フレームのサンプリングレートで映像分類における視覚情報を活用することを目的とする。
本稿では,バイリニアプールを用いた音声と視覚の長距離時間情報の両方を符号化するテンポラルバイリニア符号化ネットワーク(TBEN)を提案し,サンプリングレートの低いビデオの時間次元における平均プールよりもバイリニアプールの方が優れていることを示す。
また、TBENにラベル階層を組み込んで分類器の堅牢性をさらに向上させる。
TBENを用いたFGA240きめ細かい分類データセットの実験は、新しい最先端(hit@1=47.95%)を実現する。
1 FPSでサンプリングされたUCF101実験は、最先端の精度(hit@1=91.03%)に近づき、トレーニングと予測の両方において競合するアプローチよりも計算資源をはるかに少なくする。 Current deep learning based video classification architectures are typically trained end-to-end on large volumes of data and require extensive computational resources. This paper aims to exploit audio-visual information in video classification with a 1 frame per second sampling rate. We propose Temporal Bilinear Encoding Networks (TBEN) for encoding both audio and visual long range temporal information using bilinear pooling and demonstrate bilinear pooling is better than average pooling on the temporal dimension for videos with low sampling rate. We also embed the label hierarchy in TBEN to further improve the robustness of the classifier. Experiments on the FGA240 fine-grained classification dataset using TBEN achieve a new state-of-the-art (hit@1=47.95%). We also exploit the possibility of incorporating TBEN with multiple decoupled modalities like visual semantic and motion features: experiments on UCF101 sampled at 1 FPS achieve close to state-of-the-art accuracy (hit@1=91.03%) while requiring significantly less computational resources than competing approaches for both training and prediction. | 翻訳日:2021-05-01 18:22:16 公開日:2020-12-18 |
# 逆向き訓練された深部画像分類器の認識可能性現象について On the human-recognizability phenomenon of adversarially trained deep image classifiers ( http://arxiv.org/abs/2101.05219v1 ) ライセンス: Link先を確認 | Jonathan Helland, Nathan VanHoudnos | (参考訳) 本研究では,頑健な画像分類器が,評価関数の入力勾配とその後の逆方向の摂動を通じて,人間の認識可能な特徴を持つ現象を考察する。
特に,攻撃訓練における最先端の手法は,期待損失を最小化することで決定境界を定式化することと,局所リプシッツ定数をペナルティ化することにより分類器の判断面の滑らかさを誘導することの2つの用語を取り入れている。
この実演を通じて,先行研究における敵対的ロバスト性を促進するために,グラデーションとヤコビアンに基づく正則化の統一的な議論を行う。
この議論の後、我々は、上記の人間認識可能性現象を誘発するには、滑らかさと決定境界の向きの結合が十分であるという定性的証拠を与える。 In this work, we investigate the phenomenon that robust image classifiers have human-recognizable features -- often referred to as interpretability -- as revealed through the input gradients of their score functions and their subsequent adversarial perturbations. In particular, we demonstrate that state-of-the-art methods for adversarial training incorporate two terms -- one that orients the decision boundary via minimizing the expected loss, and another that induces smoothness of the classifier's decision surface by penalizing the local Lipschitz constant. Through this demonstration, we provide a unified discussion of gradient and Jacobian-based regularizers that have been used to encourage adversarial robustness in prior works. Following this discussion, we give qualitative evidence that the coupling of smoothness and orientation of the decision boundary is sufficient to induce the aforementioned human-recognizability phenomenon. | 翻訳日:2021-05-01 18:21:12 公開日:2020-12-18 |
# ウェーブレット特徴抽出と勾配増強決定木を用いた異常脳波信号の自動検出 Automatic detection of abnormal EEG signals using wavelet feature extraction and gradient boosting decision tree ( http://arxiv.org/abs/2012.10034v1 ) ライセンス: Link先を確認 | Hezam Albaqami, Ghulam Mubashar Hassan, Abdulhamit Subasi and Amitava Datta | (参考訳) 脳波検査は、その優れた分解能、非侵襲性、低コストにより、様々な脳関連疾患の診断にしばしば用いられる。
しかし、脳波信号の手動分析は困難であり、専門家にとっては時間がかかる。
医師が専門知識を身につけるのに長い訓練時間が必要であり、また専門家は相互契約(IRA)が低い。
そのため,コンピュータ支援診断(CAD)に基づく多くの研究は,脳波信号の解釈を自動化して作業負荷を軽減し,最終診断を支援することを検討した。
本稿では,多チャンネル脳波記録における脳信号の自動二分分類フレームワークを提案する。
我々は、ウェーブレットパケット分解(WPD)技術を用いて、脳波信号を周波数サブバンドに分解し、選択した各係数から統計的特徴の集合を抽出する。
さらに,抽出された特徴の品質を損なうことなく,特徴空間の次元を小さくする新しい手法を提案する。
抽出した特徴は,CataBoost,XGBoost,LightGBMという,GBDT(Gradient Boosting Decision Tree)ベースの分類フレームワークを用いて分類される。
テンプル大学病院における脳波異常コーパスv2.0.0を用いて実験を行った。
CatBoost分類器は87.68%のバイナリ分類精度を達成し、同じデータセット上の最先端技術よりも1%以上、感度は3%以上向上することがわかった。
本研究は,脳波分類におけるWPD特徴抽出とGBDT分類器の有用性について重要な知見を提供する。 Electroencephalography is frequently used for diagnostic evaluation of various brain-related disorders due to its excellent resolution, non-invasive nature and low cost. However, manual analysis of EEG signals could be strenuous and a time-consuming process for experts. It requires long training time for physicians to develop expertise in it and additionally experts have low inter-rater agreement (IRA) among themselves. Therefore, many Computer Aided Diagnostic (CAD) based studies have considered the automation of interpreting EEG signals to alleviate the workload and support the final diagnosis. In this paper, we present an automatic binary classification framework for brain signals in multichannel EEG recordings. We propose to use Wavelet Packet Decomposition (WPD) techniques to decompose the EEG signals into frequency sub-bands and extract a set of statistical features from each of the selected coefficients. Moreover, we propose a novel method to reduce the dimension of the feature space without compromising the quality of the extracted features. The extracted features are classified using different Gradient Boosting Decision Tree (GBDT) based classification frameworks, which are CatBoost, XGBoost and LightGBM. We used Temple University Hospital EEG Abnormal Corpus V2.0.0 to test our proposed technique. We found that CatBoost classifier achieves the binary classification accuracy of 87.68%, and outperforms state-of-the-art techniques on the same dataset by more than 1% in accuracy and more than 3% in sensitivity. The obtained results in this research provide important insights into the usefulness of WPD feature extraction and GBDT classifiers for EEG classification. | 翻訳日:2021-05-01 18:20:55 公開日:2020-12-18 |
# 意味論と説明:なぜ反事実的説明がディープニューラルネットワークの逆例を生み出すのか Semantics and explanation: why counterfactual explanations produce adversarial examples in deep neural networks ( http://arxiv.org/abs/2012.10076v1 ) ライセンス: Link先を確認 | Kieran Browne, Ben Swift | (参考訳) 説明可能なAIに関する最近の論文は、対実的な説明のモードを説得力あるものにしている。
反事実的説明はいくつかのケースでは極めて効果的であるように見えるが、正式には敵の例と等価である。
これは説明可能性研究者にとって明らかなパラドックスを示している: もしこの2つの手続きが形式的に等価であるなら、反事実的説明と敵対的な例の間で明らかな説明的分割の説明は何か?
このパラドックスを反事実表現のセマンティクスに重きを置くことで解決する。
ディープラーニングシステムに十分な説明を提供するためには、ディープニューラルネットワークに隠された層表現の意味を解釈する方法を見つける必要がある。 Recent papers in explainable AI have made a compelling case for counterfactual modes of explanation. While counterfactual explanations appear to be extremely effective in some instances, they are formally equivalent to adversarial examples. This presents an apparent paradox for explainability researchers: if these two procedures are formally equivalent, what accounts for the explanatory divide apparent between counterfactual explanations and adversarial examples? We resolve this paradox by placing emphasis back on the semantics of counterfactual expressions. Producing satisfactory explanations for deep learning systems will require that we find ways to interpret the semantics of hidden layer representations in deep neural networks. | 翻訳日:2021-05-01 18:20:30 公開日:2020-12-18 |
# 量子ハイゼンベルク連鎖のための生成型ニューラルサンプリング器 Generative Neural Samplers for the Quantum Heisenberg Chain ( http://arxiv.org/abs/2012.10264v1 ) ライセンス: Link先を確認 | Johanna Vielhaben, Nils Strodthoff | (参考訳) 生成神経サンプラーは、統計物理学や量子場理論における問題に対するモンテカルロ法を補完するアプローチを提供する。
本研究は, 実世界の低次元スピンシステムの観測対象を推定できる生成型ニューラルサンプリング装置の能力を検証する。
これは、スズキ-トロッター変換に基づく古典近似を通じて量子ハイゼンベルク鎖の構成を自己回帰モデルがどのようにサンプルできるかを地図化する。
モンテカルロの等方性xxx鎖と異方性xy鎖のエネルギー,比熱および感受性について,同じ近似スキームにおけるモンテカルロの結果とよく一致した結果を示す。 Generative neural samplers offer a complementary approach to Monte Carlo methods for problems in statistical physics and quantum field theory. This work tests the ability of generative neural samplers to estimate observables for real-world low-dimensional spin systems. It maps out how autoregressive models can sample configurations of a quantum Heisenberg chain via a classical approximation based on the Suzuki-Trotter transformation. We present results for energy, specific heat and susceptibility for the isotropic XXX and the anisotropic XY chain that are in good agreement with Monte Carlo results within the same approximation scheme. | 翻訳日:2021-05-01 18:20:17 公開日:2020-12-18 |
# 合成データ中の丸い零点をインデュートする人工ニューラルネットワーク Artificial Neural Networks to Impute Rounded Zeros in Compositional Data ( http://arxiv.org/abs/2012.10300v1 ) ライセンス: Link先を確認 | Matthias Templ | (参考訳) 近年, 深層学習の手法が普及しているが, 構成データ分析には至っていない。
合成データのインプテーション法は、典型的にはデータの付加的、中心的、または等尺的対数比表現に適用される。
一般に、合成データ解析の手法は、データマトリックスの観測された正の成分にのみ適用できる。
したがって、検出限界未満の値や測定値の欠落を示唆しようとする。
本稿では,従来の手法と比較して,ニューラルネットワークに基づく丸い零点を示唆する新しい手法を提案する。
我々はまた、計算目的のログ比のデータ表現であるANNが関係しているかどうかにも関心を持っている。
annは、適度なサイズで丸められたゼロのデータセットを暗示するときに、競争力があるか、あるいはパフォーマンスが良いことを示すことができる。
データセットが大きくなると、より良い結果が得られます。
また、ニューラルネットワークインプテーションにおける対数比変換は、それでも結果を改善するのに役立つことが分かる。
これは、合成データ分析の理論と合成データ分析の全ての特性の充足が深層学習の時代において依然として非常に重要であることを証明している。 Methods of deep learning have become increasingly popular in recent years, but they have not arrived in compositional data analysis. Imputation methods for compositional data are typically applied on additive, centered or isometric log-ratio representations of the data. Generally, methods for compositional data analysis can only be applied to observed positive entries in a data matrix. Therefore one tries to impute missing values or measurements that were below a detection limit. In this paper, a new method for imputing rounded zeros based on artificial neural networks is shown and compared with conventional methods. We are also interested in the question whether for ANNs, a representation of the data in log-ratios for imputation purposes, is relevant. It can be shown, that ANNs are competitive or even performing better when imputing rounded zeros of data sets with moderate size. They deliver better results when data sets are big. Also, we can see that log-ratio transformations within the artificial neural network imputation procedure nevertheless help to improve the results. This proves that the theory of compositional data analysis and the fulfillment of all properties of compositional data analysis is still very important in the age of deep learning. | 翻訳日:2021-05-01 18:20:07 公開日:2020-12-18 |
# ビザンチンロバスト最適化の歴史から学ぶ Learning from History for Byzantine Robust Optimization ( http://arxiv.org/abs/2012.10333v1 ) ライセンス: Link先を確認 | Sai Praneeth Karimireddy, Lie He, Martin Jaggi | (参考訳) ビザンチンの堅牢性は最近、分散学習と連合学習の重要性から注目されている。
それにもかかわらず,参加者間のデータ同一性が仮定された場合でも,既存のアルゴリズムの重大な欠陥を識別する。
まず、既存のロバストなアグリゲーションルールは、確率勾配における雑音の分布に過度に敏感であるため、ビザンチン攻撃者がいなくても収束しないことを示す。
第2に、たとえアグリゲーションルールが1ラウンドで攻撃者の影響力を制限することに成功しても、攻撃者は時間をかけて攻撃を衝突させ、最終的に分岐することを示す。
これらの問題に対処するために,我々は,新たな反復的クリッピング手順と,時間的結合による攻撃を克服するための作業者のモメンタムの導入という,驚くほどシンプルな2つの戦略を提示している。
これは標準確率的非凸最適化設定に対する最初の証明可能なロバストな方法である。 Byzantine robustness has received significant attention recently given its importance for distributed and federated learning. In spite of this, we identify severe flaws in existing algorithms even when the data across the participants is assumed to be identical. First, we show that most existing robust aggregation rules may not converge even in the absence of any Byzantine attackers, because they are overly sensitive to the distribution of the noise in the stochastic gradients. Secondly, we show that even if the aggregation rules may succeed in limiting the influence of the attackers in a single round, the attackers can couple their attacks across time eventually leading to divergence. To address these issues, we present two surprisingly simple strategies: a new iterative clipping procedure, and incorporating worker momentum to overcome time-coupled attacks. This is the first provably robust method for the standard stochastic non-convex optimization setting. | 翻訳日:2021-05-01 18:19:50 公開日:2020-12-18 |
# カーネルPCAの性能に関する上下境界 Upper and Lower Bounds on the Performance of Kernel PCA ( http://arxiv.org/abs/2012.10369v1 ) ライセンス: Link先を確認 | Maxime Haddouche and Benjamin Guedj and Omar Rivasplata and John Shawe-Taylor | (参考訳) 主成分分析(PCA)は次元減少のための一般的な手法であり、何十年にもわたって不利な関心を集めてきた。
近年,カーネルPCAはPCAの拡張として現れているが,実際にはカーネルPCAの健全な理論的理解が欠落している。
本稿では,カーネルグラム行列の経験的固有値を含む,カーネルPCAの効率の低値と上値に寄与する。
2つの境界は固定推定値であり、2つはPAC-ベイズ理論によるランダム化推定値である。
我々は,カーネルPCAアルゴリズムの強みと限界を強調するために,カーネルPCAが取得する情報量を平均で制御する。
そこで我々は,カーネルPCAの理解を深めることに貢献した。
私たちの境界は、おもちゃの数値例に簡潔に示されています。 Principal Component Analysis (PCA) is a popular method for dimension reduction and has attracted an unfailing interest for decades. Recently, kernel PCA has emerged as an extension of PCA but, despite its use in practice, a sound theoretical understanding of kernel PCA is missing. In this paper, we contribute lower and upper bounds on the efficiency of kernel PCA, involving the empirical eigenvalues of the kernel Gram matrix. Two bounds are for fixed estimators, and two are for randomized estimators through the PAC-Bayes theory. We control how much information is captured by kernel PCA on average, and we dissect the bounds to highlight strengths and limitations of the kernel PCA algorithm. Therefore, we contribute to the better understanding of kernel PCA. Our bounds are briefly illustrated on a toy numerical example. | 翻訳日:2021-05-01 18:19:34 公開日:2020-12-18 |
# 低ランク行列最適化のための行列指数勾配アルゴリズムの効率的な実装について On the Efficient Implementation of the Matrix Exponentiated Gradient Algorithm for Low-Rank Matrix Optimization ( http://arxiv.org/abs/2012.10469v1 ) ライセンス: Link先を確認 | Dan Garber, Atara Kaplan | (参考訳) spectrahedron上の凸最適化、すなわち、単位トレースを持つすべての実$n\times n$正半定行列の集合は、機械学習、信号処理、統計学において重要な応用であり、主に低ランク行列による凸緩和のために用いられる。
これはまた、非ユークリッド法がユークリッド法に対して著しく好まれる凸最適化のための一階法の理論、特に(負の)フォン・ノイマンのエントロピーによって引き起こされるブレグマン距離に基づく行列指数勾配(meg)法の理論の最も顕著な例の1つである。
残念ながら、MEGの実装には各イテレーションで完全なSVD計算が必要である。
本稿では,低ランク行列の最適化に適した決定的勾配と確率的勾配を併用したMEGの効率的な実装を提案し,各イテレーションで1つの低ランクSVD計算のみを使用する。
また,本手法の正しい収束のための効率よく計算可能な証明書も提供する。
主に,厳密な相補条件下では,提案手法が完全svdベースと類似した「ウォームスタート」初期化から収束することを証明する。
最後に,我々の理論的知見を裏付ける実証実験を行い,本手法の実用的魅力を実証する。 Convex optimization over the spectrahedron, i.e., the set of all real $n\times n$ positive semidefinite matrices with unit trace, has important applications in machine learning, signal processing and statistics, mainly as a convex relaxation for optimization with low-rank matrices. It is also one of the most prominent examples in the theory of first-order methods for convex optimization in which non-Euclidean methods can be significantly preferable to their Euclidean counterparts, and in particular the Matrix Exponentiated Gradient (MEG) method which is based on the Bregman distance induced by the (negative) von Neumann entropy. Unfortunately, implementing MEG requires a full SVD computation on each iteration, which is not scalable to high-dimensional problems. In this work we propose efficient implementations of MEG, both with deterministic and stochastic gradients, which are tailored for optimization with low-rank matrices, and only use a single low-rank SVD computation on each iteration. We also provide efficiently-computable certificates for the correct convergence of our methods. Mainly, we prove that under a strict complementarity condition, the suggested methods converge from a "warm-start" initialization with similar rates to their full-SVD-based counterparts. Finally, we bring empirical experiments which both support our theoretical findings and demonstrate the practical appeal of our methods. | 翻訳日:2021-05-01 18:19:05 公開日:2020-12-18 |
# 動的トピックモデルを用いた特許分類法改正のための技術用語の技術進歩分析 Technical Progress Analysis Using a Dynamic Topic Model for Technical Terms to Revise Patent Classification Codes ( http://arxiv.org/abs/2012.10120v1 ) ライセンス: Link先を確認 | Mana Iwata, Yoshiro Matsuda, Yoshimasa Utsumi, Yoshitoshi Tanaka, Kazuhide Nakata | (参考訳) 日本の特許には、日本独自の特許分類コードFI(File Index)が割り当てられている。
fiは、日本の技術に関連する国際特許分類コード(ipc)のサブディビジョンである。
FIは技術開発に合わせて改訂される。
これらの改訂は2006年以来すでに30,000以上の新しいfisを確立している。
しかしながら、これらのリビジョンには多くの時間と作業負荷が必要です。
さらに、これらのリビジョンは自動化されておらず、非効率である。
したがって、機械学習を用いて特許分類コード(FI)の改訂を支援することにより、精度と効率が向上する。
本研究は,機械学習による特許分類コードの改訂を支援する新たな視点から,特許文書の分析を行う。
特許の時系列変化を分析するために,潜在ディリクレ割り当て(LDA)の拡張である動的トピックモデル(DTM)を用いた。
また、英語とは異なり、日本語は形態素解析を必要とする。
特許には日常生活で使われない多くの技術用語が含まれているため、共通辞書を用いた形態解析は不十分である。
そこで,テキストから専門用語を抽出する手法を用いた。
技術的用語を抽出した後,DTMに応用した。
本研究では,14年間の照明クラスF21の技術的進歩を,特許分類コードの実際の改訂と比較した。
言い換えれば、日本の特許から技術用語を抽出し、日本の技術の進歩を判断するためにDTMを適用した。
そこで我々は,機械学習による特許分類コードの変更という新たな視点から,その結果を分析した。
その結果,話題が高まりつつあるものが新技術であると判断された。 Japanese patents are assigned a patent classification code, FI (File Index), that is unique to Japan. FI is a subdivision of the IPC, an international patent classification code, that is related to Japanese technology. FIs are revised to keep up with technological developments. These revisions have already established more than 30,000 new FIs since 2006. However, these revisions require a lot of time and workload. Moreover, these revisions are not automated and are thus inefficient. Therefore, using machine learning to assist in the revision of patent classification codes (FI) will lead to improved accuracy and efficiency. This study analyzes patent documents from this new perspective of assisting in the revision of patent classification codes with machine learning. To analyze time-series changes in patents, we used the dynamic topic model (DTM), which is an extension of the latent Dirichlet allocation (LDA). Also, unlike English, the Japanese language requires morphological analysis. Patents contain many technical words that are not used in everyday life, so morphological analysis using a common dictionary is not sufficient. Therefore, we used a technique for extracting technical terms from text. After extracting technical terms, we applied them to DTM. In this study, we determined the technological progress of the lighting class F21 for 14 years and compared it with the actual revision of patent classification codes. In other words, we extracted technical terms from Japanese patents and applied DTM to determine the progress of Japanese technology. Then, we analyzed the results from the new perspective of revising patent classification codes with machine learning. As a result, it was found that those whose topics were on the rise were judged to be new technologies. | 翻訳日:2021-05-01 18:18:41 公開日:2020-12-18 |
# 重なり関係抽出のための正規化注意カプセルネットワーク Regularized Attentive Capsule Network for Overlapped Relation Extraction ( http://arxiv.org/abs/2012.10187v1 ) ライセンス: Link先を確認 | Tianyi Liu, Xiangyu Lin, Weijia Jia, Mingliang Zhou, Wei Zhao | (参考訳) 人的努力の必要の少ない知識ベース構築において,遠隔教師付き関係抽出が広く適用されている。
しかし,遠隔監視において自動的に確立された訓練データセットには,ノイズの多い単語と重なり合う関係を持つ低品質な事例が含まれており,正確な関係抽出には大きな課題が伴う。
そこで本研究では,各文の重なり関係をよりよく識別する新しい正規化カプセルネットワーク (ra-capnet) を提案する。
例えば、複数の関係性の特徴を発見するために、複数の頭がカプセルネットワークに低レベルカプセルとして組み込まれ、そこでは2つの実体の減算が新しい関係性クエリとして作用し、それらの位置に関わらず突出した特徴を選択する。
重なり合う関係性の特徴を更に識別するために,複数の注目ヘッドと低レベルのカプセルの多様性を明確に促進するために不一致正則化を考案した。
広範に使用されているデータセットを用いた大規模な実験により,関係抽出の大幅な改善が得られた。 Distantly supervised relation extraction has been widely applied in knowledge base construction due to its less requirement of human efforts. However, the automatically established training datasets in distant supervision contain low-quality instances with noisy words and overlapped relations, introducing great challenges to the accurate extraction of relations. To address this problem, we propose a novel Regularized Attentive Capsule Network (RA-CapNet) to better identify highly overlapped relations in each informal sentence. To discover multiple relation features in an instance, we embed multi-head attention into the capsule network as the low-level capsules, where the subtraction of two entities acts as a new form of relation query to select salient features regardless of their positions. To further discriminate overlapped relation features, we devise disagreement regularization to explicitly encourage the diversity among both multiple attention heads and low-level capsules. Extensive experiments conducted on widely used datasets show that our model achieves significant improvements in relation extraction. | 翻訳日:2021-05-01 18:18:20 公開日:2020-12-18 |
# AdvExpander: テキストの拡張による自然言語の逆例の生成 AdvExpander: Generating Natural Language Adversarial Examples by Expanding Text ( http://arxiv.org/abs/2012.10235v1 ) ライセンス: Link先を確認 | Zhihong Shao, Zitao Liu, Jiyong Zhang, Zhongqin Wu, Minlie Huang | (参考訳) 機械学習モデルの脆弱性を明らかにするには、逆の例が不可欠である。
元の例でいくつかの文字や単語を置換する最も一般的な置換ベース手法の成功にもかかわらず、モデルのすべての堅牢性の問題を明らかにするには置換のみが不十分である。
本稿では,従来の置換法を補完するテキストを拡張することで,新たな逆例を構築する手法であるAdvExpanderを提案する。
まず言語規則を用いて,展開する構成要素と拡張する修飾子の種類を決定する。
次に,大規模コーパス上で事前学習したCVAEベース生成モデルから検索した逆変調器を挿入することにより,各構成成分を拡大する。
逆修正器を探索するために,事前学習されたパラメータを調整することなく,逆修正符号を直接検索する。
逆の例がテキストマッチングのためのラベル保存であることを保証するために、私たちはまた、変更をヒューリスティックなルールで制限します。
3つの分類課題に関する実験により,advexpanderの有効性が検証された。
AdvExpanderはテキスト拡張による新しいタイプの敵の例を作成し、それによって新しい堅牢性問題を明らかにすることを約束している。 Adversarial examples are vital to expose the vulnerability of machine learning models. Despite the success of the most popular substitution-based methods which substitutes some characters or words in the original examples, only substitution is insufficient to uncover all robustness issues of models. In this paper, we present AdvExpander, a method that crafts new adversarial examples by expanding text, which is complementary to previous substitution-based methods. We first utilize linguistic rules to determine which constituents to expand and what types of modifiers to expand with. We then expand each constituent by inserting an adversarial modifier searched from a CVAE-based generative model which is pre-trained on a large scale corpus. To search adversarial modifiers, we directly search adversarial latent codes in the latent space without tuning the pre-trained parameters. To ensure that our adversarial examples are label-preserving for text matching, we also constrain the modifications with a heuristic rule. Experiments on three classification tasks verify the effectiveness of AdvExpander and the validity of our adversarial examples. AdvExpander crafts a new type of adversarial examples by text expansion, thereby promising to reveal new robustness issues. | 翻訳日:2021-05-01 18:17:46 公開日:2020-12-18 |
# ReINTEL Challenge 2020: ベトナムSNS上の信頼できない情報を検出するマルチモーダルアンサンブルモデル ReINTEL Challenge 2020: A Multimodal Ensemble Model for Detecting Unreliable Information on Vietnamese SNS ( http://arxiv.org/abs/2012.10267v1 ) ライセンス: Link先を確認 | Nguyen Manh Duc Tuan, Pham Quang Nhat Minh | (参考訳) 本稿では,VLSP 2020 ReINTEL Challengeにおいて,実現不可能な情報識別のための手法を提案する。
タスクは、情報の断片を信頼できないカテゴリに分類することである。
本稿では,2つのマルチモーダルモデルを組み合わせた新しいマルチモーダルアンサンブルモデルを提案する。
各マルチモーダルモデルにおいて,テキスト,画像,メタデータの3つの異なるデータ型から得られた特徴表現を組み合わせた。
マルチモーダル特徴は3つのニューラルネットワークから派生し、分類のために融合される。
実験の結果, ROC AUCスコアでは, 単一モデルに対するマルチモーダルアンサンブルモデルが改善された。
課題のプライベートテストで0.9445 AUCのスコアを得た。 In this paper, we present our methods for unrealiable information identification task at VLSP 2020 ReINTEL Challenge. The task is to classify a piece of information into reliable or unreliable category. We propose a novel multimodal ensemble model which combines two multimodal models to solve the task. In each multimodal model, we combined feature representations acquired from three different data types: texts, images, and metadata. Multimodal features are derived from three neural networks and fused for classification. Experimental results showed that our proposed multimodal ensemble model improved against single models in term of ROC AUC score. We obtained 0.9445 AUC score on the private test of the challenge. | 翻訳日:2021-05-01 18:17:29 公開日:2020-12-18 |
# 具体的強化学習の階層的原理--概観 Hierarchical principles of embodied reinforcement learning: A review ( http://arxiv.org/abs/2012.10147v1 ) ライセンス: Link先を確認 | Manfred Eppe, Christian Gumbsch, Matthias Kerzel, Phuong D.H. Nguyen, Martin V. Butz and Stefan Wermter | (参考訳) 認知心理学と関連する分野は、知的生物学的エージェントが複雑な問題を解決することを学べるいくつかの重要なメカニズムを特定してきた。
これらの種の問題解決スキルを可能にする認知メカニズムが階層的な精神表現の上に構築されているという、強い証拠がある。
人工知能やロボットに匹敵する学習に基づく問題解決能力を提供する最も有望な計算手法は階層的な強化学習である。
しかし、これまでの計算手法では、人間や非ヒトの霊長類、カラス、タコなど、知的動物に匹敵する問題解決能力を持つ人工エージェントを装備することはできなかった。
ここでは,まず認知心理学や関連分野の文献を調査し,構成的抽象化,好奇心,前方モデルなど,多くの重要な心的メカニズムが関与していることを見いだした。
次に,これらの知見を現代的階層的強化学習法と関連付け,これらのメカニズムを実現する重要な機械知のアプローチを特定する。
結論として,すべての重要な認知メカニズムが独立した計算アーキテクチャで独立に実装されてきたことを示し,それらを適切に統合するアプローチの欠如を明らかにした。
今後の人工エージェントが知的動物のレベルで問題解決性能を達成するために,より洗練された認知的インスパイアされた階層的手法の開発を導くことを期待する。 Cognitive Psychology and related disciplines have identified several critical mechanisms that enable intelligent biological agents to learn to solve complex problems. There exists pressing evidence that the cognitive mechanisms that enable problem-solving skills in these species build on hierarchical mental representations. Among the most promising computational approaches to provide comparable learning-based problem-solving abilities for artificial agents and robots is hierarchical reinforcement learning. However, so far the existing computational approaches have not been able to equip artificial agents with problem-solving abilities that are comparable to intelligent animals, including human and non-human primates, crows, or octopuses. Here, we first survey the literature in Cognitive Psychology, and related disciplines, and find that many important mental mechanisms involve compositional abstraction, curiosity, and forward models. We then relate these insights with contemporary hierarchical reinforcement learning methods, and identify the key machine intelligence approaches that realise these mechanisms. As our main result, we show that all important cognitive mechanisms have been implemented independently in isolated computational architectures, and there is simply a lack of approaches that integrate them appropriately. We expect our results to guide the development of more sophisticated cognitively inspired hierarchical methods, so that future artificial agents achieve a problem-solving performance on the level of intelligent animals. | 翻訳日:2021-05-01 18:17:09 公開日:2020-12-18 |
# どのヒーローを選ぶか?
ニューラルネットワークと木探索によるMOBAゲームにおけるドラフト学習 Which Heroes to Pick? Learning to Draft in MOBA Games with Neural Networks and Tree Search ( http://arxiv.org/abs/2012.10171v1 ) ライセンス: Link先を確認 | Sheng Chen, Menghui Zhu, Deheng Ye, Weinan Zhang, Qiang Fu, Wei Yang | (参考訳) ヒーローのドラフトはMOBAゲームプレイにおいて不可欠であり、各サイドのチームを構築し、マッチ結果に直接影響を与える。
1)ヒーロープールが拡張されたときのドラフト効率、2)MOBA 5v5マッチシリーズのマルチラウンドの性質、すなわち2つのチームがベスト・オブ・Nをプレーし、同じヒーローがシリーズ全体を通して1回だけドラフトされる。
本稿では,複数ラウンドの組合せゲームとしてドラフト処理を定式化し,ニューラルネットワークとモンテカルロ木探索に基づく新しいドラフトアルゴリズムであるJueWuDraftを提案する。
具体的には,Nの最良の起案事例を扱うための長期値推定機構を設計する。
現在最も人気のあるMOBAゲームの一つであるHonor of Kingsをランニングケースとして、JueWuDraftの最先端のドラフト手法と比較して実用性と有効性を示す。 Hero drafting is essential in MOBA game playing as it builds the team of each side and directly affects the match outcome. State-of-the-art drafting methods fail to consider: 1) drafting efficiency when the hero pool is expanded; 2) the multi-round nature of a MOBA 5v5 match series, i.e., two teams play best-of-N and the same hero is only allowed to be drafted once throughout the series. In this paper, we formulate the drafting process as a multi-round combinatorial game and propose a novel drafting algorithm based on neural networks and Monte-Carlo tree search, named JueWuDraft. Specifically, we design a long-term value estimation mechanism to handle the best-of-N drafting case. Taking Honor of Kings, one of the most popular MOBA games at present, as a running case, we demonstrate the practicality and effectiveness of JueWuDraft when compared to state-of-the-art drafting methods. | 翻訳日:2021-05-01 18:16:47 公開日:2020-12-18 |
# 信念伝播によるスマートグリッドの潮流状態推定 State Estimation of Power Flows for Smart Grids via Belief Propagation ( http://arxiv.org/abs/2012.10473v1 ) ライセンス: Link先を確認 | Tim Ritmeester and Hildegard Meyer-Ortmanns | (参考訳) 信念の伝播は統計物理学と計算機科学から知られているアルゴリズムである。
これは、マージンを近似するために、マージンのネスト化された積に効率的に並べ替えられる、大量の積を含むマージンを計算する効率的な方法を提供する。
これにより、電力網管理の制御と予測に必要な状態と電力網の分散の信頼性の高い推定が可能になる。
ieeeグリッドの原型的な例では、信念伝達は状態推定自体のグリッドサイズと線形にスケールするだけでなく、欠落したデータの検索を促進・加速し、測定単位の最適な位置決めを可能にする。
信念の伝播に基づいて,局所的な情報のみを用いた他のアルゴリズムが与えられたグリッドの状態推定に適切かどうかを評価するための基準を与える。
また,粗粒度バージョンをより大きなグリッドに組み込んだ場合の計算労力を削減する表現に対して,信念伝達を粗粒化パワーグリッドに活用できることを実証する。
異なる領域間の流量推定誤差を最小限に抑えるため、電力グリッドを領域に分割するための基準を提供する。 Belief propagation is an algorithm that is known from statistical physics and computer science. It provides an efficient way of calculating marginals that involve large sums of products which are efficiently rearranged into nested products of sums to approximate the marginals. It allows a reliable estimation of the state and its variance of power grids that is needed for the control and forecast of power grid management. At prototypical examples of IEEE-grids we show that belief propagation not only scales linearly with the grid size for the state estimation itself, but also facilitates and accelerates the retrieval of missing data and allows an optimized positioning of measurement units. Based on belief propagation, we give a criterion for how to assess whether other algorithms, using only local information, are adequate for state estimation for a given grid. We also demonstrate how belief propagation can be utilized for coarse-graining power grids towards representations that reduce the computational effort when the coarse-grained version is integrated into a larger grid. It provides a criterion for partitioning power grids into areas in order to minimize the error of flow estimates between different areas. | 翻訳日:2021-05-01 18:16:30 公開日:2020-12-18 |
# OcSaFPNによるノイズのある空中画像の物体検出 Object Detection based on OcSaFPN in Aerial Images with Noise ( http://arxiv.org/abs/2012.09859v1 ) ライセンス: Link先を確認 | Chengyuan Li, Jun Liu, Hailong Hong, Wenju Mao, Chenjie Wang, Chudi Hu, Xin Su, Bin Luo | (参考訳) 深層学習に基づくアルゴリズムを考慮に入れることは、空中画像における物体検出性能を高める重要な方法となっている。
様々なニューラルネットワーク表現が開発されているが、従来の研究は、特に望遠レンズ付きカメラで撮影されたノイズのある空中画像において、ノイズ回復性能を調べるのに非効率であり、ほとんどの研究はノイズ除去の分野に集中している。
ノイズレジリエントは、アルゴリズム自体の属性である異なるノイズに対するネットワーク自体の堅牢性の記述である。
このため、ニューラルネットワークの雑音回復性能を分析し、ノイズ回復構造を構築するための2つの仮説を提案する。
これらの仮説に基づき,oct-resnetの耐雑音性能と周波数分割処理と一般のresnetを比較した。
また,従来はOcto-ResNetの周波数分割特徴マップのためには設計されておらず,異なる深度から多様な特徴マップ間の意味的ギャップを埋めることに注意が払われている。
このことから,新しいオクターブ畳み込み型セマンティックアテンション特徴ピラミッドネットワーク(OcSaFPN)が提案され,ノイズによる物体検出の精度が向上した。
3つのデータセットでテストされた提案アルゴリズムは,提案手法がガウス雑音や乗法雑音を伴う最先端検出性能を実現することを示す。
さらに、OcSaFPN構造を既存のアルゴリズムに簡単に付加でき、耐雑音性能を効果的に向上できることが多くの実験で証明されている。 Taking the deep learning-based algorithms into account has become a crucial way to boost object detection performance in aerial images. While various neural network representations have been developed, previous works are still inefficient to investigate the noise-resilient performance, especially on aerial images with noise taken by the cameras with telephoto lenses, and most of the research is concentrated in the field of denoising. Of course, denoising usually requires an additional computational burden to obtain higher quality images, while noise-resilient is more of a description of the robustness of the network itself to different noises, which is an attribute of the algorithm itself. For this reason, the work will be started by analyzing the noise-resilient performance of the neural network, and then propose two hypotheses to build a noise-resilient structure. Based on these hypotheses, we compare the noise-resilient ability of the Oct-ResNet with frequency division processing and the commonly used ResNet. In addition, previous feature pyramid networks used for aerial object detection tasks are not specifically designed for the frequency division feature maps of the Oct-ResNet, and they usually lack attention to bridging the semantic gap between diverse feature maps from different depths. On the basis of this, a novel octave convolution-based semantic attention feature pyramid network (OcSaFPN) is proposed to get higher accuracy in object detection with noise. The proposed algorithm tested on three datasets demonstrates that the proposed OcSaFPN achieves a state-of-the-art detection performance with Gaussian noise or multiplicative noise. In addition, more experiments have proved that the OcSaFPN structure can be easily added to existing algorithms, and the noise-resilient ability can be effectively improved. | 翻訳日:2021-05-01 18:15:13 公開日:2020-12-18 |
# 完全畳み込みネットワークによる自己教師型学習 Self-supervised Learning with Fully Convolutional Networks ( http://arxiv.org/abs/2012.10017v1 ) ライセンス: Link先を確認 | Zhengeng Yang, Hongshan Yu, Yong He, Zhi-Hong Mao, Ajmal Mian | (参考訳) 深層学習に基づく手法は多くのコンピュータビジョンタスクで大きな成功を収めてきたが、その性能は典型的には入手が困難である大量の注釈付きサンプルに依存している。
本稿では,セマンティックセグメンテーションのためのラベルのないデータから表現を学習する問題に焦点を当てる。
2つのパッチベース手法に着想を得て,jigsawパズル問題をパッチワイズ分類プロセスとして定式化し,完全畳み込みネットワークを用いて解く,新しい自己教師付き学習フレームワークを開発した。
Jigsaw Puzzleを25のパッチで解決し、学習した機能をCityscapesデータセットのセマンティックセグメンテーションタスクに転送することで、ランダムな値から初期化したベースラインモデルよりも5.8ポイント改善できる。
さらに,本研究の自己教師型学習手法が,異なるデータセットやモデルに適用可能であることを示す。
特に,PASCAL VOC2012データセットの最先端手法との競合性能は,少ないトレーニング画像を用いて達成した。 Although deep learning based methods have achieved great success in many computer vision tasks, their performance relies on a large number of densely annotated samples that are typically difficult to obtain. In this paper, we focus on the problem of learning representation from unlabeled data for semantic segmentation. Inspired by two patch-based methods, we develop a novel self-supervised learning framework by formulating the Jigsaw Puzzle problem as a patch-wise classification process and solving it with a fully convolutional network. By learning to solve a Jigsaw Puzzle problem with 25 patches and transferring the learned features to semantic segmentation task on Cityscapes dataset, we achieve a 5.8 percentage point improvement over the baseline model that initialized from random values. Moreover, experiments show that our self-supervised learning method can be applied to different datasets and models. In particular, we achieved competitive performance with the state-of-the-art methods on the PASCAL VOC2012 dataset using significant fewer training images. | 翻訳日:2021-05-01 18:14:16 公開日:2020-12-18 |
# 実世界スーパーレゾリューションの周波数整合適応 Frequency Consistent Adaptation for Real World Super Resolution ( http://arxiv.org/abs/2012.10102v1 ) ライセンス: Link先を確認 | Xiaozhong Ji, Guangpin Tao, Yun Cao, Ying Tai, Tong Lu, Chengjie Wang, Jilin Li, Feiyue Huang | (参考訳) 近年の深層学習に基づく超解法 (SR) は, 劣化した画像に対して顕著な性能を発揮している。
しかし、理想的な分解後の低解像度(lr)画像(例えば、bicubic down-sampling)は、実際のソースドメインから逸脱するため、これらの手法は常に実際のシーンでは失敗する。
LR画像と実世界の画像との領域ギャップは周波数密度ではっきりと観察でき、不正確な劣化に起因する望ましくないギャップを明示的に狭めるきっかけとなる。
この観点から、既存のSR手法を実シーンに適用する際の周波数領域の整合性を保証する新しい周波数一貫性適応(FCA)を設計する。
教師なし画像から劣化カーネルを推定し、対応するLR画像を生成する。
カーネル推定に有用な勾配情報を提供するため,画像の周波数密度を異なるスケールで区別して周波数密度比較器(fdc)を提案する。
ドメイン一貫性のあるLR-HRペアに基づいて、容易に実装可能な畳み込みニューラルネットワーク(CNN)SRモデルを訓練する。
広範な実験により,提案手法は実世界におけるsrモデルの性能を向上し,高い忠実度と妥当な知覚を実現し,実世界srアプリケーションのための新しい効果的なフレームワークを提供することが示された。 Recent deep-learning based Super-Resolution (SR) methods have achieved remarkable performance on images with known degradation. However, these methods always fail in real-world scene, since the Low-Resolution (LR) images after the ideal degradation (e.g., bicubic down-sampling) deviate from real source domain. The domain gap between the LR images and the real-world images can be observed clearly on frequency density, which inspires us to explictly narrow the undesired gap caused by incorrect degradation. From this point of view, we design a novel Frequency Consistent Adaptation (FCA) that ensures the frequency domain consistency when applying existing SR methods to the real scene. We estimate degradation kernels from unsupervised images and generate the corresponding LR images. To provide useful gradient information for kernel estimation, we propose Frequency Density Comparator (FDC) by distinguishing the frequency density of images on different scales. Based on the domain-consistent LR-HR pairs, we train easy-implemented Convolutional Neural Network (CNN) SR models. Extensive experiments show that the proposed FCA improves the performance of the SR model under real-world setting achieving state-of-the-art results with high fidelity and plausible perception, thus providing a novel effective framework for real-world SR application. | 翻訳日:2021-05-01 18:13:30 公開日:2020-12-18 |
# 都市景観におけるハイパースペクトル画像意味セグメンテーション Hyperspectral Image Semantic Segmentation in Cityscapes ( http://arxiv.org/abs/2012.10122v1 ) ライセンス: Link先を確認 | Yuxing Huang, Erqi Huang, Linsen Chen, Shaodi You, Ying Fu and Qiu Shen | (参考訳) 高分解能ハイパースペクトル画像(HSIs)は、複雑なシーンにおける様々な物体を効果的に識別するために、異なるスペクトル帯域における各画素の応答を含む。
HSIカメラは低コストになったが、それに基づくアルゴリズムは十分に活用されていない。
本稿では,hsisを用いた都市景観における半教師付き意味セグメンテーション(半教師付き意味セグメンテーション)という新しいトピックに注目し,都市シーンにおける高分解能hsisには豊かなスペクトル情報が含まれているという考えに基づく。
そこで本研究では, 複雑な場面において, 低コストで信頼性の高いセマンティクスセグメンテーションを実現する。特に, スペクトル情報を利用して粗いラベルを高精度に改善する半教師付きhsiセマンティクスセグメンテーションネットワークを提案する。
同時に、最適化されたラベルはセマンティックセグメンテーションの効果を効果的に改善できることを示した。
HSIとセマンティックセグメンテーションの組み合わせは、ハイレベルな視覚タスクにおいてHSIが大きな可能性を証明している。 High-resolution hyperspectral images (HSIs) contain the response of each pixel in different spectral bands, which can be used to effectively distinguish various objects in complex scenes. While HSI cameras have become low cost, algorithms based on it has not been well exploited. In this paper, we focus on a novel topic, semi-supervised semantic segmentation in cityscapes using HSIs.It is based on the idea that high-resolution HSIs in city scenes contain rich spectral information, which can be easily associated to semantics without manual labeling. Therefore, it enables low cost, highly reliable semantic segmentation in complex scenes.Specifically, in this paper, we introduce a semi-supervised HSI semantic segmentation network, which utilizes spectral information to improve the coarse labels to a finer degree.The experimental results show that our method can obtain highly competitive labels and even have higher edge fineness than artificial fine labels in some classes. At the same time, the results also show that the optimized labels can effectively improve the effect of semantic segmentation. The combination of HSIs and semantic segmentation proves that HSIs have great potential in high-level visual tasks. | 翻訳日:2021-05-01 18:13:09 公開日:2020-12-18 |
# CodeVIO: 学習可能なDense深さを持つビジュアル慣性オドメトリー CodeVIO: Visual-Inertial Odometry with Learned Optimizable Dense Depth ( http://arxiv.org/abs/2012.10133v1 ) ライセンス: Link先を確認 | Xingxing Zuo, Nathaniel Merrill, Wei Li, Yong Liu, Marc Pollefeys, Guoquan Huang | (参考訳) 本研究では,高精度な状態推定と深度マップを提供する,軽量で密結合の深度ネットワークと視覚慣性オドメトリー(VIO)システムを提案する。
提案する軽量条件付き変分オートエンコーダ(cvae)を奥行き推定とエンコーディングに活用し,vioのそれまでの細分化された特徴をネットワークに与え,初期深度予測と一般化能力の精度を向上させる。
コンパクトなエンコードされた深度マップは、密集したローカルシーンの幾何学を提供するために、スライディングウィンドウ推定器のナビゲーション状態と共同で更新される。
また, CVAE のジャコビアンを従来よりも1桁以上高速に取得できる新しい手法を提案し, また, 第一推定ジャコビアン (FEJ) を用いて再計算を回避する。
完全高密度残差に依存する従来の研究とは対照的に、深度コード更新のための疎度測定のみを提供し、スパース測定とFEJの選択が依然として推定深度マップを大幅に改善できることを示す。
また,本システムでは,ネットワークとコードヤコビアンにのみGPUアクセラレーションを活用しながら,シングルスレッド実行でリアルタイムに動作可能であることを示す。 In this work, we present a lightweight, tightly-coupled deep depth network and visual-inertial odometry (VIO) system, which can provide accurate state estimates and dense depth maps of the immediate surroundings. Leveraging the proposed lightweight Conditional Variational Autoencoder (CVAE) for depth inference and encoding, we provide the network with previously marginalized sparse features from VIO to increase the accuracy of initial depth prediction and generalization capability. The compact encoded depth maps are then updated jointly with navigation states in a sliding window estimator in order to provide the dense local scene geometry. We additionally propose a novel method to obtain the CVAE's Jacobian which is shown to be more than an order of magnitude faster than previous works, and we additionally leverage First-Estimate Jacobian (FEJ) to avoid recalculation. As opposed to previous works relying on completely dense residuals, we propose to only provide sparse measurements to update the depth code and show through careful experimentation that our choice of sparse measurements and FEJs can still significantly improve the estimated depth maps. Our full system also exhibits state-of-the-art pose estimation accuracy, and we show that it can run in real-time with single-thread execution while utilizing GPU acceleration only for the network and code Jacobian. | 翻訳日:2021-05-01 18:12:43 公開日:2020-12-18 |
# SCNet: インスタンスセグメンテーションのためのトレーニング推論サンプル一貫性 SCNet: Training Inference Sample Consistency for Instance Segmentation ( http://arxiv.org/abs/2012.10150v1 ) ライセンス: Link先を確認 | Thang Vu, Haeyong Kang, Chang D. Yoo | (参考訳) カスケードアーキテクチャは、オブジェクト検出とインスタンスセグメンテーションで大幅なパフォーマンス改善をもたらした。
しかし、IoU(Intersection-over-Union)のトレーニングと推論の間には、サンプルの分布の格差に関する大きな問題がある。
この差は検出精度を悪化させる可能性がある。
本稿では,学習時間におけるサンプルのiou分布が推定時間と近いことを保証するため,サンプル一貫性ネットワーク(scnet)と呼ばれるアーキテクチャを提案する。
さらに、SCNetは機能リレーを導入し、グローバルコンテキスト情報を利用して、サブタスクの分類、検出、セグメンテーションの相互関係をさらに強化する。
標準COCOデータセットに対する大規模な実験により,ボックスAP,マスクAP,推論速度など,複数の評価指標に対する提案手法の有効性が明らかになった。
特に,38\%高速動作中に提案するscnetは,強力なカスケードマスクr-cnnベースラインと比較して,箱のapとマスク予測をそれぞれ1.3ポイント,2.3ポイント向上させた。
コードは \url{https://github.com/thangvubk/SCNet} で入手できる。 Cascaded architectures have brought significant performance improvement in object detection and instance segmentation. However, there are lingering issues regarding the disparity in the Intersection-over-Union (IoU) distribution of the samples between training and inference. This disparity can potentially exacerbate detection accuracy. This paper proposes an architecture referred to as Sample Consistency Network (SCNet) to ensure that the IoU distribution of the samples at training time is close to that at inference time. Furthermore, SCNet incorporates feature relay and utilizes global contextual information to further reinforce the reciprocal relationships among classifying, detecting, and segmenting sub-tasks. Extensive experiments on the standard COCO dataset reveal the effectiveness of the proposed method over multiple evaluation metrics, including box AP, mask AP, and inference speed. In particular, while running 38\% faster, the proposed SCNet improves the AP of the box and mask predictions by respectively 1.3 and 2.3 points compared to the strong Cascade Mask R-CNN baseline. Code is available at \url{https://github.com/thangvubk/SCNet}. | 翻訳日:2021-05-01 18:12:20 公開日:2020-12-18 |
# 深部表現学習のためのホリスティック誘導デコーダと意味セグメンテーションとオブジェクト検出への応用 A Holistically-Guided Decoder for Deep Representation Learning with Applications to Semantic Segmentation and Object Detection ( http://arxiv.org/abs/2012.10162v1 ) ライセンス: Link先を確認 | Jianbo Liu, Sijie Ren, Yuanjie Zheng, Xiaogang Wang, Hongsheng Li | (参考訳) 高レベルかつ高解像度な特徴表現は、様々な視覚的理解タスクにおいて非常に重要である。
高レベルのセマンティック情報を持つ高解像度特徴写像を得るために、バックボーンネットワークに拡張畳み込みを導入し、セマンティックセグメンテーションのための拡張FCN法のような高解像度特徴写像を抽出する。
しかし、多くの畳み込み操作が高分解能特徴マップ上で実行されるため、そのような手法は計算の複雑さとメモリ消費が大きい。
本稿では,エンコーダからマルチスケール機能を介して高分解能なセマンティクスリッチ特徴マップを得るために導入された,新たなホリスティック誘導デコーダを提案する。
このデコーディングは、エンコーダの機能から高レベルと低レベルの両方の機能の利点を生かした、新しい総合的なコードワード生成とコードワードアセンブリ操作によって実現される。
提案手法では, セマンティックセグメンテーションのための効率的なFCNアーキテクチャとオブジェクト検出とインスタンスセグメンテーションのためのHGD-FPNを実装した。
EfficientFCNは、PASCAL Context, PASCAL VOC, ADE20Kデータセット上のセマンティックセグメンテーションの計算コストの1/3しか持たない最先端の手法に比べて、同等またはそれ以上の性能を達成する。
一方、提案されたHGD-FPNは、ResNet-50エンコードバックボーンで複数のオブジェクト検出フレームワークに統合された場合、平均平均精度(mAP)が$>2\%以上に達する。 Both high-level and high-resolution feature representations are of great importance in various visual understanding tasks. To acquire high-resolution feature maps with high-level semantic information, one common strategy is to adopt dilated convolutions in the backbone networks to extract high-resolution feature maps, such as the dilatedFCN-based methods for semantic segmentation. However, due to many convolution operations are conducted on the high-resolution feature maps, such methods have large computational complexity and memory consumption. In this paper, we propose one novel holistically-guided decoder which is introduced to obtain the high-resolution semantic-rich feature maps via the multi-scale features from the encoder. The decoding is achieved via novel holistic codeword generation and codeword assembly operations, which take advantages of both the high-level and low-level features from the encoder features. With the proposed holistically-guided decoder, we implement the EfficientFCN architecture for semantic segmentation and HGD-FPN for object detection and instance segmentation. The EfficientFCN achieves comparable or even better performance than state-of-the-art methods with only 1/3 of their computational costs for semantic segmentation on PASCAL Context, PASCAL VOC, ADE20K datasets. Meanwhile, the proposed HGD-FPN achieves $>2\%$ higher mean Average Precision (mAP) when integrated into several object detection frameworks with ResNet-50 encoding backbones. | 翻訳日:2021-05-01 18:12:01 公開日:2020-12-18 |
# LGENet: 航空機搭載レーザー走査点雲のセマンティックセグメンテーションのためのローカルおよびグローバルエンコーダネットワーク LGENet: Local and Global Encoder Network for Semantic Segmentation of Airborne Laser Scanning Point Clouds ( http://arxiv.org/abs/2012.10192v1 ) ライセンス: Link先を確認 | Yaping Lin, George Vosselman, Yanpeng Cao, Michael Ying Yang | (参考訳) 空中レーザー走査(ALS)点雲の解釈は、3次元都市モデル、デジタル地形モデル、土地利用地図などの様々な地理情報製品を生産するための重要な手順である。
本稿では,ALS点雲のセマンティックセグメンテーションのためのローカルおよびグローバルエンコーダネットワーク(LGENet)を提案する。
KPConvネットワークに適応して,まず2次元と3次元の点畳み込みによって特徴を抽出し,ネットワークがより代表的な局所幾何学を学習できるようにする。
次に、ネットワーク内でグローバルエンコーダを使用して、オブジェクトとポイントレベルのコンテキスト情報を利用する。
セグメント間のグローバルコンテキストを符号化するセグメントベースのエッジ条件付き畳み込みを設計する。
ネットワークの最後に空間チャネルアテンションモジュールを適用することで,ポイント間のグローバルな相互依存を捉えるだけでなく,チャネル間のインタラクションをモデル化する。
提案手法をISPRSベンチマークデータセットとDCF2019データセットの2つのALSデータセット上で評価する。
ISPRSベンチマークデータセットでは, 平均F1スコアが0.737, 0.845, 平均F1スコアが0.737である。
DFC2019データセットに関して、提案するネットワークは、0.984の総合精度と平均F1スコアの0.834を達成する。 Interpretation of Airborne Laser Scanning (ALS) point clouds is a critical procedure for producing various geo-information products like 3D city models, digital terrain models and land use maps. In this paper, we present a local and global encoder network (LGENet) for semantic segmentation of ALS point clouds. Adapting the KPConv network, we first extract features by both 2D and 3D point convolutions to allow the network to learn more representative local geometry. Then global encoders are used in the network to exploit contextual information at the object and point level. We design a segment-based Edge Conditioned Convolution to encode the global context between segments. We apply a spatial-channel attention module at the end of the network, which not only captures the global interdependencies between points but also models interactions between channels. We evaluate our method on two ALS datasets namely, the ISPRS benchmark dataset and DCF2019 dataset. For the ISPRS benchmark dataset, our model achieves state-of-the-art results with an overall accuracy of 0.845 and an average F1 score of 0.737. With regards to the DFC2019 dataset, our proposed network achieves an overall accuracy of 0.984 and an average F1 score of 0.834. | 翻訳日:2021-05-01 18:11:36 公開日:2020-12-18 |
# 軽量3次元点融合による単眼深度推定 Boosting Monocular Depth Estimation with Lightweight 3D Point Fusion ( http://arxiv.org/abs/2012.10296v1 ) ライセンス: Link先を確認 | Lam Huynh, Phong Nguyen, Jiri Matas, Esa Rahtu, Janne Heikkila | (参考訳) 本稿では,従来の多視点ステレオやslamを用いた単眼深度推定法を用いて,両世界の精巧さ,すなわち,第1の濃密な深さと第2の視点の軽量さを生かした。
より具体的には、単眼深度推定ネットワークに供給され、その性能を高めるために、従来のパイプラインを用いてスパース3Dポイントクラウドを生成する。
このように、重みがかなり少ないマルチビューステレオと同様の精度を実現することができる。
また,最善の単眼深度推定法を上回るためには,32点以下でも十分であり,追加情報を最大限に活用するには約200点であることを示した。
さらに,モバイルデバイス上に内蔵されたSLAMシステムと統合することで,本手法の有効性を示す。 In this paper, we address the problem of fusing monocular depth estimation with a conventional multi-view stereo or SLAM to exploit the best of both worlds, that is, the accurate dense depth of the first one and lightweightness of the second one. More specifically, we use a conventional pipeline to produce a sparse 3D point cloud that is fed to a monocular depth estimation network to enhance its performance. In this way, we can achieve accuracy similar to multi-view stereo with a considerably smaller number of weights. We also show that even as few as 32 points is sufficient to outperform the best monocular depth estimation methods, and around 200 points to gain full advantage of the additional information. Moreover, we demonstrate the efficacy of our approach by integrating it with a SLAM system built-in on mobile devices. | 翻訳日:2021-05-01 18:10:54 公開日:2020-12-18 |
# 複雑な3次元自己接触の学習 Learning Complex 3D Human Self-Contact ( http://arxiv.org/abs/2012.10366v1 ) ライセンス: Link先を確認 | Mihai Fieraru, Mihai Zanfir, Elisabeta Oneata, Alin-Ionut Popa, Vlad Olaru, Cristian Sminchisescu | (参考訳) 身体言語理解と行動モデリングを含む詳細な情景分析には,3次元自己接触の単眼的推定が基本である。
既存の3d再構成法は、自己接触の身体領域に焦点を合わせず、触るべき時に互いに遠く離れているか、あるいは自己干渉している構成を回復する。
これは、詳細な3dモデルが重要な役割を果たすことが期待される非常にきめ細かい分析領域において、知覚的に誤った推定と影響の制限につながる。
このような課題に対処するため、私たちは自己接触を検出し、明示的に強制するために3dロスを設計する。
具体的には, トレーニングと推論の両方において, 画像中の自己接触の局在を利用して, 自己接触体表面のシグネチャを推定する自己接触予測モデル(scp)を開発した。
学習と評価をサポートするために2つの大きなデータセットを収集した: (1) humanc3dは、5,058ドルのコンタクトイベントと1246,487ドルのグランド・トゥルート3dポーズを含む正確な3dモーションキャプチャーリポジトリであり、(2) flickrsc3dは3,969ドルのイメージのリポジトリで、25,297ドルの表面対面対応と注釈付き画像空間サポートを含んでいる。
また,より正確な自己接触モデルによって実現された複数の応用の1つとして,より表現力のある3次元再構成を自己接触署名制約の下でどのように回収するかを述べる。 Monocular estimation of three dimensional human self-contact is fundamental for detailed scene analysis including body language understanding and behaviour modeling. Existing 3d reconstruction methods do not focus on body regions in self-contact and consequently recover configurations that are either far from each other or self-intersecting, when they should just touch. This leads to perceptually incorrect estimates and limits impact in those very fine-grained analysis domains where detailed 3d models are expected to play an important role. To address such challenges we detect self-contact and design 3d losses to explicitly enforce it. Specifically, we develop a model for Self-Contact Prediction (SCP), that estimates the body surface signature of self-contact, leveraging the localization of self-contact in the image, during both training and inference. We collect two large datasets to support learning and evaluation: (1) HumanSC3D, an accurate 3d motion capture repository containing $1,032$ sequences with $5,058$ contact events and $1,246,487$ ground truth 3d poses synchronized with images collected from multiple views, and (2) FlickrSC3D, a repository of $3,969$ images, containing $25,297$ surface-to-surface correspondences with annotated image spatial support. We also illustrate how more expressive 3d reconstructions can be recovered under self-contact signature constraints and present monocular detection of face-touch as one of the multiple applications made possible by more accurate self-contact models. | 翻訳日:2021-05-01 18:10:25 公開日:2020-12-18 |
# オーバーヘッド画像からの動的交通モデリング Dynamic Traffic Modeling From Overhead Imagery ( http://arxiv.org/abs/2012.10530v1 ) ライセンス: Link先を確認 | Scott Workman, Nathan Jacobs | (参考訳) 私たちの目標は,日曜日の午前3時にタイムズスクエアを横切る速度など,トラフィックフローのパターンを理解するために,オーバーヘッドイメージを使用することです。
この問題を解決する伝統的なアプローチは、各道路セグメントの速度を時間の関数としてモデル化することである。
しかし、この戦略は、モデルが使われる前に大量のデータが最初に収集されなければならず、新しい領域に一般化できないという点で制限されている。
そこで我々は,畳み込みニューラルネットワークを用いて交通速度の動的マップを生成する手法を提案する。
本手法は頭上画像で動作し, 位置と時刻を条件とし, 移動方向と対応する移動速度を捉えた局所運動モデルを出力する。
モデルをトレーニングするには、ニューヨーク市から収集した歴史的交通データを活用する。
実験により,本手法を都市交通モデルに応用できることを実証した。 Our goal is to use overhead imagery to understand patterns in traffic flow, for instance answering questions such as how fast could you traverse Times Square at 3am on a Sunday. A traditional approach for solving this problem would be to model the speed of each road segment as a function of time. However, this strategy is limited in that a significant amount of data must first be collected before a model can be used and it fails to generalize to new areas. Instead, we propose an automatic approach for generating dynamic maps of traffic speeds using convolutional neural networks. Our method operates on overhead imagery, is conditioned on location and time, and outputs a local motion model that captures likely directions of travel and corresponding travel speeds. To train our model, we take advantage of historical traffic data collected from New York City. Experimental results demonstrate that our method can be applied to generate accurate city-scale traffic models. | 翻訳日:2021-05-01 18:09:38 公開日:2020-12-18 |
# GANによる顔変形攻撃に対する顔認識のロバスト性 Robustness of Facial Recognition to GAN-based Face-morphing Attacks ( http://arxiv.org/abs/2012.10548v1 ) ライセンス: Link先を確認 | Richard T. Marriott, Sami Romdhani, St\'ephane Gentric and Liming Chen | (参考訳) 顔の変形攻撃は何年も前から懸念されてきた。
攻撃者の一歩先を行くために、研究者たちはモルヒネ画像の作成と検出の方法を提案してきた。
しかし、これらの検出方法は一般に不十分であることが証明されている。
この研究では、攻撃者が既に武器に持っている可能性のある2つの新しいGANベースの方法を特定します。
各手法は最先端の顔認識 (FR) アルゴリズムに対して評価され, FRアルゴリズムの忠実度向上は, 動作許容閾値を設定する際に, モルヒネ画像による攻撃の成功率の低下につながることを示した。 Face-morphing attacks have been a cause for concern for a number of years. Striving to remain one step ahead of attackers, researchers have proposed many methods of both creating and detecting morphed images. These detection methods, however, have generally proven to be inadequate. In this work we identify two new, GAN-based methods that an attacker may already have in his arsenal. Each method is evaluated against state-of-the-art facial recognition (FR) algorithms and we demonstrate that improvements to the fidelity of FR algorithms do lead to a reduction in the success rate of attacks provided morphed images are considered when setting operational acceptance thresholds. | 翻訳日:2021-05-01 18:09:08 公開日:2020-12-18 |
# アイデンティティ関連アプリケーションのためのGANの評価 An Assessment of GANs for Identity-related Applications ( http://arxiv.org/abs/2012.10553v1 ) ライセンス: Link先を確認 | Richard T. Marriott, Safa Madiouni, Sami Romdhani, St\'ephane Gentric and Liming Chen | (参考訳) GAN(Generative Adversarial Networks)は現在、非常に高い視覚的品質の合成顔画像を生成することができる。
GAN自体の発展と並行して,合成画像の特徴を客観的に評価する指標の開発が試みられ,主に視覚的品質と多様な画像に焦点を当てている。
しかし、GANの過剰適合と新しいアイデンティティを生成する能力を評価するための作業はほとんど行われていない。
本稿では,合成画像の各種データセットにアートバイオメトリックネットワークの状態を応用し,そのアイデンティティ関連特性の徹底的な評価を行う。
ganは、イメージの匿名化やトレーニングデータセットの強化といったアプリケーションが実行可能なアプリケーションであることを示す、想像上の新しいアイデンティティを生成するために実際に使用できる、と結論付けている。
また,他の画像特徴と同一性を分離するganの能力を評価し,この不連続性を改善するために新たなgan三重項損失を提案する。 Generative Adversarial Networks (GANs) are now capable of producing synthetic face images of exceptionally high visual quality. In parallel to the development of GANs themselves, efforts have been made to develop metrics to objectively assess the characteristics of the synthetic images, mainly focusing on visual quality and the variety of images. Little work has been done, however, to assess overfitting of GANs and their ability to generate new identities. In this paper we apply a state of the art biometric network to various datasets of synthetic images and perform a thorough assessment of their identity-related characteristics. We conclude that GANs can indeed be used to generate new, imagined identities meaning that applications such as anonymisation of image sets and augmentation of training datasets with distractor images are viable applications. We also assess the ability of GANs to disentangle identity from other image characteristics and propose a novel GAN triplet loss that we show to improve this disentanglement. | 翻訳日:2021-05-01 18:08:57 公開日:2020-12-18 |
# ツイートから新型コロナウイルスイベントを抽出するイベント特化機能とチャンクスパン機能を活用する Leveraging Event Specific and Chunk Span features to Extract COVID Events from tweets ( http://arxiv.org/abs/2012.10052v1 ) ライセンス: Link先を確認 | Ayush Kaushal and Tejas Vaidhya | (参考訳) Twitterは災害やパンデミック、特に新型コロナウイルス(COVID-19)の時代に重要な情報ソースとして機能してきた。
本稿では,WNUT 2020 Shared Task-3のシステムエントリについて述べる。
このタスクは、twitterからさまざまな新型コロナウイルス関連のイベントを自動的に抽出することを目的としていた。例えば、最近ウイルスに感染した個人、検査を拒否され、感染に対する治療を信じている症状のある人などだ。
システムは、スロットフィルングサブタスクと文分類サブタスクのための別々のマルチタスクモデルからなり、対応するイベントに有用な文レベルの情報を活用する。
このシステムは、COVID-Twitter-Bertと注目度の高いスロットチャンク機能を使って、有用な情報チャンクをキャプチャする。
F1は0.6598であり、アンサンブルや追加のデータセットは使用していない。
コードとトレーニングされたモデルは、このhttps URLで入手できる。 Twitter has acted as an important source of information during disasters and pandemic, especially during the times of COVID-19. In this paper, we describe our system entry for WNUT 2020 Shared Task-3. The task was aimed at automating the extraction of a variety of COVID-19 related events from Twitter, such as individuals who recently contracted the virus, someone with symptoms who were denied testing and believed remedies against the infection. The system consists of separate multi-task models for slot-filling subtasks and sentence-classification subtasks while leveraging the useful sentence-level information for the corresponding event. The system uses COVID-Twitter-Bert with attention-weighted pooling of candidate slot-chunk features to capture the useful information chunks. The system ranks 1st at the leader-board with F1 of 0.6598, without using any ensembles or additional datasets. The code and trained models are available at this https URL. | 翻訳日:2021-05-01 18:08:41 公開日:2020-12-18 |
# この場所を訪ねましょうか。
レビューからの包含句と排他句のマイニング Should I visit this place? Inclusion and Exclusion Phrase Mining from Reviews ( http://arxiv.org/abs/2012.10226v1 ) ライセンス: Link先を確認 | Omkar Gurjar and Manish Gupta | (参考訳) いくつかの自動的な旅程生成サービスによって旅行計画が容易になったが、旅行者は旅行で最善を尽くすことができないユニークな状況にあることが多い。
訪問者は、障害に苦しむこと、特定の食事の好みであること、幼児と旅行することなど、多くの要因で異なる。
ほとんどの観光地は普遍的だが、他は包括的ではない。
本稿では,観光地に関するレビューから,11の要因に関連する鉱毒包有物と排他的フレーズの問題に焦点をあてる。
観光データマイニングに関する既存の研究は、旅行関連情報の構造化抽出、パーソナライズされた感情分析、自動イチナリー生成に重点を置いているが、我々の知る限りでは、観光レビューからの包括的/排他的フレーズマイニングに関する最初の作業である。
1000の観光スポットに関する2000のレビューのデータセットを使用して、私たちのワイドレベル分類器は、各フレーズを包含または除外として分類するために$\sim$80と$\sim$82のバイナリオーバーラップF1を提供します。
さらに、包含/排他分類器は、それぞれ11クラス包含と排他分類に対して$\sim$98と$\sim$97のF1を提供する。
当社の作業は,自動イテレーション生成サービスの品質を著しく向上させることができると信じている。 Although several automatic itinerary generation services have made travel planning easy, often times travellers find themselves in unique situations where they cannot make the best out of their trip. Visitors differ in terms of many factors such as suffering from a disability, being of a particular dietary preference, travelling with a toddler, etc. While most tourist spots are universal, others may not be inclusive for all. In this paper, we focus on the problem of mining inclusion and exclusion phrases associated with 11 such factors, from reviews related to a tourist spot. While existing work on tourism data mining mainly focuses on structured extraction of trip related information, personalized sentiment analysis, and automatic itinerary generation, to the best of our knowledge this is the first work on inclusion/exclusion phrase mining from tourism reviews. Using a dataset of 2000 reviews related to 1000 tourist spots, our broad level classifier provides a binary overlap F1 of $\sim$80 and $\sim$82 to classify a phrase as inclusion or exclusion respectively. Further, our inclusion/exclusion classifier provides an F1 of $\sim$98 and $\sim$97 for 11-class inclusion and exclusion classification respectively. We believe that our work can significantly improve the quality of an automatic itinerary generation service. | 翻訳日:2021-05-01 18:08:24 公開日:2020-12-18 |
# 自動生成によるテキスト分類における粗い相関性へのロバスト性 Robustness to Spurious Correlations in Text Classification via Automatically Generated Counterfactuals ( http://arxiv.org/abs/2012.10040v1 ) ライセンス: Link先を確認 | Zhao Wang and Aron Culotta | (参考訳) 純粋相関は統計分類器の妥当性を脅かす。
テストデータがトレーニングデータと同じ分布である場合、モデルの精度は高く見えるが、テスト分布が変化するとすぐに劣化する可能性がある。
例えば、人間がサンプルのラベルを変更するために小さな修正を行った場合、分類器は性能が悪いことが示されている。
モデルの信頼性と一般化性を高める一つの解決策は、特徴とクラスの間の因果関係を特定することである。
本稿では,自動生成した対実データを用いてトレーニングデータを増強し,頑健なテキスト分類器を訓練することを提案する。
まず,統計的マッチング手法を用いて因果的特徴を同定する。
次に, 元のトレーニングデータに対して, 因果的特徴をアントロニムに置換し, 反対のラベルを反ファクト的サンプルに割り当てることで, 反ファクト的サンプルを生成する。
最後に、元のデータと反実データを組み合わせて、堅牢な分類器を訓練する。
2つの分類タスクの実験は、オリジナルのデータに基づいて訓練された伝統的な分類器が、人間の生成した偽物サンプル(例えば、10%-37%の精度低下)に非常に悪影響を及ぼすことを示した。
しかし、組み合わせデータに基づいて訓練された分類器はより堅牢で、元のテストデータとカウンターファクトテストデータの両方(例えば従来の分類器と比較して12%-25%の精度向上)で良好に機能する。
詳細な分析によると、ロバスト分類器は因果的特徴を強調し、非因果的特徴を強調することによって有意義で信頼できる予測を行う。 Spurious correlations threaten the validity of statistical classifiers. While model accuracy may appear high when the test data is from the same distribution as the training data, it can quickly degrade when the test distribution changes. For example, it has been shown that classifiers perform poorly when humans make minor modifications to change the label of an example. One solution to increase model reliability and generalizability is to identify causal associations between features and classes. In this paper, we propose to train a robust text classifier by augmenting the training data with automatically generated counterfactual data. We first identify likely causal features using a statistical matching approach. Next, we generate counterfactual samples for the original training data by substituting causal features with their antonyms and then assigning opposite labels to the counterfactual samples. Finally, we combine the original data and counterfactual data to train a robust classifier. Experiments on two classification tasks show that a traditional classifier trained on the original data does very poorly on human-generated counterfactual samples (e.g., 10%-37% drop in accuracy). However, the classifier trained on the combined data is more robust and performs well on both the original test data and the counterfactual test data (e.g., 12%-25% increase in accuracy compared with the traditional classifier). Detailed analysis shows that the robust classifier makes meaningful and trustworthy predictions by emphasizing causal features and de-emphasizing non-causal features. | 翻訳日:2021-05-01 18:08:00 公開日:2020-12-18 |
# リソース制約デバイスのためのトランスファー学習に基づく自動モデル作成ツール Transfer Learning Based Automatic Model Creation Tool For Resource Constraint Devices ( http://arxiv.org/abs/2012.10056v1 ) ライセンス: Link先を確認 | Karthik Bhat, Manan Bhandari, ChangSeok Oh, Sujin Kim and Jeeho Yoo | (参考訳) 機械学習の強化により、開発者が機械学習モデルを簡単に作成できるように多くのツールが設計されている。
本稿では,機械学習コードを記述することなく,トランスファー学習を用いた制約デバイスのためのカスタムモデルの自動生成手法を提案する。
我々は,yamnetやmobilenetv2などの事前学習モデルを用いて作成した自動モデル作成ツールとcnnモデルのアーキテクチャを特徴抽出器として共有する。
最後に,自動画像分類器と音声分類器を作成し,このツールを用いて作成したモデルの精度とメモリフットプリントを実証し,スタンフォード車とesc-50データセットを用いた実験結果を報告する。 With the enhancement of Machine Learning, many tools are being designed to assist developers to easily create their Machine Learning models. In this paper, we propose a novel method for auto creation of such custom models for constraint devices using transfer learning without the need to write any machine learning code. We share the architecture of our automatic model creation tool and the CNN Model created by it using pretrained models such as YAMNet and MobileNetV2 as feature extractors. Finally, we demonstrate accuracy and memory footprint of the model created from the tool by creating an Automatic Image and Audio classifier and report the results of our experiments using Stanford Cars and ESC-50 dataset. | 翻訳日:2021-05-01 18:07:35 公開日:2020-12-18 |
# フェデレーション学習における公正性と正確性 Fairness and Accuracy in Federated Learning ( http://arxiv.org/abs/2012.10069v1 ) ライセンス: Link先を確認 | Wei Huang, Tianrui Li, Dexian Wang, Shengdong Du, Junbo Zhang | (参考訳) 連合学習設定では、複数のクライアントが中央サーバの調整の下でモデルを共同でトレーニングし、トレーニングデータをクライアントに保持してプライバシを確保する。
通常、フェデレーションネットワーク内の異なるデバイス間でのデータの一貫性のない分散と、エンドデバイス間の通信帯域の制限は、フェデレーション学習の主要な課題として統計的な異質性と高価な通信の両方を課す。
本稿では,フェデレート学習(FedFa)において,より公平で精度の高いアルゴリズムを提案する。
二重運動量勾配を利用する最適化スキームを導入し、それによってモデルの収束速度を加速する。
トレーニング精度の情報量とトレーニング周波数を組み合わせて重みを計測する適切な重み選択アルゴリズムを提案する。
この手順は、特定のクライアントの好みによるフェデレーション学習における不公平な問題に対処するのに役立つ。
提案したFedFaアルゴリズムは,精度と公平性の観点からベースラインアルゴリズムよりも優れていることを示す。 In the federated learning setting, multiple clients jointly train a model under the coordination of the central server, while the training data is kept on the client to ensure privacy. Normally, inconsistent distribution of data across different devices in a federated network and limited communication bandwidth between end devices impose both statistical heterogeneity and expensive communication as major challenges for federated learning. This paper proposes an algorithm to achieve more fairness and accuracy in federated learning (FedFa). It introduces an optimization scheme that employs a double momentum gradient, thereby accelerating the convergence rate of the model. An appropriate weight selection algorithm that combines the information quantity of training accuracy and training frequency to measure the weights is proposed. This procedure assists in addressing the issue of unfairness in federated learning due to preferences for certain clients. Our results show that the proposed FedFa algorithm outperforms the baseline algorithm in terms of accuracy and fairness. | 翻訳日:2021-05-01 18:07:23 公開日:2020-12-18 |
# roby: 決定境界による深層モデルのロバスト性の評価 ROBY: Evaluating the Robustness of a Deep Model by its Decision Boundaries ( http://arxiv.org/abs/2012.10282v1 ) ライセンス: Link先を確認 | Jinyin Chen, Zhen Wang, Haibin Zheng, Jun Xiao, Zhaoyan Ming | (参考訳) 多くの現実世界のタスクにディープラーニングモデルをうまく適用することで、モデルの堅牢性はますます重要になる。
多くの場合,特定の攻撃者やモデルタイプに依存して計算的にコストがかかる敵のサンプルを意図的に攻撃することで,深層モデルの堅牢性を評価する。
本研究は, モデル決定境界に基づく新たな攻撃非依存ロバストネス尺度であるROBYの総合評価指標を提案する。
敵対的なサンプルとは独立して、ROBYはクラス間およびクラス内統計特徴を使用して、モデルの決定境界の特徴をキャプチャする。
我々は10種類の最先端の深層モデルで実験を行い、ロビーは強力な一階攻撃者による攻撃成功率(ASR)のロバストネスゴールド標準と一致することを示した。
時間的コストは1%に過ぎません
我々の知る限りでは、ROBYは、幅広い深層モデルに適用可能な、最初の軽量な攻撃非依存のロバストネス評価指標である。
ROBYのコードはhttps://github.com/baaaad/ROBY-Evaluating-the-Robustness-of-a-Deep-Model-by-its-Decision-Boundariesで公開されている。 With the successful application of deep learning models in many real-world tasks, the model robustness becomes more and more critical. Often, we evaluate the robustness of the deep models by attacking them with purposely generated adversarial samples, which is computationally costly and dependent on the specific attackers and the model types. This work proposes a generic evaluation metric ROBY, a novel attack-independent robustness measure based on the model's decision boundaries. Independent of adversarial samples, ROBY uses the inter-class and intra-class statistic features to capture the features of the model's decision boundaries. We experimented on ten state-of-the-art deep models and showed that ROBY matches the robustness gold standard of attack success rate (ASR) by a strong first-order generic attacker. with only 1% of time cost. To the best of our knowledge, ROBY is the first lightweight attack-independent robustness evaluation metric that can be applied to a wide range of deep models. The code of ROBY is open sourced at https://github.com/baaaad/ROBY-Evaluating-the-Robustness-of-a-Deep-Model-by-its-Decision-Boundaries. | 翻訳日:2021-05-01 18:07:05 公開日:2020-12-18 |
# ヒト脳の拡散テンソルイメージングを用いた機械学習応用:PubMed文献レビュー Machine learning applications using diffusion tensor imaging of human brain: A PubMed literature review ( http://arxiv.org/abs/2012.10517v1 ) ライセンス: Link先を確認 | Ashirbani Saha, Pantea Fadaiefard, Jessica E. Rabski, Alireza Sadeghian, and Michael D. Cusimano | (参考訳) われわれは,2010年1月から2019年12月にかけて,人間の脳,拡散テンソルイメージング(DTI),機械学習(ML)に関連する148論文のPubMed検索を行った。
健康なコホート(n = 15)、精神健康障害(n = 25)、腫瘍(n = 19)、外傷(n = 5)、認知症(n = 24)、発達障害(n = 5)、運動障害(n = 9)、他の神経障害(n = 27)、雑多な非神経障害(n = 7)、フォーカス病(n = 7)、および前述のカテゴリの複数の組み合わせ(n = 12)に焦点を当てた。
DTIの情報を用いた患者の分類は、最も一般的な(n = 114)MLアプリケーションであることが示されている。
研究のかなりの数 (n = 93) は、サポートベクトルマシン (SVM) を分類のためのMLモデルの選択として用いた。
近年の出版物(2018-2019)のかなりの部分(31/44)は、SVMを使い続け、ベクトル回帰をサポートし、従来のMLの一部であるランダムフォレストをサポートした。
様々な健康状態(健康状態を含む)にまたがる多くの応用が実施されたが、研究の大部分は100未満の小さなコホートに基づいており、テストセットに対する独立・外部検証は行わなかった。 We performed a PubMed search to find 148 papers published between January 2010 and December 2019 related to human brain, Diffusion Tensor Imaging (DTI), and Machine Learning (ML). The studies focused on healthy cohorts (n = 15), mental health disorders (n = 25), tumor (n = 19), trauma (n = 5), dementia (n = 24), developmental disorders (n = 5), movement disorders (n = 9), other neurological disorders (n = 27), miscellaneous non-neurological disorders, or without stating the disease of focus (n = 7), and multiple combinations of the aforementioned categories (n = 12). Classification of patients using information from DTI stands out to be the most commonly (n = 114) performed ML application. A significant number (n = 93) of studies used support vector machines (SVM) as the preferred choice of ML model for classification. A significant portion (31/44) of publications in the recent years (2018-2019) continued to use SVM, support vector regression, and random forest which are a part of traditional ML. Though many types of applications across various health conditions (including healthy) were conducted, majority of the studies were based on small cohorts (less than 100) and did not conduct independent/external validation on test sets. | 翻訳日:2021-05-01 18:06:43 公開日:2020-12-18 |
# 時間窓を有する動的多周期車両経路問題の領域設計 Territory Design for Dynamic Multi-Period Vehicle Routing Problem with Time Windows ( http://arxiv.org/abs/2012.10506v1 ) ライセンス: Link先を確認 | Hern\'an Lespay and Karol Suchan | (参考訳) 本研究は,食品会社の流通センターにおける実世界のアプリケーションにより動機付けられた時間窓(td-dmpvrptw)を用いた動的多周期車両経路問題に対する領域設計を提案する。
この問題は、複数期間計画の地平線上で、倉庫から時間窓のある一連の顧客へ注文を届けるための、連続的でコンパクトな領域の設計を扱う。
顧客と要求は時間とともに動的に変化する。
この問題はMILP(mixed-integer linear program)としてモデル化され、提案したヒューリスティックによって解決される。
ヒューリスティックソリューションは、小さな人工インスタンスのセット上の提案されたMILPソリューションと、実世界のインスタンスのセット上の食品会社のソリューションと比較される。
計算結果から,提案アルゴリズムは適度な実行時間内に高品質な解が得られることが示された。 This study introduces the Territory Design for Dynamic Multi-Period Vehicle Routing Problem with Time Windows (TD-DMPVRPTW), motivated by a real-world application at a food company's distribution center. This problem deals with the design of contiguous and compact territories for delivery of orders from a depot to a set of customers, with time windows, over a multi-period planning horizon. Customers and their demands vary dynamically over time. The problem is modeled as a mixed-integer linear program (MILP) and solved by a proposed heuristic. The heuristic solutions are compared with the proposed MILP solutions on a set of small artificial instances and the food company's solutions on a set of real-world instances. Computational results show that the proposed algorithm can yield high-quality solutions within moderate running times. | 翻訳日:2021-05-01 18:06:14 公開日:2020-12-18 |
# 一般しきい値に基づく非サブモジュラーモデルにおける影響最大化 Influence Maximization Under Generic Threshold-based Non-submodular Model ( http://arxiv.org/abs/2012.12309v1 ) ライセンス: Link先を確認 | Liang Ma | (参考訳) 広く観察可能な社会効果として、影響拡散はイノベーション、トレンド、認識などのプロセスを指す。
個人間の社会的影響を通じて ネットワーク全体に広がります
このような社会的効果によって動機づけられた影響最大化の概念は、最大影響拡散を共同で引き起こすことができるように、ソーシャルネットワークから最も影響力のあるノード(種子ノード)の有界数を選択することが目的である。
この領域における豊富な研究は、証明可能な部分モジュラリティを持つ統計拡散モデルの下で行われ、これは本質的に問題を単純化し、単純な欲求探索によって最適な結果が近似できるためである。
しかし, 拡散モデルが非部分モジュラーである場合, 研究コミュニティは, 最適結果を推定するために, 移動可能な部分モジュラー関数によってそれらを束縛・近似する方法に重点を置いている。
言い換えれば、非部分モジュラー影響の最大化問題を直接解決できる効率的な方法がまだ存在しない。
そこで本研究では,ネットワークグラフィカル特性を用いたシード選択戦略を一般化しきい値モデルで提案することで,そのギャップを埋める。
具体的には、まず、ノード除去によって生成されたネットワークが元のネットワークと同じ最適なシードセットを持つことを保証するグラフィカルな条件を明らかにする。
次に,これらの理論条件を利用して,重要でないノードを戦略的に除去し,残りのネットワークでのみ種を選択できる効率的なアルゴリズムを開発する。
我々の知る限りでは、これは非部分モジュラー影響の最大化に直接取り組む最初のグラフベースのアプローチである。 As a widely observable social effect, influence diffusion refers to a process where innovations, trends, awareness, etc. spread across the network via the social impact among individuals. Motivated by such social effect, the concept of influence maximization is coined, where the goal is to select a bounded number of the most influential nodes (seed nodes) from a social network so that they can jointly trigger the maximal influence diffusion. A rich body of research in this area is performed under statistical diffusion models with provable submodularity, which essentially simplifies the problem as the optimal result can be approximated by the simple greedy search. When the diffusion models are non-submodular, however, the research community mostly focuses on how to bound/approximate them by tractable submodular functions so as to estimate the optimal result. In other words, there is still a lack of efficient methods that can directly resolve non-submodular influence maximization problems. In this regard, we fill the gap by proposing seed selection strategies using network graphical properties in a generalized threshold-based model, called influence barricade model, which is non-submodular. Specifically, under this model, we first establish theories to reveal graphical conditions that ensure the network generated by node removals has the same optimal seed set as that in the original network. We then exploit these theoretical conditions to develop efficient algorithms by strategically removing less-important nodes and selecting seeds only in the remaining network. To the best of our knowledge, this is the first graph-based approach that directly tackles non-submodular influence maximization. | 翻訳日:2021-05-01 18:05:58 公開日:2020-12-18 |
# NeurST: ニューラルネットワーク翻訳ツールキット NeurST: Neural Speech Translation Toolkit ( http://arxiv.org/abs/2012.10018v1 ) ライセンス: Link先を確認 | Chengqi Zhao and Mingxuan Wang and Lei Li | (参考訳) NeurSTはByteDance AI Labが開発した、ニューラルネットワーク翻訳のためのオープンソースのツールキットである。
このツールキットは主にエンドツーエンドの音声翻訳に焦点を当てており、使用、修正、高度な音声翻訳研究や製品への拡張が容易である。
neurstは、nlp研究者のための音声翻訳研究の促進を目標とし、特徴抽出、データ前処理、分散トレーニング、評価を含む音声翻訳ベンチマークの完全なセットアップを提供する。
さらに、このツールキットは、エンドツーエンドの音声翻訳のためのいくつかの主要なアーキテクチャを実装している。
これは、様々なベンチマークデータセットの実験結果を示し、将来の研究の信頼性の高いベースラインと見なすことができる。
このツールキットはhttps://github.com/bytedance/neurstで公開されている。 NeurST is an open-source toolkit for neural speech translation developed by ByteDance AI Lab. The toolkit mainly focuses on end-to-end speech translation, which is easy to use, modify, and extend to advanced speech translation research and products. NeurST aims at facilitating the speech translation research for NLP researchers and provides a complete setup for speech translation benchmarks, including feature extraction, data preprocessing, distributed training, and evaluation. Moreover, The toolkit implements several major architectures for end-to-end speech translation. It shows experimental results for different benchmark datasets, which can be regarded as reliable baselines for future research. The toolkit is publicly available at https://github.com/bytedance/neurst. | 翻訳日:2021-05-01 18:05:32 公開日:2020-12-18 |
# trader-company method: 解釈可能な株価予測のためのメタヒューリスティック Trader-Company Method: A Metaheuristic for Interpretable Stock Price Prediction ( http://arxiv.org/abs/2012.10215v1 ) ライセンス: Link先を確認 | Katsuya Ito and Kentaro Minami and Kentaro Imajo and Kei Nakagawa | (参考訳) 投資家は投資を成功させるために金融資産のリターンを予測しようとする。
多くの量的アナリストは、大量の市場データから未知の利益率の市場ルールを見つけるために機械学習ベースの手法を使ってきた。
しかし、金融市場には機械学習ベースのモデルの実践的応用を妨げるいくつかの課題がある。
まず、金融市場では、市場のトレーダーが新たに利用可能な情報に迅速に適応するため、常に正確な予測ができるモデルが存在しない。
その代わり、「アルファ因子」と呼ばれる多くの短命かつ部分的に正しいモデルが存在する。
第二に、金融市場は極めて不確実であるため、信頼できる取引戦略を作るには予測モデルの解釈可能性を確保することが極めて重要である。
これらの課題を克服するために,金融機関とそれに属するトレーダーの役割を模倣する新たな進化モデルであるトレーダー・コーポニー法を提案する。
提案手法は,トレーダーと呼ばれる複数の弱い学習者からの示唆を集約することで,将来の株価リターンを予測する。
トレーダーは単純な数式の集合を持ち、それぞれアルファ因子の候補を表し、現実世界の投資家にとって解釈可能である。
集約アルゴリズムは企業と呼ばれ、複数のトレーダーを維持する。
新しいトレーダーをランダムに生成し、再訓練することで、企業は市場の過渡状態への過度な適合を避けつつ、経済的に有意義な公式を効率的に見つけることができる。
実市場データを用いて実験を行い,本手法の有効性を示す。 Investors try to predict returns of financial assets to make successful investment. Many quantitative analysts have used machine learning-based methods to find unknown profitable market rules from large amounts of market data. However, there are several challenges in financial markets hindering practical applications of machine learning-based models. First, in financial markets, there is no single model that can consistently make accurate prediction because traders in markets quickly adapt to newly available information. Instead, there are a number of ephemeral and partially correct models called "alpha factors". Second, since financial markets are highly uncertain, ensuring interpretability of prediction models is quite important to make reliable trading strategies. To overcome these challenges, we propose the Trader-Company method, a novel evolutionary model that mimics the roles of a financial institute and traders belonging to it. Our method predicts future stock returns by aggregating suggestions from multiple weak learners called Traders. A Trader holds a collection of simple mathematical formulae, each of which represents a candidate of an alpha factor and would be interpretable for real-world investors. The aggregation algorithm, called a Company, maintains multiple Traders. By randomly generating new Traders and retraining them, Companies can efficiently find financially meaningful formulae whilst avoiding overfitting to a transient state of the market. We show the effectiveness of our method by conducting experiments on real market data. | 翻訳日:2021-05-01 18:05:07 公開日:2020-12-18 |
# 未知スペクトルパワー分布を持つプロジェクタを用いたスペクトル反射率推定 Spectral Reflectance Estimation Using Projector with Unknown Spectral Power Distribution ( http://arxiv.org/abs/2012.10083v1 ) ライセンス: Link先を確認 | Hironori Hidaka, Yusuke Monno, Masatoshi Okutomi | (参考訳) RGBカメラとプロジェクターを用いた照明ベースのマルチスペクトルイメージングシステムは、シーンのスペクトル反射情報を推定するためのマルチスペクトル観測を行う最も実用的で低コストなシステムの一つである。
しかし、既存のプロジェクターベースシステムでは、各プロジェクタープライマリのスペクトル電力分布(SPD)が知られており、SPDを測定するには分光計のような追加の機器が必要である。
本稿では,各プロジェクタプライマリのスペクトル反射率とspdを共同で推定する手法を提案する。
共通のスペクトル反射基底モデルを採用することに加えて、新たに収集したプロジェクタのspdデータベースから得られた基底関数を用いて、低次元モデルによりプロジェクタのspdをモデル化する。
そして、基底モデルに基づいてスペクトル反射率とプロジェクタのspdを代替的に推定する。
異なる射影イルミネーションを用いた共同推定の性能を実験的に示し、未知のspdを持つプロジェクタを用いたスペクトル反射率推定の可能性について検討した。 A lighting-based multispectral imaging system using an RGB camera and a projector is one of the most practical and low-cost systems to acquire multispectral observations for estimating the scene's spectral reflectance information. However, existing projector-based systems assume that the spectral power distribution (SPD) of each projector primary is known, which requires additional equipment such as a spectrometer to measure the SPD. In this paper, we present a method for jointly estimating the spectral reflectance and the SPD of each projector primary. In addition to adopting a common spectral reflectance basis model, we model the projector's SPD by a low-dimensional model using basis functions obtained by a newly collected projector's SPD database. Then, the spectral reflectances and the projector's SPDs are alternatively estimated based on the basis models. We experimentally show the performance of our joint estimation using a different number of projected illuminations and investigate the potential of the spectral reflectance estimation using a projector with unknown SPD. | 翻訳日:2021-05-01 18:03:53 公開日:2020-12-18 |
# 網膜血管分節に対するマルチモーダルトランスファー学習に基づくアプローチ Multimodal Transfer Learning-based Approaches for Retinal Vascular Segmentation ( http://arxiv.org/abs/2012.10160v1 ) ライセンス: Link先を確認 | Jos\'e Morano, \'Alvaro S. Hervella, Noelia Barreira, Jorge Novo, Jos\'e Rouco | (参考訳) 眼科領域では、網膜微小循環の研究は、高血圧や糖尿病など多くの眼疾患や全身疾患の分析において重要な問題である。
これは網膜血管セグメンテーションを改善する研究の動機となっている。
現在、FCN(Fully Convolutional Neural Networks)は画像セグメンテーションにおいて最も成功したアプローチである。
しかしながら、これらのモデルの成功は、使用するアーキテクチャやテクニックの適切な選択と適応、そして大量の注釈付きデータの可用性によって条件付けられている。
これらの2つの問題は、医用画像セグメント化にFCNを適用する際に特に重要となり、第一に、既存のモデルは通常、写真画像よりも広い領域のアプリケーションから調整され、第二に、注釈付きデータの量は、通常不足している。
本研究では,網膜血管セグメンテーションに対するマルチモーダルトランスファー学習に基づくアプローチを提案し,最近のFCNアーキテクチャの比較研究を行った。
特に,アノテーテッドデータ不足を克服するために,既存のラベルなしマルチモーダルデータを利用した自己教師付きネットワークプリトレーニングの新たな応用を提案する。
その結果, 自己指導型プレトレーニングネットワークは, ネットワークアーキテクチャとは独立に, 目標タスクでのトレーニングを少なくして, はるかに優れた血管マスクが得られること, 広範ドメインアプリケーションに動機づけられたFCNアーキテクチャの進歩が, 血管分節タスクよりも大幅に改善されることが示唆された。 In ophthalmology, the study of the retinal microcirculation is a key issue in the analysis of many ocular and systemic diseases, like hypertension or diabetes. This motivates the research on improving the retinal vasculature segmentation. Nowadays, Fully Convolutional Neural Networks (FCNs) usually represent the most successful approach to image segmentation. However, the success of these models is conditioned by an adequate selection and adaptation of the architectures and techniques used, as well as the availability of a large amount of annotated data. These two issues become specially relevant when applying FCNs to medical image segmentation as, first, the existent models are usually adjusted from broad domain applications over photographic images, and second, the amount of annotated data is usually scarcer. In this work, we present multimodal transfer learning-based approaches for retinal vascular segmentation, performing a comparative study of recent FCN architectures. In particular, to overcome the annotated data scarcity, we propose the novel application of self-supervised network pretraining that takes advantage of existent unlabelled multimodal data. The results demonstrate that the self-supervised pretrained networks obtain significantly better vascular masks with less training in the target task, independently of the network architecture, and that some FCN architecture advances motivated for broad domain applications do not translate into significant improvements over the vasculature segmentation task. | 翻訳日:2021-05-01 18:03:35 公開日:2020-12-18 |
# 写真におけるガウスノイズフィルタの視覚的知覚に関する調査 A Survey on the Visual Perceptions of Gaussian Noise Filtering on Photography ( http://arxiv.org/abs/2012.10472v1 ) ライセンス: Link先を確認 | Aidan Draper and Laura L. Taylor | (参考訳) 統計学者や機械学習やコンピュータビジョンの専門家は、テキストの文書化、トモグラフィ、天文学、低光度撮影など、様々な分野の写真を分類することで画像再構成を研究している。
本稿では,adobe lightroom の denoise フィルタと同様に,r および python 言語に共通な推論型カーネルフィルタを適用し,jpeg 画像からのノイズ除去におけるその効果を比較した。
標準ベンチマークテストを実施し,ノイズ除去に対する各手法の有効性を評価した。
また、Elon大学の学生を対象に、さまざまなフィルター法で処理された写真のコレクションから1枚のフィルターで撮影した写真について調査した。
多くの科学者はノイズフィルタがぼやけや画質の低下を引き起こしていると信じているため、ノイズのない画像に比べてノイズが品質の低下を引き起こすように感じられるかどうかを分析した。
個人は1から10スケールのノイズのない写真と比較して、画像の画質を示すスコアを割り当てた。
画像品質スコアに有意差があるかどうかを評価するために,フィルタ間で調査スコアを比較した。
ベンチマークスコアは視覚知覚スコアと比較した。
次に, 共分散テストの分析を行い, 調査実習得点が, 学生の視覚スコアの無計画変動を, フィルター法で説明できるかどうかについて検討した。 Statisticians, as well as machine learning and computer vision experts, have been studying image reconstitution through denoising different domains of photography, such as textual documentation, tomographic, astronomical, and low-light photography. In this paper, we apply common inferential kernel filters in the R and python languages, as well as Adobe Lightroom's denoise filter, and compare their effectiveness in removing noise from JPEG images. We ran standard benchmark tests to evaluate each method's effectiveness for removing noise. In doing so, we also surveyed students at Elon University about their opinion of a single filtered photo from a collection of photos processed by the various filter methods. Many scientists believe that noise filters cause blurring and image quality loss so we analyzed whether or not people felt as though denoising causes any quality loss as compared to their noiseless images. Individuals assigned scores indicating the image quality of a denoised photo compared to its noiseless counterpart on a 1 to 10 scale. Survey scores are compared across filters to evaluate whether there were significant differences in image quality scores received. Benchmark scores were compared to the visual perception scores. Then, an analysis of covariance test was run to identify whether or not survey training scores explained any unplanned variation in visual scores assigned by students across the filter methods. | 翻訳日:2021-05-01 18:02:39 公開日:2020-12-18 |
# Atlas-ISTN: Image-and-Spatial Transformer Networksによる関節分割・登録・アトラス構築 Atlas-ISTN: Joint Segmentation, Registration and Atlas Construction with Image-and-Spatial Transformer Networks ( http://arxiv.org/abs/2012.10533v1 ) ライセンス: Link先を確認 | Matthew Sinclair and Andreas Schuh and Karl Hahn and Kersten Petersen and Ying Bai and James Batten and Michiel Schaap and Ben Glocker | (参考訳) セマンティックセグメンテーションのためのディープラーニングモデルは、ピクセルワイズ予測のための強力な表現を学習することができるが、テスト時のノイズに敏感であり、妥当なトポロジを保証しない。
一方、画像登録モデルは、既知のトポロジを、セグメンテーションの手段としてターゲット画像にワープすることができるが、通常は大量のトレーニングデータを必要とし、ピクセルワイドセグメンテーションモデルに対して広くベンチマークされていない。
本研究では,2次元画像データと3次元画像データのセグメンテーションと登録を共同で学習するフレームワークであるAtlas-ISTNを提案する。
Atlas-ISTNは、複数の関心構造をセグメンテーションし、構成された位相的に整合したアトラスラベルマップを中間画素分割に登録する。
さらに、Atlas-ISTNはモデルパラメータのテスト時間改善を可能にし、アトラスのラベルマップを中間ピクセルワイドセグメンテーションに最適化する。
このプロセスは、ターゲット画像のノイズを緩和し、刺激的なピクセルワイズ予測をもたらすとともに、モデルのワンパス予測を改善する。
Atlas-ISTNフレームワークの利点は2次元合成データと3次元心電図および脳磁気共鳴画像データに定性的かつ定量的に示され、セグメンテーションと登録ベースラインモデルの両方に優れる。
Atlas-ISTNはまた、関心の構造のオブジェクト間対応を提供し、人口レベルの形状と運動分析を可能にする。 Deep learning models for semantic segmentation are able to learn powerful representations for pixel-wise predictions, but are sensitive to noise at test time and do not guarantee a plausible topology. Image registration models on the other hand are able to warp known topologies to target images as a means of segmentation, but typically require large amounts of training data, and have not widely been benchmarked against pixel-wise segmentation models. We propose Atlas-ISTN, a framework that jointly learns segmentation and registration on 2D and 3D image data, and constructs a population-derived atlas in the process. Atlas-ISTN learns to segment multiple structures of interest and to register the constructed, topologically consistent atlas labelmap to an intermediate pixel-wise segmentation. Additionally, Atlas-ISTN allows for test time refinement of the model's parameters to optimize the alignment of the atlas labelmap to an intermediate pixel-wise segmentation. This process both mitigates for noise in the target image that can result in spurious pixel-wise predictions, as well as improves upon the one-pass prediction of the model. Benefits of the Atlas-ISTN framework are demonstrated qualitatively and quantitatively on 2D synthetic data and 3D cardiac computed tomography and brain magnetic resonance image data, out-performing both segmentation and registration baseline models. Atlas-ISTN also provides inter-subject correspondence of the structures of interest, enabling population-level shape and motion analysis. | 翻訳日:2021-05-01 18:02:17 公開日:2020-12-18 |
# ハイパースペクトル圧縮スナップショット再構成のための教師なし空間スペクトルネットワーク学習 Unsupervised Spatial-spectral Network Learning for Hyperspectral Compressive Snapshot Reconstruction ( http://arxiv.org/abs/2012.12086v1 ) ライセンス: Link先を確認 | Yubao Sun, Ying Yang, Qingshan Liu, Mohan Kankanhalli | (参考訳) ハイパースペクトル圧縮イメージングは、圧縮センシング理論を利用して、時間的走査を行わずに符号化された開口スナップショット測定を行い、3次元空間スペクトルデータ全体を1回の積分期間中に2次元投影によってキャプチャする。
その核となる問題は、圧縮センシング再構成アルゴリズムを用いて基礎となるハイパースペクトル画像を再構築する方法である。
異なるスペクトルイメージング装置のスペクトル応答特性と波長範囲の多様性のため、以前の研究は複雑なスペクトルのばらつきを捉えたり、新しいハイパースペクトル画像装置に適応する能力に欠けることが多い。
これらの問題に対処するために,圧縮スナップショット計測からのみハイパースペクトル像を再構成する空間スペクトルネットワークを提案する。
提案するネットワークは,スナップショット計測に基づく条件付き生成モデルとして機能し,空間スペクトルアテンションモジュールを用いてハイパースペクトル画像の共役空間スペクトル相関を捉える。
ネットワークパラメータは、ネットワーク出力が画像モデルに従って所定のスナップショット測定と密に一致するように最適化されるため、提案するネットワークは異なる撮像設定に適応でき、ネットワークの適用性が本質的に向上する。
複数のデータセットに対する大規模な実験により、我々のネットワークは最先端の手法よりもより良い再構築結果が得られることを示した。 Hyperspectral compressive imaging takes advantage of compressive sensing theory to achieve coded aperture snapshot measurement without temporal scanning, and the entire three-dimensional spatial-spectral data is captured by a two-dimensional projection during a single integration period. Its core issue is how to reconstruct the underlying hyperspectral image using compressive sensing reconstruction algorithms. Due to the diversity in the spectral response characteristics and wavelength range of different spectral imaging devices, previous works are often inadequate to capture complex spectral variations or lack the adaptive capacity to new hyperspectral imagers. In order to address these issues, we propose an unsupervised spatial-spectral network to reconstruct hyperspectral images only from the compressive snapshot measurement. The proposed network acts as a conditional generative model conditioned on the snapshot measurement, and it exploits the spatial-spectral attention module to capture the joint spatial-spectral correlation of hyperspectral images. The network parameters are optimized to make sure that the network output can closely match the given snapshot measurement according to the imaging model, thus the proposed network can adapt to different imaging settings, which can inherently enhance the applicability of the network. Extensive experiments upon multiple datasets demonstrate that our network can achieve better reconstruction results than the state-of-the-art methods. | 翻訳日:2021-05-01 18:01:48 公開日:2020-12-18 |
# プログレッシブ生成逆ネットワークを用いた3次元mr画像合成 Three Dimensional MR Image Synthesis with Progressive Generative Adversarial Networks ( http://arxiv.org/abs/2101.05218v1 ) ライセンス: Link先を確認 | Muzaffer \"Ozbey, Mahmut Yurt, Salman Ul Hassan Dar, Tolga \c{C}ukur | (参考訳) 3次元MRI合成の主ストリーム深部モデルは、入力に応じて断面的または体積的である。
断面モデルはモデルの複雑さを減少させるが、不連続な成果物につながる可能性がある。
一方で、ボリュームモデルは不連続なアーティファクトを軽減できるが、モデルの複雑さの増加とトレーニングデータの不足により、空間分解能が失われる可能性がある。
両手法の限界を緩和するため,各方向を横断する単純な合成タスクにより,目標音量を段階的に回復するモデルを提案する。 Mainstream deep models for three-dimensional MRI synthesis are either cross-sectional or volumetric depending on the input. Cross-sectional models can decrease the model complexity, but they may lead to discontinuity artifacts. On the other hand, volumetric models can alleviate the discontinuity artifacts, but they might suffer from loss of spatial resolution due to increased model complexity coupled with scarce training data. To mitigate the limitations of both approaches, we propose a novel model that progressively recovers the target volume via simpler synthesis tasks across individual orientations. | 翻訳日:2021-05-01 18:01:26 公開日:2020-12-18 |
# ErGAN: エンティティ解決のためのジェネレータネットワーク ErGAN: Generative Adversarial Networks for Entity Resolution ( http://arxiv.org/abs/2012.10004v1 ) ライセンス: Link先を確認 | Jingyu Shao, Qing Wang, Asiri Wijesinghe, Erhard Rahm | (参考訳) エンティティの解像度は、1つ以上のデータセットから同じ現実世界のエンティティを表すレコードを特定することを目標としている。
学習ベースのエンティティ解決における大きな課題は、トレーニングのラベルコストを削減する方法だ。
レコード対比較の二次的な性質から、ラベル付けはコストのかかる作業であり、人間の専門家からの多大な努力を必要とする。
近年のGAN(Generative Adversarial Network)の発展に触発されて,ErGANと呼ばれる新しいディープラーニング手法を提案する。
ErGANはラベルジェネレータと識別器の2つの重要なコンポーネントから構成されており、逆学習によって代わりに最適化される。
過剰フィッティングと高度にバランスの取れない分布の問題を緩和するために, モデル一般化能力を大幅に向上できる, 多様性と伝播のための2つの新しいモジュールを設計した。
我々はErGANのラベル付けと学習効率を実証的に検証するための広範な実験を行った。
実験の結果,ErGANは教師なし,半教師なし,教師なしの学習方法を含む最先端のベースラインを上回っていることがわかった。 Entity resolution targets at identifying records that represent the same real-world entity from one or more datasets. A major challenge in learning-based entity resolution is how to reduce the label cost for training. Due to the quadratic nature of record pair comparison, labeling is a costly task that often requires a significant effort from human experts. Inspired by recent advances of generative adversarial network (GAN), we propose a novel deep learning method, called ErGAN, to address the challenge. ErGAN consists of two key components: a label generator and a discriminator which are optimized alternatively through adversarial learning. To alleviate the issues of overfitting and highly imbalanced distribution, we design two novel modules for diversity and propagation, which can greatly improve the model generalization power. We have conducted extensive experiments to empirically verify the labeling and learning efficiency of ErGAN. The experimental results show that ErGAN beats the state-of-the-art baselines, including unsupervised, semi-supervised, and unsupervised learning methods. | 翻訳日:2021-05-01 18:01:16 公開日:2020-12-18 |
# 確率計画による宇宙船衝突リスク評価 Spacecraft Collision Risk Assessment with Probabilistic Programming ( http://arxiv.org/abs/2012.10260v1 ) ライセンス: Link先を確認 | Giacomo Acciarini, Francesco Pinto, Sascha Metz, Sarah Boufelja, Sylvester Kaczmarek, Klaus Merz, Jos\'e A. Martinez-Heras, Francesca Letizia, Christopher Bridges, At{\i}l{\i}m G\"une\c{s} Baydin | (参考訳) 長さ10cm以上の34,000以上の天体が地球を公転していることが知られている。
そのうち、アクティブ衛星はごくわずかだが、残りの人口は死んだ衛星、ロケット体、そして運用衛星に衝突の脅威をもたらす破片でできている。
さらに、宇宙セクターの成長が予測され、メガ星の打ち上げが計画されると、さらに複雑さが増し、宇宙運用者の衝突リスクと負担が増大する。
この複雑なフレームワークを国際的に合意された方法で管理することは、重要かつ緊急である。
この文脈では,合成結合データメッセージ生成のための物理ベースの確率生成モデルを構築し,実データを用いてキャリブレーションを行う。
観測を条件づけることで,ベイズ推定による後方分布を求める。
協調評価に対する確率的プログラミングアプローチは、予測や観測されたデータを結合データメッセージで説明するためのパラメータを見つけるのに役立ち、これにより、結合イベントにつながる可能性のある重要な変数や軌道特性に光を当てる。
さらに,この領域で作業する空間と機械学習コミュニティの基本的なニーズに応え,物理的に正確な衝突の合成データセットの生成を可能にする。 Over 34,000 objects bigger than 10 cm in length are known to orbit Earth. Among them, only a small percentage are active satellites, while the rest of the population is made of dead satellites, rocket bodies, and debris that pose a collision threat to operational spacecraft. Furthermore, the predicted growth of the space sector and the planned launch of megaconstellations will add even more complexity, therefore causing the collision risk and the burden on space operators to increase. Managing this complex framework with internationally agreed methods is pivotal and urgent. In this context, we build a novel physics-based probabilistic generative model for synthetically generating conjunction data messages, calibrated using real data. By conditioning on observations, we use the model to obtain posterior distributions via Bayesian inference. We show that the probabilistic programming approach to conjunction assessment can help in making predictions and in finding the parameters that explain the observed data in conjunction data messages, thus shedding more light on key variables and orbital characteristics that more likely lead to conjunction events. Moreover, our technique enables the generation of physically accurate synthetic datasets of collisions, answering a fundamental need of the space and machine learning communities working in this area. | 翻訳日:2021-05-01 17:59:30 公開日:2020-12-18 |
# 自動司法意思決定システムのリバースエンジニアリングの危険性 The Danger of Reverse-Engineering of Automated Judicial Decision-Making Systems ( http://arxiv.org/abs/2012.10301v1 ) ライセンス: Link先を確認 | Masha Medvedeva, Martijn Wieling and Michel Vols | (参考訳) 本稿では、人権侵害の可能性がある状況において、司法判断に機械学習を用いることの意味について論じる。
このような状況におけるこのようなツールの使用は、現状の偏見やリバースエンジニアリングの危険性によって制限されるべきである。
機械学習ツールを使わずに、これらの問題が司法システムにすでに存在していることを議論する。 In this paper we discuss the implications of using machine learning for judicial decision-making in situations where human rights may be infringed. We argue that the use of such tools in these situations should be limited due to inherent status quo bias and dangers of reverse-engineering. We discuss that these issues already exist in the judicial systems without using machine learning tools, but how introducing them might exacerbate them. | 翻訳日:2021-05-01 17:59:11 公開日:2020-12-18 |
# バイアスデータセットからの多特性主題選択 Multi-characteristic Subject Selection from Biased Datasets ( http://arxiv.org/abs/2012.10311v1 ) ライセンス: Link先を確認 | Tahereh Arabghalizi, Alexandros Labrinidis | (参考訳) 被験者選択は実験研究、特にヒトの被験者にとって重要な役割を果たす。
逸話的な証拠は、大学のキャンパスで行われている多くの研究は、選択バイアス、すなわち過剰なコラージュ・キッド・アズ・サブジェクト問題に苦しんでいることを示唆している。
残念ながら、従来のサンプリング技術は、バイアスデータの上に適用されると、通常はバイアス結果を返す。
本稿では,バイアス付きデータセットからの複数特徴的主題選択の問題に取り組む。
本稿では,対象選択を行う研究者が所望するサンプリング分数に基づいて,異なる集団群に対して最適なサンプリング分数を求める制約付き最適化に基づく手法を提案する。
その結果,提案手法はすべての問題のベースラインを最大90%上回っていることがわかった。 Subject selection plays a critical role in experimental studies, especially ones with human subjects. Anecdotal evidence suggests that many such studies, done at or near university campus settings suffer from selection bias, i.e., the too-many-college-kids-as-subjects problem. Unfortunately, traditional sampling techniques, when applied over biased data, will typically return biased results. In this paper, we tackle the problem of multi-characteristic subject selection from biased datasets. We present a constrained optimization-based method that finds the best possible sampling fractions for the different population subgroups, based on the desired sampling fractions provided by the researcher running the subject selection.We perform an extensive experimental study, using a variety of real datasets. Our results show that our proposed method outperforms the baselines for all problem variations by up to 90%. | 翻訳日:2021-05-01 17:59:05 公開日:2020-12-18 |
# 因果関係の方向を推定し、ベイズ・メンデルランダム化アプローチによるその効果を推定する Inferring the Direction of a Causal Link and Estimating Its Effect via a Bayesian Mendelian Randomization Approach ( http://arxiv.org/abs/2012.10167v1 ) ライセンス: Link先を確認 | Ioan Gabriel Bucur, Tom Claassen and Tom Heskes | (参考訳) 遺伝子変異をインストゥルメンタル変数(mendelian randomization)として用いることは、疾患に対する暴露(表現型、バイオマーカー、リスクファクター)の因果効果や、観察データから健康関連の結果を予測する一般的な疫学手法である。
機器変数は強い、しばしば証明不可能な仮定を満たさなければならない。
この困難は、多くの遺伝子変異が異なる因果経路を通じて複数の表現型に影響を及ぼすという事実、すなわち水平プレオトロピー(英語版)と呼ばれる現象によって複合される。
これにより、因果効果の大きさを推定するだけでなく、因果連鎖の方向を推定する際の誤差も生じる。
本稿では,多変量効果を許容するメンデル確率化手法の一般化であるベイズMR(BayesMR)というベイズ的手法を提案する。
この方法の出力は、目標因果効果に対する後方分布であり、推定における不確かさの即時かつ容易に解釈可能な尺度を提供する。
さらに重要なことは、推定された方向が逆方向に対してどれだけ高いかを決定するためにベイズ平均モデルを用いることである。 The use of genetic variants as instrumental variables - an approach known as Mendelian randomization - is a popular epidemiological method for estimating the causal effect of an exposure (phenotype, biomarker, risk factor) on a disease or health-related outcome from observational data. Instrumental variables must satisfy strong, often untestable assumptions, which means that finding good genetic instruments among a large list of potential candidates is challenging. This difficulty is compounded by the fact that many genetic variants influence more than one phenotype through different causal pathways, a phenomenon called horizontal pleiotropy. This leads to errors not only in estimating the magnitude of the causal effect but also in inferring the direction of the putative causal link. In this paper, we propose a Bayesian approach called BayesMR that is a generalization of the Mendelian randomization technique in which we allow for pleiotropic effects and, crucially, for the possibility of reverse causation. The output of the method is a posterior distribution over the target causal effect, which provides an immediate and easily interpretable measure of the uncertainty in the estimation. More importantly, we use Bayesian model averaging to determine how much more likely the inferred direction is relative to the reverse direction. | 翻訳日:2021-05-01 17:58:32 公開日:2020-12-18 |
# 機械学習によるBRITEデータから可能な太陽系外惑星トランジットの探索 Searching for Possible Exoplanet Transits from BRITE Data through a Machine Learning Technique ( http://arxiv.org/abs/2012.10035v1 ) ライセンス: Link先を確認 | Li-Chin Yeh (ICMS, NTHU, Taiwan), Ing-Guey Jiang (CICA, NTHU, Taiwan) | (参考訳) BRITE衛星の光度曲線は、近傍の明るい恒星の周りを移動する太陽系外惑星が存在するかどうかを機械学習で調査した。
異なるトランジット期間に焦点を当て、いくつかの畳み込みニューラルネットワークがトランジット候補を探すために構築された。
畳み込みニューラルネットワークは合成トランジット信号とBRITE光曲線を組み合わせて訓練され、精度は99.7$\%以上になった。
我々の手法は、少数の交通候補を効率的に導くことができる。
これら10つの候補のうち、HD37465とHD186882の2つは、より優先度の高い将来の観測を通して続いた。
この研究で使用される畳み込みニューラルネットワークのコードは、http://www.phys.nthu.edu.tw/$\sim$jiang/BRITE2020YehJiangCNN.tar.gzで公開されている。 The photometric light curves of BRITE satellites were examined through a machine learning technique to investigate whether there are possible exoplanets moving around nearby bright stars. Focusing on different transit periods, several convolutional neural networks were constructed to search for transit candidates. The convolutional neural networks were trained with synthetic transit signals combined with BRITE light curves until the accuracy rate was higher than 99.7 $\%$. Our method could efficiently lead to a small number of possible transit candidates. Among these ten candidates, two of them, HD37465, and HD186882 systems, were followed up through future observations with a higher priority. The codes of convolutional neural networks employed in this study are publicly available at http://www.phys.nthu.edu.tw/$\sim$jiang/BRITE2020YehJiangCNN.tar.gz. | 翻訳日:2021-05-01 17:58:08 公開日:2020-12-18 |