このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200606となっている論文です。

PDF登録状況(公開日: 20200606)

TitleAuthorsAbstract論文公表日・翻訳日
# 新型コロナウイルスに直面する無線通信:パンデミックと経済の救世主

When Wireless Communication Faces COVID-19: Combating the Pandemic and Saving the Economy ( http://arxiv.org/abs/2005.06637v2 )

ライセンス: Link先を確認
Nasir Saeed and Ahmed Bader and Tareq Y. Al-Naffouri and Mohamed-Slim Alouini(参考訳) 2020年は新型コロナウイルスのパンデミックにより、世界的な健康・経済危機に見舞われている。 世界中の国々が、この世界的危機と戦うためにデジタル技術を使っています。 これらのデジタル技術は、いずれにせよ、無線通信技術の可用性に強く依存している。 本稿では,新型コロナウイルスパンデミックにおける無線通信の役割について,さまざまな観点から紹介する。 まず、新型コロナウイルスの感染拡大のモニタリング、医療自動化の実現、バーチャル教育と会議の実施など、これらの技術がパンデミック対策にどのように役立つかを示す。 また、パンデミックにおけるデジタル包括性の重要性と、未接続の人々をつなぐための可能な解決策を示す。 次に,プライバシやセキュリティ,誤った情報など,ワイヤレス技術が直面する課題について論じる。 次に,産業の自動化,サプライチェーンの自動化,電子商取引,リスクのある職業の支援など,グローバル経済の生き残りにおける無線通信技術の重要性について述べる。 最後に,パンデミック後の時代において,パンデミック時に開発された技術がどのように役立つかを明らかにする。

The year 2020 is experiencing a global health and economic crisis due to the COVID-19 pandemic. Countries across the world are using digital technologies to fight this global crisis. These digital technologies, in one way or another, strongly rely on the availability of wireless communication technologies. In this paper, we present the role of wireless communications in the COVID-19 pandemic from different perspectives. First, we show how these technologies are helping to combat this pandemic, including monitoring of the virus spread, enabling healthcare automation, and allowing virtual education and conferencing. Also, we show the importance of digital inclusiveness in the pandemic and possible solutions to connect the unconnected. Next, we discuss the challenges faced by wireless technologies, including privacy, security, and misinformation. Then, we present the importance of wireless communication technologies in the survival of the global economy, such as automation of industries and supply chain, e-commerce, and supporting occupations that are at risk. Finally, we reveal that how the technologies developed during the pandemic can be helpful in the post-pandemic era.
翻訳日:2023-05-20 11:40:51 公開日:2020-06-06
# 決定論的量子力学:数学的方程式

Deterministic Quantum Mechanics: the Mathematical Equations ( http://arxiv.org/abs/2005.06374v2 )

ライセンス: Link先を確認
Gerard t Hooft(参考訳) 哲学的正当化と意味づけの時間と労力を無駄にすることなく、決定論的システムと数学的に等価にするために、量子システムのハミルトニアンの条件を書き留める。 これらは考慮すべき方程式です。 「地方性」という概念には特に注意が払われる。 様々な例が研究され、その後に古典進化法則や量子ハミルトニアンを生成する体系的な手順が導かれる。 ここで新しくなったのは、インタラクションを可能な限り一般に保ちながら検討することです。 発見された量子系は、十分に低いエネルギー状態に制限すれば密度集合を形成する。 クラスは離散であり、有限個の古典状態を含む決定論的モデルの集合が離散であるからである。 従来の疑念とは対照的に、重力力はこのために不要であることが判明し、古典的な系は、考慮された最大散乱エネルギーの逆数よりもはるかに小さい時間スケールで作用する。

Without wasting time and effort on philosophical justifications and implications, we write down the conditions for the Hamiltonian of a quantum system for rendering it mathematically equivalent to a deterministic system. These are the equations to be considered. Special attention is given to the notion of 'locality'. Various examples are worked out, followed by a systematic procedure to generate classical evolution laws and quantum Hamiltonians that are exactly equivalent. What is new here is that we consider interactions, keeping them as general as we can. The quantum systems found, form a dense set if we limit ourselves to sufficiently low energy states. The class is discrete, just because the set of deterministic models containing a finite number of classical states, is discrete. In contrast with earlier suspicions, the gravitational force turns out not to be needed for this; it suffices that the classical system act at a time scale much smaller than the inverse of the maximum scattering energies considered.
翻訳日:2023-05-20 07:51:04 公開日:2020-06-06
# NISQ時代の量子アルゴリズムに関する微妙な真実

The Bitter Truth About Quantum Algorithms in the NISQ Era ( http://arxiv.org/abs/2006.02856v2 )

ライセンス: Link先を確認
Frank Leymann, Johanna Barzen(参考訳) NISQデバイスに量子アルゴリズムを実装するには、ノイズがあり、量子リソースが限られているという事実から生じるいくつかの課題がある。 したがって、あるNISQデバイス上で実装が正常に実行されるかどうかを評価するためには、深さと幅、およびアルゴリズムの実装のノイズに寄与する様々な要因を理解する必要がある。 本稿では,これらの要因とそのアルゴリズム実装への影響について論じる。 特に, 状態準備, オラクル拡張, 接続性, 回路書き換え, 読み出しについて述べる。これらの要因は, アルゴリズムの提示時に無視されることが多いが, 短期量子コンピュータ上でそのようなアルゴリズムを実装する際には重要である。 私たちの貢献は、開発者がそのようなマシン上のアルゴリズムを実現するのに役立ちます。 (i)実行可能実装の達成、及び (ii) 所定の機械上での実装の成功を評価すること。

Implementing a quantum algorithm on a NISQ device has several challenges that arise from the fact that such devices are noisy and have limited quantum resources. Thus, various factors contributing to the depth and width as well as to the noise of an implementation of an algorithm must be understood in order to assess whether an implementation will execute successfully on a given NISQ device. In this contribution, we discuss these factors and their impact on algorithm implementations. Especially, we will cover state preparation, oracle expansion, connectivity, circuit rewriting, and readout: these factors are very often ignored when presenting an algorithm but they are crucial when implementing such an algorithm on near-term quantum computers. Our contribution will help developers in charge of realizing algorithms on such machines in (i) achieving an executable implementation, and (ii) assessing the success of their implementation on a given machine.
翻訳日:2023-05-17 04:21:43 公開日:2020-06-06
# フラックスrhombic格子内の量子輸送

Quantum transport in the flux rhombic lattice ( http://arxiv.org/abs/2006.03782v1 )

ライセンス: Link先を確認
P.S.Muraev and A.R.Kolovsky(参考訳) 2つの粒子貯水池を結ぶフラックス rhombic lattice におけるボソニック粒子の定常電流の解析を行った。 粒子間相互作用を消すために、電流はフラックスが増加するにつれて単調に減少し、ピエルス相が$\pi$に等しいように厳密にゼロとなる。 非ゼロ相互作用はこの依存性を変更し、中程度の相互作用強度のために、電流はフラックス値とは独立である。

We analyse stationary current of the bosonic particles in the flux rhombic lattice connecting two particle reservoirs. For vanishing inter-particle interactions the current is shown to monotonically decrease as the flux is increased and become strictly zero for the Peierls phase equal to $\pi$. Non-zero interactions modify this dependence and for moderate interaction strength the current is found to be independent of the flux value.
翻訳日:2023-05-16 11:30:30 公開日:2020-06-06
# 量子メタマテリアル:量子情報科学への応用

Quantum Metamaterials: Applications in quantum information science ( http://arxiv.org/abs/2006.03757v1 )

ライセンス: Link先を確認
Solomon Uriri, Yaseera Ismail, and Francesco Petruccione(参考訳) メタマテリアルは、従来の材料では見られない光学特性を持つ人工的に設計された周期構造である。 しかし、このメタマテリアルの定義は、いくつかの量子元素(例えば、量子ドット、コールド原子、ジョセフソン接合、分子)を加えることで、量子自由度を導入することで拡張することができる。 量子メタマテリアルは、量子要素からなる人工的なナノ構造として定義することができる。 さらに、制御可能な量子状態を示し、電磁信号の反転時間よりもはるかに高い時間で量子コヒーレンスを維持する。 メタマテリアルは可視性クローキング、超解像、エネルギー収穫、センシングを実現するために使われてきた。 これらの応用のほとんどは古典体制で行われている。 近年、メタマテリアルは量子システム、特に量子センシングや量子情報処理に徐々に浸透してきた。 量子情報処理における量子メタマテリアルの利用はまだ新しく、急速に拡大している。 量子情報処理において、量子メタマテリアルは量子状態の制御と操作、単一光子生成、量子絡み込み、量子状態切替、量子探索アルゴリズム、量子状態工学タスクなど多くのことを可能にしている。 本稿では,量子情報処理における量子メタマテリアルの理論,製造,応用について概説する。

Metamaterials are artificially engineered periodic structures with exceptional optical properties that are not found in conventional materials. However, this definition of metamaterials can be extended if we introduce a quantum degree of freedom by adding some quantum elements (e.g quantum dots, cold atoms, Josephson junctions, molecules). Quantum metamaterials can then be defined as artificially engineered nanostructures made up of quantum elements. Furthermore, they exhibit controllable quantum states, maintain quantum coherence for times much higher than the transversal time of the electromagnetic signal. Metamaterials have been used to realised invisibility cloaking, super-resolution, energy harvesting, and sensing. Most of these applications are performed in the classical regime. Of recent, metamaterials have gradually found their way into the quantum regime, particularly to quantum sensing and quantum information processing. The use of quantum metamaterials for quantum information processing is still new and rapidly growing. In quantum information processing, quantum metamaterials have enabled the control and manipulation of quantum states, single photon generation, creating quantum entanglement, quantum states switching, quantum search algorithm, quantum state engineering tasks, and many more. In this work, we briefly review the theory, fabrication and applications of quantum metamaterials to quantum information processing.
翻訳日:2023-05-16 11:30:24 公開日:2020-06-06
# 近距離デバイス実装のための変分量子アルゴリズムのコスト関数の工学

Engineering the Cost Function of a Variational Quantum Algorithm for Implementation on Near-Term Devices ( http://arxiv.org/abs/2006.03747v1 )

ライセンス: Link先を確認
Shavindra P. Premaratne, A. Y. Matsuura(参考訳) 変分ハイブリッド量子古典アルゴリズムは、エラー訂正のない短期量子コンピュータにとって最も有望なワークロードである。 これらの変分アルゴリズムの目的は、量子回路内の特定のパラメータを変化させることで、コスト関数を最小化するターゲット状態へ量子系を誘導することである。 本稿では,今日の小型量子ビットシステムにおいて,ある種の変分アルゴリズムの性能向上を図るため,工学的コスト関数に対する新しいアプローチを提案する。 本手法は, 凝縮体系における相転移を研究する際に関連する横磁場イジングモデルの熱場二重状態を生成する変分アルゴリズムに適用する。 様々なコスト関数の利点と欠点を議論し、新しい工学的アプローチを適用し、全温度範囲にわたって良好な合意が得られることを示す。

Variational hybrid quantum-classical algorithms are some of the most promising workloads for near-term quantum computers without error correction. The aim of these variational algorithms is to guide the quantum system to a target state that minimizes a cost function, by varying certain parameters in a quantum circuit. This paper proposes a new approach for engineering cost functions to improve the performance of a certain class of these variational algorithms on today's small qubit systems. We apply this approach to a variational algorithm that generates thermofield double states of the transverse field Ising model, which are relevant when studying phase transitions in condensed matter systems. We discuss the benefits and drawbacks of various cost functions, apply our new engineering approach, and show that it yields good agreement across the full temperature range.
翻訳日:2023-05-16 11:30:07 公開日:2020-06-06
# 親密な関係におけるプライバシーの脅威

Privacy threats in intimate relationships ( http://arxiv.org/abs/2006.03907v1 )

ライセンス: Link先を確認
Karen Levy, Bruce Schneier(参考訳) この記事では、家族内で起こりうるプライバシーの脅威、ロマンチックなパートナーシップ、親密な友情、介護関係のクラスについて概観する。 プライバシに関する一般的な仮定の多くは、これらの関係の文脈で修正され、その他に有効な保護措置の多くは、親密な脅威に適用されると失敗する。 身近な人は、秘密の質問に対する答えを知り、デバイスにアクセスでき、私たちに対して強制力を行使できる。 様々な親密な関係を調査し、共通の特徴について述べる。 これらの機能に基づいて,技術プライバシ設計とポリシの両方に対する影響を調査し,親密なプライバシリスクを改善するための設計推奨事項を提供する。

This article provides an overview of intimate threats: a class of privacy threats that can arise within our families, romantic partnerships, close friendships, and caregiving relationships. Many common assumptions about privacy are upended in the context of these relationships, and many otherwise effective protective measures fail when applied to intimate threats. Those closest to us know the answers to our secret questions, have access to our devices, and can exercise coercive power over us. We survey a range of intimate relationships and describe their common features. Based on these features, we explore implications for both technical privacy design and policy, and offer design recommendations for ameliorating intimate privacy risks.
翻訳日:2023-05-16 11:26:40 公開日:2020-06-06
# 任意の離散エネルギー状態における相対論的水素様原子の磁化性のゴードン分解

Gordon decomposition of the magnetizability of the relativistic hydrogenlike atoms in an arbitrary discrete energy state ( http://arxiv.org/abs/2006.03892v1 )

ライセンス: Link先を確認
Patrycja Stefa\'nska(参考訳) 任意の離散エネルギー固有状態において、ジラック1電子原子の磁化性をゴードン分解し、電荷 $ze$ の点状、スピンレス、無動核を持つ。 原子状態が摂動する外部磁場は弱く、静的で、均一であると仮定される。 常磁性(\chi_{d}$)および常磁性(\chi_{p}$)に対する閉形式表現の解析的導出を、一階ディラック・クーロン・グリーン関数のシュトゥルミアン級数表現と特殊関数の理論との組み合わせを用いて行う。 与えられた$\chi_{p}$ の公式は、単位引数の一般化された超幾何関数 ${}_3f_2$ を含み、$\chi_{d}$ は基本形式である。 原子基底状態の場合、我々の両方の一般の結果は、他の著者によってより早く得られる公式に還元される。 また, 選択した水素様イオンと1<leqslant Z \leqslant 137$の励起状態に対して, 相対ダイアモンドと常磁性の相対的寄与の数値値を示し, 文献で利用可能なデータと比較した。

We present Gordon decomposition of the magnetizability of Dirac one-electron atom in an arbitrary discrete energy eigenstate, with a pointlike, spinless and motionless nucleus of charge $Ze$. The external magnetic field, by which the atomic state is perturbed, is assumed to be weak, static, and uniform. Analytical derivation of closed-form expressions for the diamagnetic ($\chi_{d}$) and paramagnetic ($\chi_{p}$) contributions to $\chi$ are performed with the use of the Sturmian series representation of the first-order Dirac--Coulomb Green function combined with the theory of special functions. The received formula for $\chi_{p}$ contains the generalized hypergeometric functions ${}_3F_2$ of the unit argument, while $\chi_{d}$ is of an elementary form. For the atomic ground state, our both general results reduce to formulas obtained earlier by other author. We present also numerical values of relative dia- and paramagnetic contributions to the magnetizability for some excited states of selected hydrogenlike ions with $1 \leqslant Z \leqslant 137$ and compare them with data available in the literature.
翻訳日:2023-05-16 11:26:28 公開日:2020-06-06
# 局所変形した漏洩ワイヤの離散スペクトルに及ぼす磁場の影響

Magnetic field influence on the discrete spectrum of locally deformed leaky wires ( http://arxiv.org/abs/2006.03877v1 )

ライセンス: Link先を確認
Diana Barseghyan and Pavel Exner(参考訳) 磁気シュレーディンガー作用素 $h=(i \nabla +a)^2-\alpha \delta_\gamma$ は直線の局所変形である滑らかな曲線 $\gamma$ によって支持される魅力的な特異な相互作用を持つ。 磁場$B$は非零かつ局所である。 必須スペクトルは$[-\frac14\alpha^2,\infty)$で、直列$\Gamma$を持つ非磁性作用素に対しては、空となるために$H$の離散スペクトルに対して十分条件を示す。

We consider magnetic Schr\"odinger operator $H=(i \nabla +A)^2-\alpha \delta_\Gamma$ with an attractive singular interaction supported by a piecewise smooth curve $\Gamma$ being a local deformation of a straight line. The magnetic field $B$ is supposed to be nonzero and local. We show that the essential spectrum is $[-\frac14\alpha^2,\infty)$, as for the non-magnetic operator with a straight $\Gamma$, and demonstrate a sufficient condition for the discrete spectrum of $H$ to be empty.
翻訳日:2023-05-16 11:26:01 公開日:2020-06-06
# 2次元ボソニックジョセフソン接合における多体トンネル力学に及ぼす横方向の影響

Impact of the transverse direction on the many-body tunneling dynamics in a two-dimensional bosonic Josephson junction ( http://arxiv.org/abs/2006.03871v1 )

ライセンス: Link先を確認
Anal Bhowmik, Sudip Kumar Halder, and Ofir E. Alon(参考訳) 多体系におけるトンネルは、粒子が古典的に禁止されたポテンシャル障壁の下で宇宙に移動する量子物理学の新たな意味の1つとして現れる。 ここでは2次元対称二重ウェルポテンシャルの閉系におけるいくつかの複雑なボソニック雲のトンネル現象の量子力学を理論的に記述する。 二重井戸の接合部と直交する横方向の包含が、ボソニック雲のトンネル動力学にどのように介入するかを検討する。 マルチコンフィグレーション時間依存ハーツリー法 (multiconfigurational time-dependent hartree for bosons (mctdhb) method) と呼ばれるよく知られた多体数値法を用いる。 MCTDHBは、ボソンの時間依存多粒子波動関数を正確に得ることができる。 本研究では,2重井戸の左井戸のボソニック雲の初期状態を地中,縦方向または横方向の励起状態,渦状態とすることでトンネル力学を解析する。 本研究では, 生存確率, 枯渇, フラグメンテーションの時間変化, 多粒子位置, 運動量, 角運動量, 期待値とそのばらつきを解析し, トンネル化過程の詳細なメカニズムを明らかにする。 一般的な規則として、全ての物体は障壁をトンネルしながらコヒーレンスを失い、また横励振を含む状態はより高速になる。 含意は簡潔に議論される。

Tunneling in a many-body system appears as one of the novel implications of quantum physics, in which particles move in space under an otherwise classically-forbidden potential barrier. Here, we theoretically describe the quantum dynamics of the tunneling phenomenon of a few intricate bosonic clouds in a closed system of a two-dimensional symmetric double-well potential. We examine how the inclusion of the transverse direction, orthogonal to the junction of the double-well, can intervene in the tunneling dynamics of bosonic clouds. We use a well-known many-body numerical method, called the multiconfigurational time-dependent Hartree for bosons (MCTDHB) method. MCTDHB allows one to obtain accurately the time-dependent many-particle wavefunction of the bosons which in principle entails all the information of interest about the system under investigation. We analyze the tunneling dynamics by preparing the initial state of the bosonic clouds in the left well of the double-well either as the ground, longitudinally or transversely excited, or a vortex state. We unravel the detailed mechanism of the tunneling process by analyzing the evolution in time of the survival probability, depletion and fragmentation, and the many-particle position, momentum, and angular-momentum expectation values and their variances. As a general rule, all objects lose coherence while tunneling through the barrier and the states which include transverse excitations do so faster. Implications are briefly discussed.
翻訳日:2023-05-16 11:25:50 公開日:2020-06-06
# 論理ネットワークの乗算深さ低減による量子回路のT深さ低減

Lowering the T-depth of Quantum Circuits By Reducing the Multiplicative Depth Of Logic Networks ( http://arxiv.org/abs/2006.03845v1 )

ライセンス: Link先を確認
Thomas H\"aner and Mathias Soeken(参考訳) ゲート基底上の論理ネットワークの乗法的深さは$\{\land, \oplus, \neg\}$ であり、ネットワークの一次入力から一次出力への任意の経路上の$\land$ゲートの最大数である。 論理ネットワークにおける乗算深度を低減するために,動的プログラミングに基づく論理合成アルゴリズムについて述べる。 カット列挙、ツリーバランシング、排他的積和(ESOP)表現を利用する。 我々のアルゴリズムは暗号や量子コンピューティングに応用されており、乗法深さの減少は対応する量子回路のより低いT$-depthへと直接変換される。 実験の結果, AES, SHA, 浮動小数点演算の例に対して, 最先端手法と数個の手動最適化量子回路に比較してT$-depthの改善が認められた。

The multiplicative depth of a logic network over the gate basis $\{\land, \oplus, \neg\}$ is the largest number of $\land$ gates on any path from a primary input to a primary output in the network. We describe a dynamic programming based logic synthesis algorithm to reduce the multiplicative depth in logic networks. It makes use of cut enumeration, tree balancing, and exclusive sum-of-products (ESOP) representations. Our algorithm has applications to cryptography and quantum computing, as a reduction in the multiplicative depth directly translates to a lower $T$-depth of the corresponding quantum circuit. Our experimental results show improvements in $T$-depth over state-of-the-art methods and over several hand-optimized quantum circuits for instances of AES, SHA, and floating-point arithmetic.
翻訳日:2023-05-16 11:25:05 公開日:2020-06-06
# 所定の進化経路をもつ非断熱幾何ゲートの実現へのアプローチ

Approach to realizing nonadiabatic geometric gates with prescribed evolution paths ( http://arxiv.org/abs/2006.03837v1 )

ライセンス: Link先を確認
K. Z. Li, P. Z. Zhao, D. M. Tong(参考訳) 非断熱幾何学相は量子系の進化経路にのみ依存するが、進化の詳細には依存しないため、非断熱幾何学相に基づく量子計算は制御誤差に対して堅牢である。 非断熱幾何学的量子計算を実現するためには、量子系が巡回進化し、動的位相が全位相から除去されることを保証する必要がある。 これらの条件を満たすために、以前のスキームにおける進化経路は、通常、オレンジスライスの形をしたループのような特別な形に制限される。 本稿では,任意の所望の進化経路を用いて非断熱幾何ゲートの普遍的な集合を実現できる非断熱幾何量子計算の実現に向けてのアプローチを提案する。 提案手法により, 環境騒音が量子ゲートに与える影響を最小化できるように, 経済進化時間で幾何量子計算を実現することができる。

Nonadiabatic geometric phases are only dependent on the evolution path of a quantum system but independent of the evolution details, and therefore quantum computation based on nonadiabatic geometric phases is robust against control errors. To realize nonadiabatic geometric quantum computation, it is necessary to ensure that the quantum system undergoes a cyclic evolution and the dynamical phases are removed from the total phases. To satisfy these conditions, the evolution paths in previous schemes are usually restricted to some special forms, e.g, orange-slice-shaped loops, which make the paths unnecessarily long in general. In this paper, we put forward an approach to the realization of nonadiabatic geometric quantum computation by which a universal set of nonadiabatic geometric gates can be realized with any desired evolution paths. Our approach makes it possible to realize geometric quantum computation with an economical evolution time so the influence of environment noises on the quantum gates can be minimized further.
翻訳日:2023-05-16 11:24:47 公開日:2020-06-06
# 圧縮分析とプライバシーの将来

Compressive analysis and the Future of Privacy ( http://arxiv.org/abs/2006.03835v1 )

ライセンス: Link先を確認
Suyash Shandilya(参考訳) 圧縮解析(Compressive analysis)とは、生データをより小さな表現にマッピングするテクニックのファミリーの名前である。 これには、データ圧縮、データエンコーディング、データ暗号化、ハッシュが含まれる。 本稿では,カスタマイズ可能な個人のプライバシを実現するための技術の可能性について分析する。 私たちは、プライバシー保護の枠組みとポリシーを確立することの必要性と、直観的なデジタルサービスアンサンブルの快適さとプライバシのトレードオフを個人がどうやって達成できるかを問う。 現在実装されている技術について検討し、圧縮解析の重要な利点を示唆する。

Compressive analysis is the name given to the family of techniques that map raw data to their smaller representation. Largely, this includes data compression, data encoding, data encryption, and hashing. In this paper, we analyse the prospects of such technologies in realising customisable individual privacy. We enlist the dire needs to establish privacy preserving frameworks and policies and how can individuals achieve a trade-off between the comfort of an intuitive digital service ensemble and their privacy. We examine the current technologies being implemented, and suggest the crucial advantages of compressive analysis.
翻訳日:2023-05-16 11:24:31 公開日:2020-06-06
# 環境誘起コヒーレンスの逆設計

Inverse design of environment-induced coherence ( http://arxiv.org/abs/2006.03816v1 )

ライセンス: Link先を確認
Robert Bennett(参考訳) 直交双極子モーメントを持つ原子遷移は異方性環境を用いることで互いに干渉することができる。 ここでは、原子の$\Lambda$システムにおけるコヒーレンス度を高める3次元フォトニック環境をアルゴリズム的に設計できる計算ツールボックスを記述、提供、適用する。 最適化の例では、単純な平面ジオメトリで見つかるコヒーレンスの程度が約2倍になる。

Atomic transitions with orthogonal dipole moments can be made to interfere with each other by the use of an anisotropic environment. Here we describe, provide and apply a computational toolbox capable of algorithmically designing three-dimensional photonic environments that enhance the degree of coherence in atomic $\Lambda$ systems. Example optimisation runs yield approximately double the degree of coherence found using simple planar geometries.
翻訳日:2023-05-16 11:24:21 公開日:2020-06-06
# シリコン電子バンド構造の量子計算

Quantum computation of silicon electronic band structure ( http://arxiv.org/abs/2006.03807v1 )

ライセンス: Link先を確認
Frank T. Cerasoli, Kyle Sherbert, Jagoda S{\l}awi\'nska, Marco Buongiorno Nardelli(参考訳) 過去10年間の量子アーキテクチャの開発は、量子コンピューティングの時代が完全に到来する以前にも、現代の古典コンピュータの能力を超えたフェルミオン系のシミュレーションを約束する物理と量子化学のハイブリッド古典量子アルゴリズムにインスピレーションを与えた。 化学系を正確に表現できる最小深度量子回路を得るための強力な研究が最近行われている。 ここでは、量子プロセッサ上の分子をシミュレートするために設計された量子化学における前例のない手法が、周期的な固体の性質を計算するために拡張可能であることを示す。 特に,変分量子固有解法アルゴリズムを実装した最小深度回路を提案し,シリコンのバンド構造を量子マシン上で初めて計算することに成功した。 クラウドベースのプラットフォーム上で行った量子実験により、高度な量子材料のスケーラブルな電子構造計算へのさらなる研究が促進されると確信している。

Development of quantum architectures during the last decade has inspired hybrid classical-quantum algorithms in physics and quantum chemistry that promise simulations of fermionic systems beyond the capability of modern classical computers, even before the era of quantum computing fully arrives. Strong research efforts have been recently made to obtain minimal depth quantum circuits which could accurately represent chemical systems. Here, we show that unprecedented methods used in quantum chemistry, designed to simulate molecules on quantum processors, can be extended to calculate properties of periodic solids. In particular, we present minimal depth circuits implementing the variational quantum eigensolver algorithm and successfully use it to compute the band structure of silicon on a quantum machine for the first time. We are convinced that the presented quantum experiments performed on cloud-based platforms will stimulate more intense studies towards scalable electronic structure computation of advanced quantum materials.
翻訳日:2023-05-16 11:24:13 公開日:2020-06-06
# IP測位はMOOC利用における回帰経済パターンを過小評価する

IP Geolocation Underestimates Regressive Economic Patterns in MOOC Usage ( http://arxiv.org/abs/2006.03977v1 )

ライセンス: Link先を確認
Daniela Ganelin and Isaac Chuang(参考訳) 大規模なオープンオンラインコース(MOOC)は、厳格な高等教育を誰でも利用できるようにすることを約束するが、以前の研究では、登録者は高い社会経済的地位の背景から来る傾向があることが示されている。 2012年から2018年にかけて、約600のHarvardXとMITxのコースで約76,000の米国登録において、地理的に粒度の細かい経済パターンを調査し、IP位置情報とユーザー報告されたメーリングアドレスの両方を用いて登録者の位置を特定した。 いずれの指標でも、より繁栄または人口密度の高い郵便番号の登録率が高いことが分かる。 しかし、IP位置情報のバイアスの証拠として、地理的にも経済的にも、より経済的に苦しむ地域のユーザーにとって大きなエラーを犯し、不均等にユーザーを繁栄する地域に配置し、MOOC登録における回帰パターンを過小評価する。 研究者はケアを伴うMOOC研究においてIP位置情報を使用し、他の学術的、商業的、法的用途に影響を及ぼす同様の経済バイアスの可能性を検討するべきである。

Massive open online courses (MOOCs) promise to make rigorous higher education accessible to everyone, but prior research has shown that registrants tend to come from backgrounds of higher socioeconomic status. We study geographically granular economic patterns in about 76,000 U.S. registrations for about 600 HarvardX and MITx courses between 2012 and 2018, identifying registrants' locations using both IP geolocation and user-reported mailing addresses. By either metric, we find higher registration rates among postal codes with greater prosperity or population density. However, we also find evidence of bias in IP geolocation: it makes greater errors, both geographically and economically, for users from more economically distressed areas; it disproportionately places users in prosperous areas; and it underestimates the regressive pattern in MOOC registration. Researchers should use IP geolocation in MOOC studies with care, and consider the possibility of similar economic biases affecting its other academic, commercial, and legal uses.
翻訳日:2023-05-16 11:15:52 公開日:2020-06-06
# 数学的画像言語プロジェクト

A Mathematical Picture Language Project ( http://arxiv.org/abs/2006.03954v1 )

ライセンス: Link先を確認
Arthur Jaffe and Zhengwei Liu(参考訳) 2016年に始まった数学的ピクチャ言語プロジェクトは、すでに興味深い結果をもたらしています。 また、数学と物理学の分野を指摘し、将来それが役に立つことを望んでいる。

The mathematical picture language project that we began in 2016 has already yielded interesting results. We also point out areas of mathematics and physics where we hope that it will prove useful in the future.
翻訳日:2023-05-16 11:15:33 公開日:2020-06-06
# LinkedInのユーザビリティに関する研究 - 雇用主と従業員を結びつけるソーシャルメディアプラットフォーム

Study of the usability of LinkedIn: a social media platform meant to connect employers and employees ( http://arxiv.org/abs/2006.03931v1 )

ライセンス: Link先を確認
Alessandro Ecclesie Agazzi(参考訳) ソーシャルネットワークのプラットフォームは、過去10年間にますます人気が高まり、ユーザーはオンラインアカウントを作成して他人と対話し、複雑な接続網を作ることができるようになった。 LinkedInは、プロフェッショナルな目的で作られた、最も使われているソーシャルメディアプラットフォームの1つだ。 実際、ユーザーは自分の知識と専門知識を深めるために職に応募するか、プロのコミュニティに参加し、常に興味のある分野で最新にすることができる。 本研究の目的は、ユーザ評価とエキスパート評価の両方を用いて、linkedinのユーザビリティを評価し、開発者がこのソーシャルネットワークを改善することを推奨することである。 これは異なるステップで達成され、最初は直接ユーザからのアンケートを通じてフィードバックが収集された。 その後、ユーザによるユーザビリティの問題について、ウォークスルーを通じてユーザの問題解決プロセスをシミュレートして検討した。 最後に、LinkedInアプリケーションの全体的なユーザビリティは、SUS(System Usability Scale)を使用して測定されている。

Social network platforms have increased and become very popular in the last decade; they allow people to create an online account to then interact with others creating a complicated net of connections. LinkedIn is one of the most used social media platform, created and used for professional purposes. Here, indeed, the user can either apply for job positions or join professional communities to deepen his own knowledge and expertise and be always up to date in the interested field. The primary objectives of this paper are assessing LinkedIn's usability, by using both user and expert evaluation and giving recommendations for the developer to improve this social network. This has been achieved through different steps; initially, feedbacks have been collected, via questionnaire, from direct users. Later, the usability issues, which have been underlined by users in the questionnaire, have been explored, by simulating user's problem-solving process, through Walkthrough. Finally, the overall usability of LinkedIn application has been measured by using SUS (System Usability Scale).
翻訳日:2023-05-16 11:15:29 公開日:2020-06-06
# 複数コイル結合による長距離断熱無線エネルギー伝達

Long distance adiabatic wireless energy transfer via multiple coils coupling ( http://arxiv.org/abs/2006.03920v1 )

ライセンス: Link先を確認
Wei Huang, Xiaowei Qu, Shan Yin, Muhammad Zubair, Chu Guo, Xianming Xiong, Wentao Zhang(参考訳) 近年、無線エネルギー移動モデルはシュロディンガー方程式 (schrodinger equation, 2011, 326(3): 626-633; annals of physics, 2012, 327(9): 2245-2250) として記述されている。 したがって、無線エネルギー転送はコヒーレント量子制御技術によって設計することができ、送信機から受信機への効率的で堅牢なエネルギー転送を実現することができる。 本稿では,複数状態の三角形交差パターンを用いて,長距離,高効率,ロバストな電力伝達図式を得る無線エネルギー伝達の新たな設計法を提案する。 計算の結果, 転送効率は比較的小さく, より長い転送距離を提供できることがわかった。

Recently, the wireless energy transfer model can be described as the Schrodinger equation [Annals of Physics, 2011, 326(3): 626-633; Annals of Physics, 2012, 327(9): 2245-2250]. Therefore, wireless energy transfer can be designed by coherent quantum control techniques, which can achieve efficient and robust energy transfer from transmitter to receiver device. In this paper, we propose a novel design of wireless energy transfer which obtains the longer distance, efficient and robust schematic of power transfer, via multiple states triangle crossing pattern. After our calculations, we demonstrate that our design can provide much longer transfer distance with relatively smaller decreasing in the transfer efficiency.
翻訳日:2023-05-16 11:15:13 公開日:2020-06-06
# マルチスケール特徴抽象化を用いた部分ラベル付きデータセット上のマルチ組織セグメンテーション

Multi-organ Segmentation over Partially Labeled Datasets with Multi-scale Feature Abstraction ( http://arxiv.org/abs/2001.00208v2 )

ライセンス: Link先を確認
Xi Fang, Pingkun Yan(参考訳) 完全注釈付きデータセットの短縮は、深層学習に基づく画像セグメント化アルゴリズムの開発において制限要因となり、この問題はマルチ組織セグメント化においてより顕著になる。 本稿では,新しいマルチスケールディープニューラルネットワークを複数の部分ラベル付きデータセット上でトレーニングし,マルチ組織セグメンテーションを実現するための統一的なトレーニング戦略を提案する。 さらに,u字型ピラミッド構造にピラミッド入力と特徴解析を統合するために,マルチスケール機能抽象化のための新しいネットワークアーキテクチャを提案する。 異なるスケールから特徴を直接マージすることによって生じる意味的ギャップを橋渡しするため、等畳み込み深さ機構を導入する。 さらに,異なるスケールで出力を洗練するために,深い監視機構を用いる。 すべてのスケールからセグメンテーション機能をフル活用するために、我々は適応重み付け層を設計し、出力を自動的に融合させる。 これらのメカニズムは、PIPO-FAN(Praamid Input Pyramid Output Feature Abstraction Network)に統合される。 提案手法はBTCV, LiTS, KiTS, Spleenの4つの公開データセットで評価され, 非常に有望な性能が得られた。 この作業のソースコードはhttps://github.com/DIAL-RPI/PIPO-FANで公開されています。

Shortage of fully annotated datasets has been a limiting factor in developing deep learning based image segmentation algorithms and the problem becomes more pronounced in multi-organ segmentation. In this paper, we propose a unified training strategy that enables a novel multi-scale deep neural network to be trained on multiple partially labeled datasets for multi-organ segmentation. In addition, a new network architecture for multi-scale feature abstraction is proposed to integrate pyramid input and feature analysis into a U-shape pyramid structure. To bridge the semantic gap caused by directly merging features from different scales, an equal convolutional depth mechanism is introduced. Furthermore, we employ a deep supervision mechanism to refine the outputs in different scales. To fully leverage the segmentation features from all the scales, we design an adaptive weighting layer to fuse the outputs in an automatic fashion. All these mechanisms together are integrated into a Pyramid Input Pyramid Output Feature Abstraction Network (PIPO-FAN). Our proposed method was evaluated on four publicly available datasets, including BTCV, LiTS, KiTS and Spleen, where very promising performance has been achieved. The source code of this work is publicly shared at https://github.com/DIAL-RPI/PIPO-FAN for others to easily reproduce the work and build their own models with the introduced mechanisms.
翻訳日:2023-01-16 09:28:45 公開日:2020-06-06
# 超低温フェルミオン原子による人工1次元物理のシミュレーション:3つの例題

Simulating artificial one-dimensional physics with ultra-cold fermionic atoms: three exemplary themes ( http://arxiv.org/abs/2001.04223v2 )

ライセンス: Link先を確認
Jacek Dobrzyniecki and Tomasz Sowi\'nski(参考訳) 20年以上にわたって、超低温の原子系は、様々な量子多体現象をシミュレートし、その非自明でしばしば直感的特徴を露呈するほぼ完璧な領域を形成してきた。 異なるパラメータの極めて正確な制御性のおかげで、以前は理論的な好奇性としてのみ認識されていた異なる量子特性を捉えることができる。 ここでは、現在活発な実験検証中である3つの主観的に選択されたトレンドの観点から、フェルミオンの興味深い1次元量子世界を探るための現在の実験の進展を考察する。 (i)魅力的な相互作用するフェルミオン混合物における非慣習的ペアリング (ii)人工スピン軌道結合を受けるフェルミイオン系 (iii)内部状態のsu(n)対称性が高い原子のフェルミオン気体。

For over twenty years, ultra-cold atomic systems have formed an almost perfect arena for simulating different quantum many-body phenomena and exposing their non-obvious and very often counterintuitive features. Thanks to extremely precise controllability of different parameters they are able to capture different quantum properties which were previously recognized only as theoretical curiosities. Here, we go over the current experimental progress in exploring the curious one-dimensional quantum world of fermions from the perspective of three subjectively selected trends being currently under vigorous experimental validation: (i) unconventional pairing in attractively interacting fermionic mixtures, (ii) fermionic systems subjected to the artificial spin-orbit coupling, (iii) fermionic gases of atoms with high SU(N) symmetry of internal states.
翻訳日:2023-01-12 00:00:09 公開日:2020-06-06
# 機械学習とaiによる生体活性リガンドの発見とgpcrリガンド認識

Machine learning and AI-based approaches for bioactive ligand discovery and GPCR-ligand recognition ( http://arxiv.org/abs/2001.06545v3 )

ライセンス: Link先を確認
Sebastian Raschka and Benjamin Kaufman(参考訳) 過去10年間で、機械学習と人工知能の応用は、学術研究と産業の両方において、パフォーマンスと注目を集めている。 最近の最先端の手法のほとんどの背後にある成功は、ディープラーニングの最新の発展によるものである。 画像やテキストなどの非タブラルデータ処理に関わるさまざまな科学領域に適用すると、ディープラーニングは従来の機械学習だけでなく、ドメインの専門家によって開発された高度に専門化されたツールよりも優れていることが示されている。 本稿では,gpcrバイオアクティブリガンドの発見のためのaiベースの研究を,最近の成果と研究動向に焦点をあてて要約する。 この記事を計算科学者の幅広い読者に提供するために、最も一般的に使用されるディープラーニングアーキテクチャの概要や分子データの特徴表現など、基礎となる方法論を指導的に説明します。 我々は、GPCR生物活性リガンドの発見に繋がった最新のAIベースの研究を強調した。 しかしながら、このレビューは、一般のリガンド発見に応用され、将来的にはGPCR生物活性リガンド発見を成功させる道を開く可能性がある機械学習ベースの技術の議論に焦点を当てている。 本総説は,生物活性リガンド発見を推し進める大きな可能性を持つ,能動的学習や半教師あり学習など,近年の深層学習の研究動向を概観するものである。

In the last decade, machine learning and artificial intelligence applications have received a significant boost in performance and attention in both academic research and industry. The success behind most of the recent state-of-the-art methods can be attributed to the latest developments in deep learning. When applied to various scientific domains that are concerned with the processing of non-tabular data, for example, image or text, deep learning has been shown to outperform not only conventional machine learning but also highly specialized tools developed by domain experts. This review aims to summarize AI-based research for GPCR bioactive ligand discovery with a particular focus on the most recent achievements and research trends. To make this article accessible to a broad audience of computational scientists, we provide instructive explanations of the underlying methodology, including overviews of the most commonly used deep learning architectures and feature representations of molecular data. We highlight the latest AI-based research that has led to the successful discovery of GPCR bioactive ligands. However, an equal focus of this review is on the discussion of machine learning-based technology that has been applied to ligand discovery in general and has the potential to pave the way for successful GPCR bioactive ligand discovery in the future. This review concludes with a brief outlook highlighting the recent research trends in deep learning, such as active learning and semi-supervised learning, which have great potential for advancing bioactive ligand discovery.
翻訳日:2023-01-10 13:03:55 公開日:2020-06-06
# 機械翻訳のための半教師付きドメイン適応のための簡易ベースライン

A Simple Baseline to Semi-Supervised Domain Adaptation for Machine Translation ( http://arxiv.org/abs/2001.08140v2 )

ライセンス: Link先を確認
Di Jin, Zhijing Jin, Joey Tianyi Zhou, Peter Szolovits(参考訳) State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが悪い。 多くの場合、データ収集は高価で実行不可能であるため、ドメイン適応メソッドが必要です。 そこで本研究では,NMTの半教師付きドメイン適応シナリオに対して,非並列データのみからなる対象ドメイン上での翻訳モデルの性能向上を目的とし,教師付きソースドメインデータの助けを借りて提案する。 このアプローチは、言語モデリング、バック翻訳、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。 本手法は、特定のドメイン間の適応と、一般ドメインから特定のドメインへの適応と、ドイツ語から英語、ルーマニア語から英語への2つの言語ペアについて評価する。 最強ベースライン上の+19.31 BLEUと、未適応モデルに対する+47.69 BLEUの大幅な性能向上が達成され、NMTの半教師付きドメイン適応の分野では、この手法は単純だが強靭なベースラインとして提示された。

State-of-the-art neural machine translation (NMT) systems are data-hungry and perform poorly on new domains with no supervised data. As data collection is expensive and infeasible in many cases, domain adaptation methods are needed. In this work, we propose a simple but effect approach to the semi-supervised domain adaptation scenario of NMT, where the aim is to improve the performance of a translation model on the target domain consisting of only non-parallel data with the help of supervised source domain data. This approach iteratively trains a Transformer-based NMT model via three training objectives: language modeling, back-translation, and supervised translation. We evaluate this method on two adaptation settings: adaptation between specific domains and adaptation from a general domain to specific domains, and on two language pairs: German to English and Romanian to English. With substantial performance improvement achieved---up to +19.31 BLEU over the strongest baseline, and +47.69 BLEU improvement over the unadapted model---we present this method as a simple but tough-to-beat baseline in the field of semi-supervised domain adaptation for NMT.
翻訳日:2023-01-07 17:53:31 公開日:2020-06-06
# 因子付きmdpにおける強化学習:オラクルの効率のよいアルゴリズムと非正規化設定に対するより厳格な後悔の限界

Reinforcement Learning in Factored MDPs: Oracle-Efficient Algorithms and Tighter Regret Bounds for the Non-Episodic Setting ( http://arxiv.org/abs/2002.02302v2 )

ライセンス: Link先を確認
Ziping Xu and Ambuj Tewari(参考訳) 非等化因子マルコフ決定過程(FMDP)における強化学習について検討した。 FMDPに対する2つの近似およびオラクル効率アルゴリズムを提案する。 FMDPプランナーへのオラクルアクセスを仮定すると、彼らはそれぞれベイズ的および頻繁な後悔境界(英語版)を楽しんでおり、どちらも標準の非分解 MDP に対して、ほぼ最適の$\widetilde{O}(DS\sqrt{AT})$に還元される。 fmdps に対して,より密接な接続尺度である factored span を提案し,直径$d$ ではなく factored span に依存する下界を証明した。 本研究では,下界と上界のギャップを低減するために,因果関係に依存するREGAL.Cアルゴリズムの適応法を提案する。 oracleの効率的なアルゴリズムは、コンピュータネットワーク管理シミュレーションで提案されているほぼ最適アルゴリズムよりも優れています。

We study reinforcement learning in non-episodic factored Markov decision processes (FMDPs). We propose two near-optimal and oracle-efficient algorithms for FMDPs. Assuming oracle access to an FMDP planner, they enjoy a Bayesian and a frequentist regret bound respectively, both of which reduce to the near-optimal bound $\widetilde{O}(DS\sqrt{AT})$ for standard non-factored MDPs. We propose a tighter connectivity measure, factored span, for FMDPs and prove a lower bound that depends on the factored span rather than the diameter $D$. In order to decrease the gap between lower and upper bounds, we propose an adaptation of the REGAL.C algorithm whose regret bound depends on the factored span. Our oracle-efficient algorithms outperform previously proposed near-optimal algorithms on computer network administration simulations.
翻訳日:2023-01-03 09:53:04 公開日:2020-06-06
# マルチモーダルビデオ分類のための時間的コヒーレンス

Exploiting Temporal Coherence for Multi-modal Video Categorization ( http://arxiv.org/abs/2002.03844v2 )

ライセンス: Link先を確認
Palash Goyal, Saurabh Sahu, Shalini Ghosh, Chul Lee(参考訳) マルチモーダルMLモデルは、複数のモード(ビデオ、画像、オーディオ、テキストなど)でデータを処理でき、様々な問題(オブジェクト検出、シーン理解など)におけるビデオコンテンツ分析に有用である。 本稿では,マルチモーダルアプローチによるビデオ分類の問題に着目する。 我々は、異なるタイプのモデル(例えば、RNN、NetVLAD、Transformer)に適用可能な、新しい時間的コヒーレンスに基づく正規化手法を開発した。 本研究では,時間的コヒーレンスによるマルチモーダルビデオ分類モデルが,最先端のベースラインモデルより優れていることを示す。

Multimodal ML models can process data in multiple modalities (e.g., video, images, audio, text) and are useful for video content analysis in a variety of problems (e.g., object detection, scene understanding). In this paper, we focus on the problem of video categorization by using a multimodal approach. We have developed a novel temporal coherence-based regularization approach, which applies to different types of models (e.g., RNN, NetVLAD, Transformer). We demonstrate through experiments how our proposed multimodal video categorization models with temporal coherence out-perform strong state-of-the-art baseline models.
翻訳日:2023-01-03 03:33:38 公開日:2020-06-06
# シミュレータとディープラーニングによる深宇宙探査の進歩

Advances in Deep Space Exploration via Simulators & Deep Learning ( http://arxiv.org/abs/2002.04051v2 )

ライセンス: Link先を確認
James Bird, Linda Petzold, Philip Lubin, Julia Deacon(参考訳) starlightプログラムは、指向エネルギーによって推進される小型ウェハー衛星(wafersats)を介しての高速星間移動の概念化である。 このプロセスは従来の宇宙旅行とは大きく異なり、大型で遅い宇宙船を小型で高速で安価で脆弱な宇宙船と交換している。 これらのウェハ衛星の主な目標は、深宇宙旅行で有用な画像を集めることである。 この概念に付随する主な問題をいくつか紹介し、解決する。 まず、これまで見たことのない惑星を検出できる物体検出システムが必要です。 第二に、もし太陽系外惑星の画像があれば、これらの画像を重要視してランク付けする方法が必要です。 機器が故障し、データレートが遅いため、人間にとって最も重要な画像がデータ転送に優先されるものであることを保証する方法が必要である。 最後に、ボード上のエネルギーは最小限であり、保存され、控えめに使用する必要がある。 太陽系外惑星の画像は見逃すべきではありませんが、エネルギーを誤って使うのは有害です。 これら3つの問題を解決するために,主にコンピュータビジョンの形で人工知能を活用するシミュレーターベースの手法を導入する。 その結果,シミュレータは実画像を上回る非常に豊かなトレーニング環境を提供し,まだ人間が観測していない特徴をモデルに訓練することができることがわかった。 また、シミュレーターが提供する没入型で適応可能な環境とディープラーニングが組み合わさって、エネルギーのナビゲートと節約を可能にすることも示しています。

The StarLight program conceptualizes fast interstellar travel via small wafer satellites (wafersats) that are propelled by directed energy. This process is wildly different from traditional space travel and trades large and slow spacecraft for small, fast, inexpensive, and fragile ones. The main goal of these wafer satellites is to gather useful images during their deep space journey. We introduce and solve some of the main problems that accompany this concept. First, we need an object detection system that can detect planets that we have never seen before, some containing features that we may not even know exist in the universe. Second, once we have images of exoplanets, we need a way to take these images and rank them by importance. Equipment fails and data rates are slow, thus we need a method to ensure that the most important images to humankind are the ones that are prioritized for data transfer. Finally, the energy on board is minimal and must be conserved and used sparingly. No exoplanet images should be missed, but using energy erroneously would be detrimental. We introduce simulator-based methods that leverage artificial intelligence, mostly in the form of computer vision, in order to solve all three of these issues. Our results confirm that simulators provide an extremely rich training environment that surpasses that of real images, and can be used to train models on features that have yet to be observed by humans. We also show that the immersive and adaptable environment provided by the simulator, combined with deep learning, lets us navigate and save energy in an otherwise implausible way.
翻訳日:2023-01-02 09:40:18 公開日:2020-06-06
# グラフ埋め込みに対する計算可能リーマン多様体

Computationally Tractable Riemannian Manifolds for Graph Embeddings ( http://arxiv.org/abs/2002.08665v2 )

ライセンス: Link先を確認
Calin Cruceru, Gary B\'ecigneul, Octavian-Eugen Ganea(参考訳) グラフをある曲線のリーマン多様体へのノード埋め込みの集合として表現することは、最近機械学習において好ましく幾何学的帰納的バイアス、例えば階層構造が双曲幾何学から恩恵を受けるために勢いを増している。 しかし、定数断面曲率の埋め込み空間を超えて、より表現力は強いが、測地線距離やリーマン勾配のような計算可能なツールの魅力を失うことは容易にできるため、困難であることが証明される。 ここでは、計算効率の良い行列多様体を探索し、これらのリーマン空間におけるグラフ埋め込みの学習と最適化方法を示す。 経験的に、異なるグラフ特性をキャプチャする様々なメトリクスに基づいて双曲的および楕円的埋め込みを上回りながら、ユークリッド幾何学よりも一貫した改善を示す。 この結果は,非ユークリッド組込みによる機械学習パイプラインのメリットを示す新たな証拠となる。

Representing graphs as sets of node embeddings in certain curved Riemannian manifolds has recently gained momentum in machine learning due to their desirable geometric inductive biases, e.g., hierarchical structures benefit from hyperbolic geometry. However, going beyond embedding spaces of constant sectional curvature, while potentially more representationally powerful, proves to be challenging as one can easily lose the appeal of computationally tractable tools such as geodesic distances or Riemannian gradients. Here, we explore computationally efficient matrix manifolds, showcasing how to learn and optimize graph embeddings in these Riemannian spaces. Empirically, we demonstrate consistent improvements over Euclidean geometry while often outperforming hyperbolic and elliptical embeddings based on various metrics that capture different graph properties. Our results serve as new evidence for the benefits of non-Euclidean embeddings in machine learning pipelines.
翻訳日:2022-12-30 06:50:52 公開日:2020-06-06
# 帰属ネットワークにおける異常検出のための一級グラフニューラルネットワーク

One-Class Graph Neural Networks for Anomaly Detection in Attributed Networks ( http://arxiv.org/abs/2002.09594v2 )

ライセンス: Link先を確認
Xuhong Wang, Baihong Jin, Ying Du, Ping Cui and Yupu Yang(参考訳) 今日では、グラフ構造化データは複雑なシステムのモデリングにますます利用されている。 一方,グラフからの異常検出は社会的な懸念を喚起する重要な研究課題となっている。 異常検出は、多数派と異なるまれなデータを識別する教師なしの学習タスクである。 主要な異常検出アルゴリズムの1つとして、1つのクラスサポートベクターマシンが異常検出に広く使われている。 しかし,従来の異常検出手法ではグラフデータの有効性が失われている。 従来の異常検出手法は安定しており、堅牢で使いやすく、グラフデータに一般化することが極めて重要である。 本研究では,グラフ異常検出のための一クラス分類フレームワークであるOne Class Graph Neural Network (OCGNN)を提案する。 OCGNNは、グラフニューラルネットワークの強力な表現能力と古典的な一流の目的を組み合わせるように設計されている。 他のベースラインと比較して、OCGNNは広範な実験において大幅に改善されている。

Nowadays, graph-structured data are increasingly used to model complex systems. Meanwhile, detecting anomalies from graph has become a vital research problem of pressing societal concerns. Anomaly detection is an unsupervised learning task of identifying rare data that differ from the majority. As one of the dominant anomaly detection algorithms, One Class Support Vector Machine has been widely used to detect outliers. However, those traditional anomaly detection methods lost their effectiveness in graph data. Since traditional anomaly detection methods are stable, robust and easy to use, it is vitally important to generalize them to graph data. In this work, we propose One Class Graph Neural Network (OCGNN), a one-class classification framework for graph anomaly detection. OCGNN is designed to combine the powerful representation ability of Graph Neural Networks along with the classical one-class objective. Compared with other baselines, OCGNN achieves significant improvements in extensive experiments.
翻訳日:2022-12-29 18:42:50 公開日:2020-06-06
# GATCluster:イメージクラスタリングのための自己監督型ガウスアテンションネットワーク

GATCluster: Self-Supervised Gaussian-Attention Network for Image Clustering ( http://arxiv.org/abs/2002.11863v2 )

ライセンス: Link先を確認
Chuang Niu, Jun Zhang, Ge Wang, Jimin Liang(参考訳) 画像クラスタリングのための自己教師付きガウスアテンションネットワーク(gatcluster)を提案する。 まず中間機能を抽出し、次に従来のクラスタリングアルゴリズムを実行する代わりに、gatclusterは、後処理なしでセマンティッククラスタラベルを直接出力する。 理論的には、学習した特徴が1ホットの符号化ベクトルであることを保証するためのラベル特徴定理を与え、自明な解は避ける。 GATClusterを完全に教師なしで訓練するために、変換不変性、分離可能性の最大化、エントロピー分析、アテンションマッピングの制約のある4つの自己学習タスクを設計する。 具体的には、変換不変性と分離可能性の最大化タスクがサンプルペア間の関係を学習する。 エントロピー解析タスクは、自明な解決を避けることを目的としている。 オブジェクト指向のセマンティクスを捉えるために,パラメータ化されたアテンションモジュールとソフトアテンション損失を含む自己監督型アテンション機構を設計する。 クラスタリングのための誘導信号はすべて、トレーニングプロセス中に自己生成される。 さらに,大規模画像のクラスタリングにメモリ効率のよい2段階学習アルゴリズムを開発した。 提案手法が最先端画像クラスタリングベンチマークと比較して優れていることを示す広範な実験を行った。 私たちのコードはhttps://github.com/niuchuangnn/GATCluster.comで公開されています。

We propose a self-supervised Gaussian ATtention network for image Clustering (GATCluster). Rather than extracting intermediate features first and then performing the traditional clustering algorithm, GATCluster directly outputs semantic cluster labels without further post-processing. Theoretically, we give a Label Feature Theorem to guarantee the learned features are one-hot encoded vectors, and the trivial solutions are avoided. To train the GATCluster in a completely unsupervised manner, we design four self-learning tasks with the constraints of transformation invariance, separability maximization, entropy analysis, and attention mapping. Specifically, the transformation invariance and separability maximization tasks learn the relationships between sample pairs. The entropy analysis task aims to avoid trivial solutions. To capture the object-oriented semantics, we design a self-supervised attention mechanism that includes a parameterized attention module and a soft-attention loss. All the guiding signals for clustering are self-generated during the training process. Moreover, we develop a two-step learning algorithm that is memory-efficient for clustering large-size images. Extensive experiments demonstrate the superiority of our proposed method in comparison with the state-of-the-art image clustering benchmarks. Our code has been made publicly available at https://github.com/niuchuangnn/GATCluster.
翻訳日:2022-12-28 08:23:50 公開日:2020-06-06
# マルチモーダルビデオ分類のためのクロスモーダル学習

Cross-modal Learning for Multi-modal Video Categorization ( http://arxiv.org/abs/2003.03501v3 )

ライセンス: Link先を確認
Palash Goyal, Saurabh Sahu, Shalini Ghosh, Chul Lee(参考訳) マルチモーダル機械学習(ML)モデルは、複数のモーダル(ビデオ、オーディオ、テキストなど)でデータを処理でき、様々な問題(オブジェクト検出、シーン理解、アクティビティ認識など)におけるビデオコンテンツ分析に有用である。 本稿では,マルチモーダルML技術を用いたビデオ分類の問題に焦点をあてる。 特に、我々は「クロスモーダル学習」と呼ばれる新しいマルチモーダルML手法を開発し、一つのモダリティが他のモダリティに影響を及ぼすが、モダリティの間に相関関係がある場合にのみ、モデルの主要なマルチモーダルビデオ分類塔を案内する相関塔を訓練する。 このクロスモーダル原理を様々なモデル(例えば、rnn、transformer、netvlad)に適用し、クロスモーダル学習を用いたマルチモーダルビデオ分類モデルが最先端のベースラインモデルよりも優れていることを示す。

Multi-modal machine learning (ML) models can process data in multiple modalities (e.g., video, audio, text) and are useful for video content analysis in a variety of problems (e.g., object detection, scene understanding, activity recognition). In this paper, we focus on the problem of video categorization using a multi-modal ML technique. In particular, we have developed a novel multi-modal ML approach that we call "cross-modal learning", where one modality influences another but only when there is correlation between the modalities -- for that, we first train a correlation tower that guides the main multi-modal video categorization tower in the model. We show how this cross-modal principle can be applied to different types of models (e.g., RNN, Transformer, NetVLAD), and demonstrate through experiments how our proposed multi-modal video categorization models with cross-modal learning out-perform strong state-of-the-art baseline models.
翻訳日:2022-12-25 19:22:31 公開日:2020-06-06
# 深層ニューラルネットワークを用いた臨界システムのための安全枠組み

A Safety Framework for Critical Systems Utilising Deep Neural Networks ( http://arxiv.org/abs/2003.05311v3 )

ライセンス: Link先を確認
Xingyu Zhao, Alec Banks, James Sharp, Valentin Robu, David Flynn, Michael Fisher, Xiaowei Huang(参考訳) 機械学習による高度な数学的モデリングプロセスが、複雑なデータの解析に使われている。 しかし、実用クリティカルシステムにおけるこれらのモデルの性能と説明可能性には、安全利用の厳密かつ継続的な検証が必要である。 本稿では,この課題に対処すべく,ディープニューラルネットワークを利用した臨界システムのための原則に基づく新しい安全性議論フレームワークを提案する。 このアプローチは、例えば、ある要求をパスする将来の信頼性、あるいは必要な信頼性レベルへの信頼など、様々な形の予測を可能にする。 運用データと最近のディープラーニングの検証と検証技術を用いたベイズ解析によってサポートされている。 予測は保守的であり、ライフサイクルアクティビティから得られる部分的な事前知識から始まり、最悪のケース予測を決定する。 オープンチャレンジも特定される。

Increasingly sophisticated mathematical modelling processes from Machine Learning are being used to analyse complex data. However, the performance and explainability of these models within practical critical systems requires a rigorous and continuous verification of their safe utilisation. Working towards addressing this challenge, this paper presents a principled novel safety argument framework for critical systems that utilise deep neural networks. The approach allows various forms of predictions, e.g., future reliability of passing some demands, or confidence on a required reliability level. It is supported by a Bayesian analysis using operational data and the recent verification and validation techniques for deep learning. The prediction is conservative -- it starts with partial prior knowledge obtained from lifecycle activities and then determines the worst-case prediction. Open challenges are also identified.
翻訳日:2022-12-25 19:14:00 公開日:2020-06-06
# 単セルゲノミクスデータのための弾性結合コクラスタリング

Elastic Coupled Co-clustering for Single-Cell Genomic Data ( http://arxiv.org/abs/2003.12970v2 )

ライセンス: Link先を確認
Pengcheng Zeng and Zhixiang Lin(参考訳) シングルセル技術の最近の進歩により、前例のない解像度でゲノムの特徴をプロファイリングすることができ、さまざまなタイプのゲノム特徴をプロファイリングするデータセットや、異なる種間で同じタイプのゲノム特徴をプロファイリングするデータセットなど、複数のドメインからのデータセットが利用可能になった。 これらのデータセットは通常、クラスタリングによって未知のセルタイプを特定する異なる能力を持ち、データ統合によってクラスタリングアルゴリズムのパフォーマンスが向上する可能性がある。 本研究では、補助データセットから学習した知識を活用し、対象データセットのクラスタリング性能を向上させる教師なし転送学習フレームワークにおいて、この問題を定式化する。 ターゲットと補助データセット間の共有情報の度合いは様々であり、その分布も様々である。 これらの課題に対処するために,補助データセットから得られたクラスタリング知識を対象データセットに弾性伝播させることにより,エラスティック結合型共クラスタリングに基づく転送学習アルゴリズムを提案する。 単一セルゲノムデータセットの実装は,従来の学習アルゴリズムよりもクラスタリング性能が大幅に向上することを示す。 ソースコードとデータセットはhttps://github.com/cuhklinlab/elasticc3で入手できる。

The recent advances in single-cell technologies have enabled us to profile genomic features at unprecedented resolution and datasets from multiple domains are available, including datasets that profile different types of genomic features and datasets that profile the same type of genomic features across different species. These datasets typically have different powers in identifying the unknown cell types through clustering, and data integration can potentially lead to a better performance of clustering algorithms. In this work, we formulate the problem in an unsupervised transfer learning framework, which utilizes knowledge learned from auxiliary dataset to improve the clustering performance of target dataset. The degree of shared information among the target and auxiliary datasets can vary, and their distributions can also be different. To address these challenges, we propose an elastic coupled co-clustering based transfer learning algorithm, by elastically propagating clustering knowledge obtained from the auxiliary dataset to the target dataset. Implementation on single-cell genomic datasets shows that our algorithm greatly improves clustering performance over the traditional learning algorithms. The source code and data sets are available at https://github.com/cuhklinlab/elasticC3.
翻訳日:2022-12-18 13:15:21 公開日:2020-06-06
# ニューラルネットワークモデルの構文能力向上のための明示的否定例の有用性の分析

An Analysis of the Utility of Explicit Negative Examples to Improve the Syntactic Abilities of Neural Language Models ( http://arxiv.org/abs/2004.02451v3 )

ライセンス: Link先を確認
Hiroshi Noji, Hiroya Takamura(参考訳) 我々は、ニューラルネットワークモデルのトレーニングにおける明示的な否定的な例の有用性を探求する。 否定的な例は、"*the dog barks"の"barks"のように、文中の不正確な単語である。 ニューラルネットワークモデルは通常、トレーニングデータ中の文の集合であるポジティブな例のみに基づいて訓練されるが、最近の研究では、この方法で訓練されたモデルは、長距離合意のような複雑な構文構造を堅牢に処理できないことを示唆している。 本稿では、まず、英語データを用いて、特定の構成に関する負の例(例えば、主観的な合意)を適切に使用することで、モデルの強靭性が向上し、難易度が無視できることを示す。 私たちの成功の鍵は、正しい単語のログライクな部分と間違った単語の間の余分な損失です。 次に、トレーニングされたモデルの詳細な分析を行う。 我々の発見の1つは、RNNに対するオブジェクト指向節の難しさである。 直接的な学習信号であっても、モデルがオブジェクト関係節間の合意の解決に苦しむことが分かりました。 構成を含む訓練文の増補は幾らか役立つが、精度は依然として主語関係節のレベルに達していない。 本手法は, 直接的に認知に訴えるものではないが, ニューラルネットワークの真のアーキテクチャ的限界を, 難解な言語構造に基づいて解析するためのツールである。

We explore the utilities of explicit negative examples in training neural language models. Negative examples here are incorrect words in a sentence, such as "barks" in "*The dogs barks". Neural language models are commonly trained only on positive examples, a set of sentences in the training data, but recent studies suggest that the models trained in this way are not capable of robustly handling complex syntactic constructions, such as long-distance agreement. In this paper, using English data, we first demonstrate that appropriately using negative examples about particular constructions (e.g., subject-verb agreement) will boost the model's robustness on them, with a negligible loss of perplexity. The key to our success is an additional margin loss between the log-likelihoods of a correct word and an incorrect word. We then provide a detailed analysis of the trained models. One of our findings is the difficulty of object-relative clauses for RNNs. We find that even with our direct learning signals the models still suffer from resolving agreement across an object-relative clause. Augmentation of training sentences involving the constructions somewhat helps, but the accuracy still does not reach the level of subject-relative clauses. Although not directly cognitively appealing, our method can be a tool to analyze the true architectural limitation of neural models on challenging linguistic constructions.
翻訳日:2022-12-16 06:37:15 公開日:2020-06-06
# deepcovidexplainer:胸部x線画像による新型コロナウイルスの診断

DeepCOVIDExplainer: Explainable COVID-19 Diagnosis Based on Chest X-ray Images ( http://arxiv.org/abs/2004.04582v3 )

ライセンス: Link先を確認
Md. Rezaul Karim, Till D\"ohmen, Dietrich Rebholz-Schuhmann, Stefan Decker, Michael Cochez, and Oya Beyan(参考訳) 新型コロナウイルス(COVID-19)が流行する中、人類は世界中で感染数が急増している。 チャレンジ病院は、ウイルスとの戦いにおいて、来院者の効果的なスクリーニングに直面している。 一つの方法論は胸部x線撮影(cxr)画像の評価であり、通常は専門的な放射線科医の知識を必要とする。 本稿では,我々はDeepCOVIDExplainerと呼ぶCXR画像から新型コロナウイルスの症状を自動的に検出する,説明可能なディープニューラルネットワーク(DNN)を提案する。 15,854例のCXR画像15,959例を使用し,正常例,肺炎例,COVID-19例を対象とした。 cxrイメージは、神経アンサンブル法で拡張・分類される前に、まず包括的に前処理され、次に勾配誘導型クラスアクティベーションマップ(grad-cam++)と層間関連伝播(lrp)を使用してクラス識別領域を強調する。 さらに,予測の解釈可能な説明を提供する。 ホルドアウトデータに基づく評価結果から,本手法は陽性予測値(ppv)91.6%,92.45%,96.12%,正確度94.6%,リコール率94.3%,f1スコア94.6%,94.3%,94.6%,94.6%を自信を持って同定し,近年の手法と比較して比較・改善した。 私たちの発見は、新型コロナウイルスとの戦いに有用な貢献であり、より一般的には、臨床実践におけるAI支援アプリケーションの受け入れと採用の促進に寄与することを期待しています。

Amid the coronavirus disease(COVID-19) pandemic, humanity experiences a rapid increase in infection numbers across the world. Challenge hospitals are faced with, in the fight against the virus, is the effective screening of incoming patients. One methodology is the assessment of chest radiography(CXR) images, which usually requires expert radiologist's knowledge. In this paper, we propose an explainable deep neural networks(DNN)-based method for automatic detection of COVID-19 symptoms from CXR images, which we call DeepCOVIDExplainer. We used 15,959 CXR images of 15,854 patients, covering normal, pneumonia, and COVID-19 cases. CXR images are first comprehensively preprocessed, before being augmented and classified with a neural ensemble method, followed by highlighting class-discriminating regions using gradient-guided class activation maps(Grad-CAM++) and layer-wise relevance propagation(LRP). Further, we provide human-interpretable explanations of the predictions. Evaluation results based on hold-out data show that our approach can identify COVID-19 confidently with a positive predictive value(PPV) of 91.6%, 92.45%, and 96.12%; precision, recall, and F1 score of 94.6%, 94.3%, and 94.6%, respectively for normal, pneumonia, and COVID-19 cases, respectively, making it comparable or improved results over recent approaches. We hope that our findings will be a useful contribution to the fight against COVID-19 and, in more general, towards an increasing acceptance and adoption of AI-assisted applications in the clinical practice.
翻訳日:2022-12-15 02:36:39 公開日:2020-06-06
# 参照アドバンテージ分解によるほぼ最適モデルフリー強化学習

Almost Optimal Model-Free Reinforcement Learning via Reference-Advantage Decomposition ( http://arxiv.org/abs/2004.10019v2 )

ライセンス: Link先を確認
Zihan Zhang, Yuan Zhou, Xiangyang Ji(参考訳) 有限水平マルコフ決定過程(MDPs)における強化学習問題を,S$状態,A$動作,エピソード長$H$を用いて検討した。 モデルフリーアルゴリズム UCB-Advantage を提案し,$T = KH$ および $K$ が再生すべきエピソード数である場合,$\tilde{O}(\sqrt{H^2SAT})$ regret を達成することを証明した。 我々の後悔の限界は[Jin et al., 2018]の結果を改善し、最もよく知られたモデルベースのアルゴリズムと、対数的要因までの情報理論の下限とを一致させる。 また, UCB-Advantage は局所的なスイッチングコストが低く, 同時強化学習にも適用可能であることを示し, 最近のBai et al., 2019 の結果を改善した。

We study the reinforcement learning problem in the setting of finite-horizon episodic Markov Decision Processes (MDPs) with $S$ states, $A$ actions, and episode length $H$. We propose a model-free algorithm UCB-Advantage and prove that it achieves $\tilde{O}(\sqrt{H^2SAT})$ regret where $T = KH$ and $K$ is the number of episodes to play. Our regret bound improves upon the results of [Jin et al., 2018] and matches the best known model-based algorithms as well as the information theoretic lower bound up to logarithmic factors. We also show that UCB-Advantage achieves low local switching cost and applies to concurrent reinforcement learning, improving upon the recent results of [Bai et al., 2019].
翻訳日:2022-12-11 06:30:35 公開日:2020-06-06
# m^3vsnet:教師なしマルチメトリックマルチビューステレオネットワーク

M^3VSNet: Unsupervised Multi-metric Multi-view Stereo Network ( http://arxiv.org/abs/2005.00363v2 )

ライセンス: Link先を確認
Baichuan Huang, Hongwei Yi, Can Huang, Yijia He, Jingbin Liu, Xiao Liu(参考訳) 教師付き学習ネットワークを用いたマルチビューステレオ(MVS)方式は,従来のMVS方式と比較して優れた性能を示した。 しかし、訓練用地中深度マップは入手が困難であり、限られたシナリオの範囲内である。 本稿では,M^3VSNetと呼ばれる非教師付きマルチメトリックMVSネットワークを提案する。 点雲再構成の堅牢性と完全性を改善するために,画素ワイドと特徴ワイドのロス関数を組み合わせた新しい多値損失関数を提案し,マッチングの異なる視点から固有制約を学習する。 さらに,推定深度マップの精度と連続性を改善するため,3dポイントクラウドフォーマットの正規深い一貫性も取り入れた。 実験の結果、M3VSNetは最先端の教師なし手法を確立し、DTUデータセット上で従来の教師付きMVSNetと同等の性能を達成し、効果的に改善されたタンク&テンプルベンチマーク上での強力な一般化能力を示す。 私たちのコードはhttps://github.com/whubaichuan/M3VSNetで利用可能です。

The present Multi-view stereo (MVS) methods with supervised learning-based networks have an impressive performance comparing with traditional MVS methods. However, the ground-truth depth maps for training are hard to be obtained and are within limited kinds of scenarios. In this paper, we propose a novel unsupervised multi-metric MVS network, named M^3VSNet, for dense point cloud reconstruction without any supervision. To improve the robustness and completeness of point cloud reconstruction, we propose a novel multi-metric loss function that combines pixel-wise and feature-wise loss function to learn the inherent constraints from different perspectives of matching correspondences. Besides, we also incorporate the normal-depth consistency in the 3D point cloud format to improve the accuracy and continuity of the estimated depth maps. Experimental results show that M3VSNet establishes the state-of-the-arts unsupervised method and achieves comparable performance with previous supervised MVSNet on the DTU dataset and demonstrates the powerful generalization ability on the Tanks and Temples benchmark with effective improvement. Our code is available at https://github.com/whubaichuan/M3VSNet
翻訳日:2022-12-08 05:18:57 公開日:2020-06-06
# カメラトラップ画像バースト分類改善のためのシーケンス情報チャネル結合

Sequence Information Channel Concatenation for Improving Camera Trap Image Burst Classification ( http://arxiv.org/abs/2005.00116v2 )

ライセンス: Link先を確認
Bhuvan Malladihalli Shashidhara, Darshan Mehta, Yash Kale, Dan Morris, Megan Hazen(参考訳) カメラトラップは、生態系を乱さずに自然の生息地で野生生物を観察するために広く使われている。 これは動物に対する自然または人間の脅威を早期に検出し、生態保護に役立てる可能性がある。 現在、世界中の様々な生態保護地域に多数のカメラトラップが配備されており、何十年にもわたってデータを収集しているため、動物を含む画像の自動検出が求められている。 既存のシステムは、画像が動物を含むかどうかを単一の画像から判断する分類を行う。 しかし、自然の生息地で動物がカモフラージュする困難な場面のため、単に1つのイメージから動物の存在を識別することは困難になる。 動物が動くと仮定して、1枚の画像ではなく、短い画像のバーストを仮定すると、人間や機械が動物の存在を検出するのがずっと簡単になる。 そこで本研究では,カメラトラップ画像分類の改善に対する,短い画像列(3画像のバースト)の使用による影響を,様々なアプローチで検討する。 本研究では, シーケンス情報と3画像バーストからの画像を含むマスクの連結により, roc aucを被写体から20%向上させることを, 1つの画像から学習する等価モデルと比較した。

Camera Traps are extensively used to observe wildlife in their natural habitat without disturbing the ecosystem. This could help in the early detection of natural or human threats to animals, and help towards ecological conservation. Currently, a massive number of such camera traps have been deployed at various ecological conservation areas around the world, collecting data for decades, thereby requiring automation to detect images containing animals. Existing systems perform classification to detect if images contain animals by considering a single image. However, due to challenging scenes with animals camouflaged in their natural habitat, it sometimes becomes difficult to identify the presence of animals from merely a single image. We hypothesize that a short burst of images instead of a single image, assuming that the animal moves, makes it much easier for a human as well as a machine to detect the presence of animals. In this work, we explore a variety of approaches, and measure the impact of using short image sequences (burst of 3 images) on improving the camera trap image classification. We show that concatenating masks containing sequence information and the images from the 3-image-burst across channels, improves the ROC AUC by 20% on a test-set from unseen camera-sites, as compared to an equivalent model that learns from a single image.
翻訳日:2022-12-08 03:29:47 公開日:2020-06-06
# スケルトンベース行動認識の敵意的脆弱性の解明に向けて

Towards Understanding the Adversarial Vulnerability of Skeleton-based Action Recognition ( http://arxiv.org/abs/2005.07151v2 )

ライセンス: Link先を確認
Tianhang Zheng, Sheng Liu, Changyou Chen, Junsong Yuan, Baochun Li, Kui Ren(参考訳) スケルトンベースの行動認識は、動的状況に強い適応性と、自律監視や匿名監視といった幅広い応用の可能性から、注目を集めている。 ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境では90%の精度で達成されています。 一方で、異なる敵設定下でのスケルトンベースのアクション認識の脆弱性に関する研究は、まだ乏しいままであり、現実のシステムへの展開に関するセキュリティ上の懸念が高まる可能性がある。 しかし、この研究ギャップを埋めることは、骨格と人間の行動のユニークな物理的制約のために困難である。 本稿では,スケルトンベース行動認識の敵意的脆弱性を理解するための徹底的な研究を行う。 まず, 物理・生理的制約を数学的定式化で表現・近似することにより, 対向骨格行動の生成を制約付き最適化問題として定式化する。 等式制約を持つ主最適化問題は難解であるため,ADMMを用いて制約のない双対問題を最適化し,その解法を提案する。 次に,最近の理論や経験的観察から着想を得た効率的なプラグイン防御法を提案する。 広範囲な評価は、異なる設定下での攻撃および防御方法の有効性を示す。

Skeleton-based action recognition has attracted increasing attention due to its strong adaptability to dynamic circumstances and potential for broad applications such as autonomous and anonymous surveillance. With the help of deep learning techniques, it has also witnessed substantial progress and currently achieved around 90\% accuracy in benign environment. On the other hand, research on the vulnerability of skeleton-based action recognition under different adversarial settings remains scant, which may raise security concerns about deploying such techniques into real-world systems. However, filling this research gap is challenging due to the unique physical constraints of skeletons and human actions. In this paper, we attempt to conduct a thorough study towards understanding the adversarial vulnerability of skeleton-based action recognition. We first formulate generation of adversarial skeleton actions as a constrained optimization problem by representing or approximating the physiological and physical constraints with mathematical formulations. Since the primal optimization problem with equality constraints is intractable, we propose to solve it by optimizing its unconstrained dual problem using ADMM. We then specify an efficient plug-in defense, inspired by recent theories and empirical observations, against the adversarial skeleton actions. Extensive evaluations demonstrate the effectiveness of the attack and defense method under different settings.
翻訳日:2022-12-03 04:39:41 公開日:2020-06-06
# MixML: 弱い一貫性を持つ並列学習の統一分析

MixML: A Unified Analysis of Weakly Consistent Parallel Learning ( http://arxiv.org/abs/2005.06706v2 )

ライセンス: Link先を確認
Yucheng Lu, Jack Nash, Christopher De Sa(参考訳) 並列性は機械学習アルゴリズムを加速するためのユビキタスな方法である。 しかし、並列学習の理論的分析は通常、アルゴリズムとプロトコル固有の設定で行われ、コミュニケーションの構造の変化が収束にどのように影響するかについての洞察はほとんど得られない。 本稿では,弱整合並列機械学習の収束解析のための汎用フレームワークであるmixmlを提案する。 提案手法は,(1)並列作業者間のコミュニケーションプロセスを統一的にモデル化する方法,(2)通信プロセスが収束に与える影響を定量化する新しいパラメータである混合時間tmix,(3)連続アルゴリズムの収束証明をtmixのみに依存する並列バージョンに対して1つに変換する原理的な方法,を含む。 我々は、SGDやAMSGradを含む多くのアルゴリズムの非同期および/または分散バージョンに対するMixMLのリカバリと、既知の収束バウンダリの改善を示す。 実験は理論を実証し,基礎となる混合時間に対する収束の依存性を示す。

Parallelism is a ubiquitous method for accelerating machine learning algorithms. However, theoretical analysis of parallel learning is usually done in an algorithm- and protocol-specific setting, giving little insight about how changes in the structure of communication could affect convergence. In this paper we propose MixML, a general framework for analyzing convergence of weakly consistent parallel machine learning. Our framework includes: (1) a unified way of modeling the communication process among parallel workers; (2) a new parameter, the mixing time tmix, that quantifies how the communication process affects convergence; and (3) a principled way of converting a convergence proof for a sequential algorithm into one for a parallel version that depends only on tmix. We show MixML recovers and improves on known convergence bounds for asynchronous and/or decentralized versions of many algorithms, includingSGD and AMSGrad. Our experiments substantiate the theory and show the dependency of convergence on the underlying mixing time.
翻訳日:2022-12-03 04:20:29 公開日:2020-06-06
# liss: 感情検出のためのスペイン語文学文の玩具コーパス

LiSSS: A toy corpus of Spanish Literary Sentences for Emotions detection ( http://arxiv.org/abs/2005.08223v2 )

ライセンス: Link先を確認
Juan-Manuel Torres-Moreno, Luis-Gil Moreno-Jim\'enez(参考訳) 本研究では,感情検出コーパス (LISSS) のためのスペイン語文学文集であるComputational Creativity (CC) 分野の新しい小さなデータセットを提案する。 本稿では,感情の分類と検出のアルゴリズムを評価・設計するために,文のコーパスに対処する。 このコーパスは、感情の集合、愛、恐怖、幸福、怒り、悲しみ/痛みを手動で分類することで構成しました。 また,コーパスに適用したベースライン分類アルゴリズムを提案する。 LISSSコーパスは、CCライクなアルゴリズムの評価や作成のための無料リソースとしてコミュニティに提供される。

In this work we present a new small data-set in Computational Creativity (CC) field, the Spanish Literary Sentences for emotions detection corpus (LISSS). We address this corpus of literary sentences in order to evaluate or design algorithms of emotions classification and detection. We have constitute this corpus by manually classifying the sentences in a set of emotions: Love, Fear, Happiness, Anger and Sadness/Pain. We also present some baseline classification algorithms applied on our corpus. The LISSS corpus will be available to the community as a free resource to evaluate or create CC-like algorithms.
翻訳日:2022-12-02 05:42:00 公開日:2020-06-06
# FA-GAN:前頭部の対向ネットワークによる顔の魅力向上

FA-GANs: Facial Attractiveness Enhancement with Generative Adversarial Networks on Frontal Faces ( http://arxiv.org/abs/2005.08168v2 )

ライセンス: Link先を確認
Jingwu He, Chuan Wang, Yang Zhang, Jie Guo, and Yanwen Guo(参考訳) 近年、顔の魅力の増進はコンピュータビジョンやグラフィックにおいて興味深い応用となっている。 顔のアイデンティティを保ちながら、画像や幾何学構造を操作することで、より魅力的な顔を生成することを目指している。 本稿では,ファガンと呼ばれる幾何学的面と外観面の両方において,顔の魅力を高めるための最初の生成的敵ネットワーク(gans)を提案する。 FA-GANは2つの枝を含み、顔の幾何学と顔の外観という2つの視点で顔の魅力を高める。 各ブランチは、顔画像を調整する外観枝と、顔のランドマークを外観面と幾何学面で調整する幾何学枝とからなる。 同一人物の強化前後で収集が困難である対面から学習する従来の顔操作とは異なり,教師なしの対面学習によって魅力的な顔の特徴を学習することでこれを実現する。 提案するFA-GANは, 魅力特性を抽出し, 強化結果に付加することができる。 顔の幾何学的レイアウトと顔の外観を独立して調整することにより、顔の幾何学的特徴を向上すると考えられる。 私たちの知る限りでは、私たちは幾何学面と外観面の両方において、ganによる顔の魅力を高める最初の人物です。 実験の結果,我々のFA-GANは幾何学的構造と顔の外観の両方において魅力的な知覚結果が得られることが示唆された。

Facial attractiveness enhancement has been an interesting application in Computer Vision and Graphics over these years. It aims to generate a more attractive face via manipulations on image and geometry structure while preserving face identity. In this paper, we propose the first Generative Adversarial Networks (GANs) for enhancing facial attractiveness in both geometry and appearance aspects, which we call "FA-GANs". FA-GANs contain two branches and enhance facial attractiveness in two perspectives: facial geometry and facial appearance. Each branch consists of individual GANs with the appearance branch adjusting the facial image and the geometry branch adjusting the facial landmarks in appearance and geometry aspects, respectively. Unlike the traditional facial manipulations learning from paired faces, which are infeasible to collect before and after enhancement of the same individual, we achieve this by learning the features of attractiveness faces through unsupervised adversarial learning. The proposed FA-GANs are able to extract attractiveness features and impose them on the enhancement results. To better enhance faces, both the geometry and appearance networks are considered to refine the facial attractiveness by adjusting the geometry layout of faces and the appearance of faces independently. To the best of our knowledge, we are the first to enhance the facial attractiveness with GANs in both geometry and appearance aspects. The experimental results suggest that our FA-GANs can generate compelling perceptual results in both geometry structure and facial appearance and outperform current state-of-the-art methods.
翻訳日:2022-12-02 05:33:37 公開日:2020-06-06
# 静止画像とビデオにおける行動分類のための識別辞書設計

Discriminative Dictionary Design for Action Classification in Still Images and Videos ( http://arxiv.org/abs/2005.10149v2 )

ライセンス: Link先を確認
Abhinaba Roy, Biplab Banerjee, Amir Hussain, Soujanya Poria(参考訳) 本稿では,静止画と映像からの行動認識の問題点について述べる。 SIFT、STIPなどの従来のローカル機能は、必ず2つの潜在的な問題を生じさせる。 1) 与えられたカテゴリの異なるエンティティに均等に分散されない。 2) これらの機能の多くは、エンティティが表現する視覚概念に排他的ではない。 上記の課題を考慮に入れた辞書を生成するために,クラス分離性を最大化するための,ロバストかつカテゴリ固有の局所特徴を識別する新たな識別手法を提案する。 具体的には,特徴量の新しい尺度に基づいてカテゴリごとの局所的特徴をランク付けするフィルタリングに基づく特徴選択問題として,強力な局所記述子の選定を行う。 基礎となる視覚エンティティはその後、学習された辞書に基づいて表現され、この段階ではランダムフォレストモデルを用いたアクション分類とラベル伝播の精細化が行われる。 このフレームワークは静止画像(スタンフォード40)とビデオ(UCF-50)に基づいて動作認識データセット上で検証され、文献の代表的な手法よりも優れた性能を示す。

In this paper, we address the problem of action recognition from still images and videos. Traditional local features such as SIFT, STIP etc. invariably pose two potential problems: 1) they are not evenly distributed in different entities of a given category and 2) many of such features are not exclusive of the visual concept the entities represent. In order to generate a dictionary taking the aforementioned issues into account, we propose a novel discriminative method for identifying robust and category specific local features which maximize the class separability to a greater extent. Specifically, we pose the selection of potent local descriptors as filtering based feature selection problem which ranks the local features per category based on a novel measure of distinctiveness. The underlying visual entities are subsequently represented based on the learned dictionary and this stage is followed by action classification using the random forest model followed by label propagation refinement. The framework is validated on the action recognition datasets based on still images (Stanford-40) as well as videos (UCF-50) and exhibits superior performances than the representative methods from the literature.
翻訳日:2022-12-01 05:39:19 公開日:2020-06-06
# 不規則時系列のシグネチャモデルに対するパスインプテーション戦略

Path Imputation Strategies for Signature Models of Irregular Time Series ( http://arxiv.org/abs/2005.12359v2 )

ライセンス: Link先を確認
Michael Moor, Max Horn, Christian Bock, Karsten Borgwardt, Bastian Rieck(参考訳) シグネチャ変換は連続ベクトル値経路の空間上の「普遍非線形性」であり、時系列の機械学習での使用に注目されている。 しかし、現実の時間データは一般に離散的に観測され、まず署名技術を適用する前に連続的な経路に変換する必要がある。 このステップをインプテーション問題として明示し、不規則時系列データにシグネチャベースのニューラルネットを適用する際の様々なインプテーション戦略の影響を実証的に評価する。 これらの戦略の一つ,ガウス過程 (GP) アダプタに対して,モンテカルロ (MC) サンプリングのコストを抑えながら,後続の分類器に直接不確実性情報を提供する拡張~ (GP-PoM) を提案する。 実験では,命令の選択が浅いシグネチャモデルに大きく影響を与えるのに対して,より深いアーキテクチャはより堅牢であることがわかった。 次に,GP-PoMやインジケータ計算に基づく不確実性認識予測は,従来のGPアダプタの不確実性認識訓練と比較しても,予測性能に有益であることを示す。 結論として,シグネチャモデルにおいて経路構成が本当に重要であること,提案手法がシグネチャモデルのロバスト性を改善しつつ,一般に競争性能の向上につながることを実証した。

The signature transform is a 'universal nonlinearity' on the space of continuous vector-valued paths, and has received attention for use in machine learning on time series. However, real-world temporal data is typically observed at discrete points in time, and must first be transformed into a continuous path before signature techniques can be applied. We make this step explicit by characterising it as an imputation problem, and empirically assess the impact of various imputation strategies when applying signature-based neural nets to irregular time series data. For one of these strategies, Gaussian process (GP) adapters, we propose an extension~(GP-PoM) that makes uncertainty information directly available to the subsequent classifier while at the same time preventing costly Monte-Carlo (MC) sampling. In our experiments, we find that the choice of imputation drastically affects shallow signature models, whereas deeper architectures are more robust. Next, we observe that uncertainty-aware predictions (based on GP-PoM or indicator imputations) are beneficial for predictive performance, even compared to the uncertainty-aware training of conventional GP adapters. In conclusion, we have demonstrated that the path construction is indeed crucial for signature models and that our proposed strategy leads to competitive performance in general, while improving robustness of signature models in particular.
翻訳日:2022-11-29 05:30:42 公開日:2020-06-06
# 脳のような異種ネットワークBHN

BHN: A Brain-like Heterogeneous Network ( http://arxiv.org/abs/2005.12826v2 )

ライセンス: Link先を確認
Tao Liu(参考訳) 人間の脳は教師なしの方法で機能し、複数の脳領域が知性を照らすのに不可欠です。 そこで我々は,多くの分散表現と1つのグローバルアテンション表現を協調的に学習できる脳様異種ネットワーク(BHN)を提案する。 分散,自己教師付き,勾配分離された目的関数をminimax方式で最適化することで,実験において画像や映像のフレームのパッチから生成される表現を改善する。

The human brain works in an unsupervised way, and more than one brain region is essential for lighting up intelligence. Inspired by this, we propose a brain-like heterogeneous network (BHN), which can cooperatively learn a lot of distributed representations and one global attention representation. By optimizing distributed, self-supervised, and gradient-isolated objective functions in a minimax fashion, our model improves its representations, which are generated from patches of pictures or frames of videos in experiments.
翻訳日:2022-11-28 23:20:54 公開日:2020-06-06
# Tukey-Lambda確率分布に基づく新しい進化的アルゴリズムを用いたアンテナ最適化

Antenna Optimization Using a New Evolutionary Algorithm Based on Tukey-Lambda Probability Distribution ( http://arxiv.org/abs/2005.13594v2 )

ライセンス: Link先を確認
Vahraz Jamnejad and Ahmad Hoorfar(参考訳) 本稿では,Tukeyの対称ラムダ分布に基づく新しい進化的最適化アルゴリズムを提案する。 タキー分布は3つのパラメータ、形状パラメータ、スケールパラメータ、位置パラメータまたは平均値によって定義される。 形状パラメータを変更することで、他の様々な分布を近似することができ、その結果、多くの確率分布を含むことができる。 さらに、これらの属性により、チューキー突然変異演算子を用いた進化的プログラミング(EP)アルゴリズムは、多くの最適化問題でうまく機能する可能性がある。 チューキー分布を用いたEPの実装における様々なスキームについて論じ, 選択した試験関数とアンテナ設計問題に適用した。

In this paper, we introduce a new evolutionary optimization algorithm based on Tukey's symmetric lambda distribution. Tukey distribution is defined by 3 parameters, the shape parameter, the scale parameter, and the location parameter or average value. Various other distributions can be approximated by changing the shape parameter, and as a result can encompass a large class of probability distributions. In addition, Because of these attributes, an Evolutionary Programming (EP) algorithm with Tukey mutation operator may perform well in a large class of optimization problems. Various schemes in implementation of EP with Tukey distribution are discussed, and the resulting algorithms are applied to selected test functions and antenna design problems.
翻訳日:2022-11-28 09:17:24 公開日:2020-06-06
# 人物再識別のためのグラフトネットワーク

Grafted network for person re-identification ( http://arxiv.org/abs/2006.01967v2 )

ライセンス: Link先を確認
Jiabao Wang, Yang Li, Shanshan Jiao, Zhuang Miao, Rui Zhang(参考訳) 畳み込みニューラルネットワークは、人物の再識別(re-ID)において顕著な効果を示した。 しかし、モデルは常に多くのパラメータを持ち、モバイルアプリケーションのための計算量が多い。 そこで本研究では,高精度根材と軽量シイオンをグラフトした新しいグラフトネットワーク(graftednet)を提案する。 ルートストックはResNet-50の以前の部分に基づいて強力なベースラインを提供し、一方cionはSqueezeNetの後半部分で構成され、パラメータを圧縮する新しい設計モジュールである。 より識別的な特徴表現を抽出するために、多レベルおよび部分に基づくジョイント特徴を提案する。 さらに,グラフトednetを効率的にトレーニングするために,モデルのトレーニングに付随するブランチを追加し,パラメータや計算を省くためのテストにおいてそれを削除することにより,学習方法を提案する。 3つの公開人物re-idベンチマーク(market1501, dukemtmc-reid, cuhk03)において, graftednetの有効性を評価し,その構成成分を解析した。 実験の結果、GraftedNetはランキング1で93.02%、85.3%、76.2%、mAPで81.6%、74.7%、71.6%を達成した。

Convolutional neural networks have shown outstanding effectiveness in person re-identification (re-ID). However, the models always have large number of parameters and much computation for mobile application. In order to relieve this problem, we propose a novel grafted network (GraftedNet), which is designed by grafting a high-accuracy rootstock and a light-weighted scion. The rootstock is based on the former parts of ResNet-50 to provide a strong baseline, while the scion is a new designed module, composed of the latter parts of SqueezeNet, to compress the parameters. To extract more discriminative feature representation, a joint multi-level and part-based feature is proposed. In addition, to train GraftedNet efficiently, we propose an accompanying learning method, by adding an accompanying branch to train the model in training and removing it in testing for saving parameters and computation. On three public person re-ID benchmarks (Market1501, DukeMTMC-reID and CUHK03), the effectiveness of GraftedNet are evaluated and its components are analyzed. Experimental results show that the proposed GraftedNet achieves 93.02%, 85.3% and 76.2% in Rank-1 and 81.6%, 74.7% and 71.6% in mAP, with only 4.6M parameters.
翻訳日:2022-11-26 00:48:30 公開日:2020-06-06
# 視覚的アピールに基づくランク付け画像のアンサンブルネットワーク

Ensemble Network for Ranking Images Based on Visual Appeal ( http://arxiv.org/abs/2006.03898v1 )

ライセンス: Link先を確認
Sachin Singh, Victor Sanchez and Tanaya Guha(参考訳) 短時間で同じイベントで撮影された画像(特にグループ写真)のランク付けを行うための計算フレームワークを提案する。 ランキングは、画像の全体的な魅力に対する人間の認識に対応することが期待されている。 主観的分析によって、人間に訴える要因は感情的内容、美学、画質である、と仮定し、提示する。 本稿では、3つの情報チャンネルのアンサンブルであるネットワークを提案し、それぞれが3つの視覚的魅力要因のうちの1つに対応するスコアを予測する。 グループ感情推定のために、画像からグループ感情を予測するための畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。 この新しいアーキテクチャは、画像の重要な領域に重点を置くネットワークを強制し、最先端技術に匹敵する結果を得る。 次に、グループ感情、美学、画像品質スコアを組み合わせた画像ランキングタスクのためのネットワークを開発する。 適切なデータベースが利用できないため、様々なソーシャルイベント中に手動でアノテートされたグループ写真の新しいデータベースを作成しました。 我々は、このデータベースおよび他のベンチマークデータベースに対して、いつでも利用可能な実験結果を示す。 実験の結果,提案フレームワークは画像の全体的な魅力を人間のランクと密接に一致して確実に予測できることがわかった。

We propose a computational framework for ranking images (group photos in particular) taken at the same event within a short time span. The ranking is expected to correspond with human perception of overall appeal of the images. We hypothesize and provide evidence through subjective analysis that the factors that appeal to humans are its emotional content, aesthetics and image quality. We propose a network which is an ensemble of three information channels, each predicting a score corresponding to one of the three visual appeal factors. For group emotion estimation, we propose a convolutional neural network (CNN) based architecture for predicting group emotion from images. This new architecture enforces the network to put emphasis on the important regions in the images, and achieves comparable results to the state-of-the-art. Next, we develop a network for the image ranking task that combines group emotion, aesthetics and image quality scores. Owing to the unavailability of suitable databases, we created a new database of manually annotated group photos taken during various social events. We present experimental results on this database and other benchmark databases whenever available. Overall, our experiments show that the proposed framework can reliably predict the overall appeal of images with results closely corresponding to human ranking.
翻訳日:2022-11-24 22:06:12 公開日:2020-06-06
# 二重検出器識別器を用いたロバスト透かし

Robust watermarking with double detector-discriminator approach ( http://arxiv.org/abs/2006.03921v1 )

ライセンス: Link先を確認
Marcin Plata, Piotr Syga(参考訳) 本稿では,透明なメッセージを画像に埋め込む手法である透かしのための新しい深層フレームワークを提案する。 この手法では,デジタル処理処理を施した後でも画像から情報を抽出することが不可欠である。 当社のフレームワークは,最近の攻撃スペクトル(回転,再サイズ,ガウス平滑化など)に対するロバスト性という文脈で,圧縮,特にjpegに対するロバスト性よりも優れています。 この方法のビット精度は、あらゆる種類の歪みに対して少なくとも 0.86 である。 また、JPEGでは0.90ビットの精度を実現しました。 私たちの方法は透明性とキャパシティも保ちます。 さらに,画像に埋め込みメッセージが含まれているかどうかを検知し判別する手法であるdouble detector-discriminatorアプローチを提案する。 これにより、拡張アプローチを検証するためのテスト公式を設計し、一般的な手順と比較します。 また,このフレームワークに容易に適用可能な,画像品質と攻撃に対する堅牢性のバランスをとる方法を提案する。

In this paper we present a novel deep framework for a watermarking - a technique of embedding a transparent message into an image in a way that allows retrieving the message from a (perturbed) copy, so that copyright infringement can be tracked. For this technique, it is essential to extract the information from the image even after imposing some digital processing operations on it. Our framework outperforms recent methods in the context of robustness against not only spectrum of attacks (e.g. rotation, resizing, Gaussian smoothing) but also against compression, especially JPEG. The bit accuracy of our method is at least 0.86 for all types of distortions. We also achieved 0.90 bit accuracy for JPEG while recent methods provided at most 0.83. Our method retains high transparency and capacity as well. Moreover, we present our double detector-discriminator approach - a scheme to detect and discriminate if the image contains the embedded message or not, which is crucial for real-life watermarking systems and up to now was not investigated using neural networks. With this, we design a testing formula to validate our extended approach and compared it with a common procedure. We also present an alternative method of balancing between image quality and robustness on attacks which is easily applicable to the framework.
翻訳日:2022-11-24 22:05:38 公開日:2020-06-06
# ニューラルネットワークによる逆問題の正則化

Regularization of Inverse Problems by Neural Networks ( http://arxiv.org/abs/2006.03972v1 )

ライセンス: Link先を確認
Markus Haltmeier and Linh V. Nguyen(参考訳) 逆問題は、計算トモグラフィー、非破壊検査、リモートセンシングを含む様々な画像アプリケーションで発生する。 逆問題の特徴は、解の非特異性と不安定性である。 したがって、任意の合理的解法は、特定の解を選択し、同時に反転過程を安定化する正規化ツールを使用する必要がある。 近年,ディープラーニング技術とニューラルネットワークを用いたデータ駆動手法は,逆問題に対する古典解法よりも優れていた。 本章では,逆問題の概要を述べるとともに,その解に対する正規化概念の必要性を示す。 ニューラルネットワークは逆問題に対するデータ駆動型ソリューションとして利用でき、逆問題に対する既存のディープラーニング手法をレビューすることができる。 特に,これらのディープラーニング手法を,逆問題に対する安定解法の数学的基礎である正規化理論の観点から考察する。 この章は、提示された理論的な結果の多くが既存のものを拡張するため、単なるレビュー以上のものである。

Inverse problems arise in a variety of imaging applications including computed tomography, non-destructive testing, and remote sensing. The characteristic features of inverse problems are the non-uniqueness and instability of their solutions. Therefore, any reasonable solution method requires the use of regularization tools that select specific solutions and at the same time stabilize the inversion process. Recently, data-driven methods using deep learning techniques and neural networks demonstrated to significantly outperform classical solution methods for inverse problems. In this chapter, we give an overview of inverse problems and demonstrate the necessity of regularization concepts for their solution. We show that neural networks can be used for the data-driven solution of inverse problems and review existing deep learning methods for inverse problems. In particular, we view these deep learning methods from the perspective of regularization theory, the mathematical foundation of stable solution methods for inverse problems. This chapter is more than just a review as many of the presented theoretical results extend existing ones.
翻訳日:2022-11-24 22:05:17 公開日:2020-06-06
# 構造系の損傷同定のためのスパース表現

Sparse representation for damage identification of structural systems ( http://arxiv.org/abs/2006.03929v1 )

ライセンス: Link先を確認
Zhao Chen and Hao Sun(参考訳) 構造系の損傷の同定は、通常、測定ノイズとモデリングエラーによって引き起こされる刺激的・認識的不確実性のために不調な逆問題として特徴づけられる。 スパース表現はスパース損傷の場合の逆解析に使うことができる。 本稿では,モデル更新とスパース損傷識別のための2段階感度解析に基づく新しいフレームワークを提案する。 具体的には,無傷モデルと不確実性定量化の更新のために,まず$\ell_2$ベイズ学習法を開発し,損傷検出のベースラインを設定する。 準$\ell_0$法に基づいて構築されたスパース表現パイプライン、例えば、逐次しきい値最小二乗(stls)回帰は、損傷の局在と定量化のために提示される。 さらに、データからヒューリスティックにハイパーパラメータを学習するために、クロス検証と共にベイズ最適化が開発され、ハイパーパラメータチューニングの計算コストを節約し、より信頼性の高い識別結果を生成する。 提案手法は, 10階建てのせん断型建物, 複雑なトラス構造, 8階建ての鋼製フレームの揺動テーブル試験の3例で検証された。 提案手法は, 構造損傷の局所化と定量化の両方を高精度に行うことができることを示す。

Identifying damage of structural systems is typically characterized as an inverse problem which might be ill-conditioned due to aleatory and epistemic uncertainties induced by measurement noise and modeling error. Sparse representation can be used to perform inverse analysis for the case of sparse damage. In this paper, we propose a novel two-stage sensitivity analysis-based framework for both model updating and sparse damage identification. Specifically, an $\ell_2$ Bayesian learning method is firstly developed for updating the intact model and uncertainty quantification so as to set forward a baseline for damage detection. A sparse representation pipeline built on a quasi-$\ell_0$ method, e.g., Sequential Threshold Least Squares (STLS) regression, is then presented for damage localization and quantification. Additionally, Bayesian optimization together with cross validation is developed to heuristically learn hyperparameters from data, which saves the computational cost of hyperparameter tuning and produces more reliable identification result. The proposed framework is verified by three examples, including a 10-story shear-type building, a complex truss structure, and a shake table test of an eight-story steel frame. Results show that the proposed approach is capable of both localizing and quantifying structural damage with high accuracy.
翻訳日:2022-11-24 22:05:02 公開日:2020-06-06
# 新しいフュージョンアルゴリズムはロボットパス計画の代替手法を提供する

New Fusion Algorithm provides an alternative approach to Robotic Path planning ( http://arxiv.org/abs/2006.05241v1 )

ライセンス: Link先を確認
Ashutosh Kumar Tiwari, Sandeep Varma Nadimpalli(参考訳) 技術と自動化の急速な成長のために、ロボットはスピードと精度の両方で、人間のタスクがロボットに取って代わられている。 これらのロボットが広く普及している主な用途の1つは、作業エリア内や周辺に大量の荷物を運ぶために雇用される産業用ロボットである。 これらの作業環境は完全にローカライズされず、動的に変化する可能性があるため、新しいアプローチは、クラッシュのない業務遂行の方法を保証するために評価されなければならない。 本稿では,カスタム2次元環境における経路計画問題を解くための新しい効率的な融合アルゴリズムを提案する。 この融合アルゴリズムは、改良された最適化されたA*アルゴリズムと人工ポテンシャル場法を統合する。 まず、A*アルゴリズムを採用することにより、環境モデルにおいて初期経路または予備経路を計画する。 このA*アルゴリズムのヒューリスティック関数は,環境モデルに従って最適化・改善される。 この後、最初のパスでキーノードを選択して保存する。 最後に、これらの保存キーノードに基づいて、人工電位場法による経路平滑化を行う。 Python viz.ライブラリを用いて行ったシミュレーション結果から,新しい融合アルゴリズムはスムーズ性に優れ,経路計画の従来のA*戦略に代わる時間効率と安価な代替手段として満足できることがわかった。

For rapid growth in technology and automation, human tasks are being taken over by robots as robots have proven to be better with both speed and precision. One of the major and widespread usages of these robots is in the industrial businesses, where they are employed to carry massive loads in and around work areas. As these working environments might not be completely localized and could be dynamically changing, new approaches must be evaluated to guarantee a crash-free way of performing duties. This paper presents a new and efficient fusion algorithm for solving the path planning problem in a custom 2D environment. This fusion algorithm integrates an improved and optimized version of both, A* algorithm and the Artificial potential field method. Firstly, an initial or preliminary path is planned in the environmental model by adopting the A* algorithm. The heuristic function of this A* algorithm is optimized and improved according to the environmental model. This is followed by selecting and saving the key nodes in the initial path. Lastly, on the basis of these saved key nodes, path smoothing is done by artificial potential field method. Our simulation results carried out using Python viz. libraries indicate that the new fusion algorithm is feasible and superior in smoothness performance and can satisfy as a time-efficient and cheaper alternative to conventional A* strategies of path planning.
翻訳日:2022-11-24 22:01:00 公開日:2020-06-06
# 異なる次元領域上の多変量関数特異スペクトル解析

Multivariate Functional Singular Spectrum Analysis Over Different Dimensional Domains ( http://arxiv.org/abs/2006.03933v1 )

ライセンス: Link先を確認
Jordan Trinka, Hossein Haghbin, and Mehdi Maadooliat(参考訳) 本研究では,多変量特異スペクトル解析(mssa)の機能拡張である異なる次元領域上の多変量汎関数特異スペクトル解析(mfssa)を開発する。 以下の例では、アルゴリズムに必要なレシピを含む実装戦略だけでなく、作業をサポートするために必要な理論上の詳細を全て提示する。 本研究は,MFSSAを用いた多変量関数時系列(MFTS)信号の再構成精度を他の手法と比較して向上させるシミュレーション研究であり,MFSSAが日内温度曲線と植生のリモートセンシング画像を用いて解析をどのように強化するかを示す実データ研究である。 MFSSAはRfssa Rパッケージを通じて利用可能である。

In this work, we develop multivariate functional singular spectrum analysis (MFSSA) over different dimensional domains which is the functional extension of multivariate singular spectrum analysis (MSSA). In the following, we provide all of the necessary theoretical details supporting the work as well as the implementation strategy that contains the recipes needed for the algorithm. We provide a simulation study showcasing the better performance in reconstruction accuracy of a multivariate functional time series (MFTS) signal found using MFSSA as compared to other approaches and we give a real data study showing how MFSSA enriches analysis using intraday temperature curves and remote sensing images of vegetation. MFSSA is available for use through the Rfssa R package.
翻訳日:2022-11-24 22:00:41 公開日:2020-06-06
# SONIA: 対称的ブロックワイド整合最適化アルゴリズム

SONIA: A Symmetric Blockwise Truncated Optimization Algorithm ( http://arxiv.org/abs/2006.03949v1 )

ライセンス: Link先を確認
Majid Jahani, Mohammadreza Nazari, Rachael Tappenden, Albert S. Berahas, Martin Tak\'a\v{c}(参考訳) 本研究は,経験的リスク最小化のための新しいアルゴリズムを提案する。 このアルゴリズムは、一部分空間において二階型更新を用いる探索方向を計算し、直交補数において最も急降下ステップを拡大することにより、一階法と二階法のギャップを埋める。 この目的のために、部分曲率情報を悪条件にするために組み込むと同時に、機械学習アプリケーションでしばしば発生する大きな問題次元にアルゴリズムをスケールできるようにする。 理論的な結果は、強い凸と非凸の両方の場合において、アルゴリズムが定常点に収束することを確認するために提示される。 アルゴリズムの確率的変種も、対応する理論的保証とともに提示される。 数値計算により,従来の機械学習問題に対する新しいアプローチの強みが確かめられる。

This work presents a new algorithm for empirical risk minimization. The algorithm bridges the gap between first- and second-order methods by computing a search direction that uses a second-order-type update in one subspace, coupled with a scaled steepest descent step in the orthogonal complement. To this end, partial curvature information is incorporated to help with ill-conditioning, while simultaneously allowing the algorithm to scale to the large problem dimensions often encountered in machine learning applications. Theoretical results are presented to confirm that the algorithm converges to a stationary point in both the strongly convex and nonconvex cases. A stochastic variant of the algorithm is also presented, along with corresponding theoretical guarantees. Numerical results confirm the strengths of the new approach on standard machine learning problems.
翻訳日:2022-11-24 22:00:27 公開日:2020-06-06
# 消費者製品画像のための簡易一次色編集

Simple Primary Colour Editing for Consumer Product Images ( http://arxiv.org/abs/2006.03743v1 )

ライセンス: Link先を確認
Han Gong, Luwen Yu, Stephen Westland(参考訳) 消費者製品画像に対する簡易な一次色編集手法を提案する。 色補正と色ブレンドを用いることで,色編集作業の自動化と,消費者色選好研究者の時間を節約できることを示す。 一次色とその相補色間の色調和を改善するため、このアルゴリズムは画像内の他の色も調整する。 予備実験は、最先端の手法と人間の編集と比較して有望な結果を示している。

We present a simple primary colour editing method for consumer product images. We show that by using colour correction and colour blending, we can automate the pain-staking colour editing task and save time for consumer colour preference researchers. To improve the colour harmony between the primary colour and its complementary colours, our algorithm also tunes the other colours in the image. Preliminary experiment has shown some promising results compared with a state-of-the-art method and human editing.
翻訳日:2022-11-24 22:00:14 公開日:2020-06-06
# 3次元形状とシーンコンプリートのための出力誘導型スキップ接続を用いた深部オクターベースCNN

Deep Octree-based CNNs with Output-Guided Skip Connections for 3D Shape and Scene Completion ( http://arxiv.org/abs/2006.03762v1 )

ライセンス: Link先を確認
Peng-Shuai Wang and Yang Liu and Xin Tong(参考訳) 形状とシーンデータの完全かつクリーンな取得は、幾何学的閉塞と3D撮影時の視界不足により困難である。 入力ノイズや不完全な形状やシーンを完了するための,単純かつ効果的な深層学習手法を提案する。 我々のネットワークはO-CNN(O-CNN)とU-Netのような構造で構築されており、高い計算効率とメモリ効率を享受し、3次元CNNのための非常に深いネットワーク構造の構築を支援する。 データから入力幾何と学習幾何を効果的に保存するために、新しい出力誘導スキップ接続をネットワーク構造に導入する。 これらの単純な適応 -- 出力誘導型スキップ接続とO-CNN(70層まで)により、我々のネットワークは3次元形状の完成とセマンティックシーンの計算において最先端の結果を達成する。

Acquiring complete and clean 3D shape and scene data is challenging due to geometric occlusion and insufficient views during 3D capturing. We present a simple yet effective deep learning approach for completing the input noisy and incomplete shapes or scenes. Our network is built upon the octree-based CNNs (O-CNN) with U-Net like structures, which enjoys high computational and memory efficiency and supports to construct a very deep network structure for 3D CNNs. A novel output-guided skip-connection is introduced to the network structure for better preserving the input geometry and learning geometry prior from data effectively. We show that with these simple adaptions -- output-guided skip-connection and deeper O-CNN (up to 70 layers), our network achieves state-of-the-art results in 3D shape completion and semantic scene computation.
翻訳日:2022-11-24 22:00:08 公開日:2020-06-06
# 特徴融合とマルチタスク学習による非参照画像品質評価

No-Reference Image Quality Assessment via Feature Fusion and Multi-Task Learning ( http://arxiv.org/abs/2006.03783v1 )

ライセンス: Link先を確認
S. Alireza Golestaneh, Kris Kitani(参考訳) ブラインドまたは非参照画像品質評価(NR-IQA)は、参照画像が利用できないため、基本的で未解決でありながら難しい問題である。 毎日何十億もの視聴者に影響を与えるストリーミングやソーシャルメディア産業にとって不可欠だ。 NR-IQA法は様々な特徴抽出手法を応用したが、性能ボトルネックは依然として残っている。 本稿では,マルチタスク学習に基づく簡易かつ効果的な汎用no-reference(nr)画像品質評価(iqa)フレームワークを提案する。 本モデルでは歪み型と主観的人間のスコアを用いて画質を推定する。 歪み情報を利用して品質スコア推定タスクを改善する特徴融合法を提案する。 本実験では,マルチタスク学習と特徴融合法を用いて,NR-IQAタスクの性能向上を実証した。 提案手法の有効性を示すために,7つの標準データセット上でのアプローチをテストし,様々なデータセットで最新の結果が得られることを示す。

Blind or no-reference image quality assessment (NR-IQA) is a fundamental, unsolved, and yet challenging problem due to the unavailability of a reference image. It is vital to the streaming and social media industries that impact billions of viewers daily. Although previous NR-IQA methods leveraged different feature extraction approaches, the performance bottleneck still exists. In this paper, we propose a simple and yet effective general-purpose no-reference (NR) image quality assessment (IQA) framework based on multi-task learning. Our model employs distortion types as well as subjective human scores to predict image quality. We propose a feature fusion method to utilize distortion information to improve the quality score estimation task. In our experiments, we demonstrate that by utilizing multi-task learning and our proposed feature fusion method, our model yields better performance for the NR-IQA task. To demonstrate the effectiveness of our approach, we test our approach on seven standard datasets and show that we achieve state-of-the-art results on various datasets.
翻訳日:2022-11-24 21:59:50 公開日:2020-06-06
# キーポイントを用いた建物の事例セグメンテーション

Instance segmentation of buildings using keypoints ( http://arxiv.org/abs/2006.03858v1 )

ライセンス: Link先を確認
Qingyu Li, Lichao Mou, Yuansheng Hua, Yao Sun, Pu Jin, Yilei Shi, Xiao Xiang Zhu(参考訳) 建築セグメンテーションはリモートセンシング画像解釈のタスクにおいて非常に重要である。 しかし、既存のセマンティックセグメンテーションとインスタンスセグメンテーションメソッドは、しばしばぼやけた境界を持つセグメンテーションマスクにつながる。 本稿では,高分解能リモートセンシング画像におけるセグメンテーションを構築するための新しいインスタンスセグメンテーションネットワークを提案する。 より具体的には、個々の建物を分割していくつかのキーポイントを検出することを検討する。 検出されたキーポイントはその後、建物のセマンティック境界である閉ポリゴンとして再構成される。 そうすることで、建物の鋭い境界が保たれる。 屋上セグメンテーション(airs)データセットを選定した空中画像を用いて実験を行い, 数値的, 質的ともに, 最新の手法と比較して良好な性能を得る。 我々のネットワークは、幾何学的詳細をよく保存できるボトムアップのインスタンスセグメンテーション手法である。

Building segmentation is of great importance in the task of remote sensing imagery interpretation. However, the existing semantic segmentation and instance segmentation methods often lead to segmentation masks with blurred boundaries. In this paper, we propose a novel instance segmentation network for building segmentation in high-resolution remote sensing images. More specifically, we consider segmenting an individual building as detecting several keypoints. The detected keypoints are subsequently reformulated as a closed polygon, which is the semantic boundary of the building. By doing so, the sharp boundary of the building could be preserved. Experiments are conducted on selected Aerial Imagery for Roof Segmentation (AIRS) dataset, and our method achieves better performance in both quantitative and qualitative results with comparison to the state-of-the-art methods. Our network is a bottom-up instance segmentation method that could well preserve geometric details.
翻訳日:2022-11-24 21:51:57 公開日:2020-06-06
# 共変量シフトロバストネスのための自己監督動的ネットワーク

Self-Supervised Dynamic Networks for Covariate Shift Robustness ( http://arxiv.org/abs/2006.03952v1 )

ライセンス: Link先を確認
Tomer Cohen, Noy Shulman, Hai Morgenstern, Roey Mechrez, and Erez Farhan(参考訳) 教師付き学習が依然としてほとんどのAIアプリケーションを支配しているため、テスト時のパフォーマンスはしばしば予期しない。 特に、背景雑音、照明変動、転写エラーなどの典型的な迷惑によって引き起こされる入力共変量の変化は、予測精度を著しく低下させる可能性がある。 近年,自己スーパービジョンを取り入れることで,共変量シフトのロバスト性が著しく向上することが示された。 本研究では、動的ネットワークにインスパイアされた入力依存機構であるセルフスーパービジョン動的ネットワーク(SSDN)を提案し、本ネットワークの重みを自己教師ネットワークが予測し、テスト時に共変量シフトを直接処理できるようにする。 本稿では,共変量シフトの異なる画像分類問題に対する提案手法の概念的・実証的利点を示し,比較法を有意に上回っていることを示す。

As supervised learning still dominates most AI applications, test-time performance is often unexpected. Specifically, a shift of the input covariates, caused by typical nuisances like background-noise, illumination variations or transcription errors, can lead to a significant decrease in prediction accuracy. Recently, it was shown that incorporating self-supervision can significantly improve covariate shift robustness. In this work, we propose Self-Supervised Dynamic Networks (SSDN): an input-dependent mechanism, inspired by dynamic networks, that allows a self-supervised network to predict the weights of the main network, and thus directly handle covariate shifts at test-time. We present the conceptual and empirical advantages of the proposed method on the problem of image classification under different covariate shifts, and show that it significantly outperforms comparable methods.
翻訳日:2022-11-24 21:50:43 公開日:2020-06-06
# スタイルベースフェイスエイジングによる顔データの多様性向上

Enhancing Facial Data Diversity with Style-based Face Aging ( http://arxiv.org/abs/2006.03985v1 )

ライセンス: Link先を確認
Markos Georgopoulos, James Oldfield, Mihalis A. Nicolaou, Yannis Panagakis, Maja Pantic(参考訳) 公正分類器の訓練における重要な制限要因は、データセットバイアスの存在に関連している。 特に、顔データセットは、通常、性別、年齢、人種などの属性の観点からバイアスされる。 緩和されない場合、偏見はそのようなグループに対して不公平な振る舞いを示すアルゴリズムにつながる。 本研究では,年齢に関して顔データセットの多様性を増大させる問題に対処する。 具体的には,多分解能年齢判別表現の条件づけにより,細粒度の老化パターンを捉えたデータ拡張のための新しい生成型アーキテクチャを提案する。 本手法は, 単層およびクロスデータベース実験において, 年齢別データ集合の評価を行うことにより, ラベル分布の尾部に位置する年齢群において, 年齢移動に関する最先端アルゴリズムよりも優れることを示す。 さらに,拡張データセットの多様性が著しく向上し,既存のメトリクスによる比較手法を上回っています。

A significant limiting factor in training fair classifiers relates to the presence of dataset bias. In particular, face datasets are typically biased in terms of attributes such as gender, age, and race. If not mitigated, bias leads to algorithms that exhibit unfair behaviour towards such groups. In this work, we address the problem of increasing the diversity of face datasets with respect to age. Concretely, we propose a novel, generative style-based architecture for data augmentation that captures fine-grained aging patterns by conditioning on multi-resolution age-discriminative representations. By evaluating on several age-annotated datasets in both single- and cross-database experiments, we show that the proposed method outperforms state-of-the-art algorithms for age transfer, especially in the case of age groups that lie in the tails of the label distribution. We further show significantly increased diversity in the augmented datasets, outperforming all compared methods according to established metrics.
翻訳日:2022-11-24 21:50:30 公開日:2020-06-06
# StackOverflow vs. Kaggle: データサイエンスに関する開発者の議論

StackOverflow vs Kaggle: A Study of Developer Discussions About Data Science ( http://arxiv.org/abs/2006.08334v1 )

ライセンス: Link先を確認
David Hin(参考訳) ソフトウェア開発者は、基本データサイエンス(DS)の概念を理解する必要がある。 近年、機械学習(ML)とディープラーニング(DL)の存在は、フレームワークを通じて活用されるか、ゼロから実装されるかにかかわらず、ユーザアプリケーションの開発において劇的に増加している。 これらの話題はオンラインプラットフォーム上で多くの議論を巻き起こしている。 本稿では,stackoverflow と kaggle の 197836 ポストの特性を調べるために,大規模定性的かつ定量的な実験を行う。 遅延ディリクレ割当トピックモデリングは、24のDSトピックを抽出するために使用される。 主な発見は、TensorFlow関連のトピックがStackOverflowでもっとも多いのに対して、メタディスカッショントピックがKaggleでもっとも多かったことだ。 StackOverflowは低いレベルのトラブルシューティングを含む傾向があり、Kaggleは実用性とリーダボードのパフォーマンスの最適化に重点を置いている。 加えて、両方のコミュニティでdsの議論が劇的なペースで増加している。 StackOverflowに関するTensorFlowの議論は遅くなっているが、Kerasへの関心は高まっている。 最後に、アンサンブルアルゴリズムはKaggleで最も言及されているML/DLアルゴリズムであるが、StackOverflowではほとんど議論されない。 これらの発見は、教育者や研究者がdsの概念を異なる開発者コミュニティに調査し、伝達する努力をより効果的に調整し優先順位付けるのに役立つ。

Software developers are increasingly required to understand fundamental Data science (DS) concepts. Recently, the presence of machine learning (ML) and deep learning (DL) has dramatically increased in the development of user applications, whether they are leveraged through frameworks or implemented from scratch. These topics attract much discussion on online platforms. This paper conducts large-scale qualitative and quantitative experiments to study the characteristics of 197836 posts from StackOverflow and Kaggle. Latent Dirichlet Allocation topic modelling is used to extract twenty-four DS discussion topics. The main findings include that TensorFlow-related topics were most prevalent in StackOverflow, while meta discussion topics were the prevalent ones on Kaggle. StackOverflow tends to include lower-level troubleshooting, while Kaggle focuses on practicality and optimising leaderboard performance. In addition, across both communities, DS discussion is increasing at a dramatic rate. While TensorFlow discussion on StackOverflow is slowing, interest in Keras is rising. Finally, ensemble algorithms are the most mentioned ML/DL algorithms in Kaggle but are rarely discussed on StackOverflow. These findings can help educators and researchers to more effectively tailor and prioritise efforts in researching and communicating DS concepts towards different developer communities.
翻訳日:2022-11-24 21:49:56 公開日:2020-06-06
# EPARS:オンライン・オフライン学習行動におけるリスクの高い学生の早期予測

EPARS: Early Prediction of At-risk Students with Online and Offline Learning Behaviors ( http://arxiv.org/abs/2006.03857v1 )

ライセンス: Link先を確認
Yu Yang, Zhiyuan Wen, Jiannong Cao, Jiaxing Shen, Hongzhi Yin and Xiaofang Zhou(参考訳) リスク・アット・リスク(STAR)の早期予測は、ドロップアウトや自殺にタイムリーに介入するための有効かつ重要な手段である。 既存の作業は主に、学習プロセス全体を捉えるのに十分な包括的ではないオンラインあるいはオフラインの学習行動に依存しており、満足できない予測パフォーマンスにつながる。 オンラインおよびオフライン学習行動のモデル化により,STARを1学期で早期に予測できる新しいアルゴリズム(EPARS)を提案する。 オンラインの行動は、学生がオンライン学習管理システムを使用する際のアクティビティのログから生まれる。 オフライン動作は、ライブラリのチェックインレコードに由来する。 私たちの主な観察は2つの折りたたみです。 STARは、良い学生と大きく異なるが、規則的で明確な研究ルーチンはほとんどない。 スパースデータに頑健な学習行動の正則性を抽出する多段階正規化手法を考案した。 第二に、STARの友人は危険にさらされやすい。 我々は,基盤となるソーシャルネットワークを近似するために共起ネットワークを構築し,ネットワーク埋め込みによる特徴としてソーシャルホモフィリをエンコードした。 提案アルゴリズムを検証するために, アジア系大学生15,503名を対象に, 広範囲にわたる実験を行った。 EPARSはベースラインを14.62%、STARは38.22%上回った。

Early prediction of students at risk (STAR) is an effective and significant means to provide timely intervention for dropout and suicide. Existing works mostly rely on either online or offline learning behaviors which are not comprehensive enough to capture the whole learning processes and lead to unsatisfying prediction performance. We propose a novel algorithm (EPARS) that could early predict STAR in a semester by modeling online and offline learning behaviors. The online behaviors come from the log of activities when students use the online learning management system. The offline behaviors derive from the check-in records of the library. Our main observations are two folds. Significantly different from good students, STAR barely have regular and clear study routines. We devised a multi-scale bag-of-regularity method to extract the regularity of learning behaviors that is robust to sparse data. Second, friends of STAR are more likely to be at risk. We constructed a co-occurrence network to approximate the underlying social network and encode the social homophily as features through network embedding. To validate the proposed algorithm, extensive experiments have been conducted among an Asian university with 15,503 undergraduate students. The results indicate EPARS outperforms baselines by 14.62% ~ 38.22% in predicting STAR.
翻訳日:2022-11-24 21:49:36 公開日:2020-06-06
# UMLS-ChestNet: 胸部X線におけるCOVID-19の放射線学的所見, 鑑別診断, 局在の深部畳み込みニューラルネットワーク

UMLS-ChestNet: A deep convolutional neural network for radiological findings, differential diagnoses and localizations of COVID-19 in chest x-rays ( http://arxiv.org/abs/2006.05274v1 )

ライセンス: Link先を確認
Germ\'an Gonz\'alez, Aurelia Bustos, Jos\'e Mar\'ia Salinas, Mar\'ia de la Iglesia-Vaya, Joaqu\'in Galant, Carlos Cano-Espinosa, Xavier Barber, Domingo Orozco-Beltr\'an, Miguel Cazorla and Antonio Pertusa(参考訳) そこで本研究では,胸部x線からx線所見,位置,鑑別診断を行う方法を提案する。 本研究は、いくつかの病理組織を検出することに焦点を当てた以前の研究とは異なり、Unified Medical Language System (UMLS) の用語にマッピングされた階層的分類を用いて、189の放射線学的所見、22の鑑別診断および122の解剖学的位置を同定する。 我々は,このシステムを92,594個の胸部x線(ap, pa, standing, supine, decubitus)の巨大なデータベースと,少なくとも1つの陽性pcr検査で同定された新型コロナウイルス患者の2,065枚の正面画像で訓練した。 基準ラベルは、放射線報告書の自然言語処理により得られる。 23,159枚のテスト画像で、提案されたニューラルネットワークは、COVID-19の診断のためのAUC0.94を取得する。 我々の知る限り、本研究は新型コロナウイルス陽性症例の胸部X線データセットとして過去最大であり、階層的ラベル付けスキーマを初めて使用し、ネットワークアテンション法だけでなく、診断に繋がった放射線学的所見を示すことによって結果の解釈性を提供する。

In this work we present a method for the detection of radiological findings, their location and differential diagnoses from chest x-rays. Unlike prior works that focus on the detection of few pathologies, we use a hierarchical taxonomy mapped to the Unified Medical Language System (UMLS) terminology to identify 189 radiological findings, 22 differential diagnosis and 122 anatomic locations, including ground glass opacities, infiltrates, consolidations and other radiological findings compatible with COVID-19. We train the system on one large database of 92,594 frontal chest x-rays (AP or PA, standing, supine or decubitus) and a second database of 2,065 frontal images of COVID-19 patients identified by at least one positive Polymerase Chain Reaction (PCR) test. The reference labels are obtained through natural language processing of the radiological reports. On 23,159 test images, the proposed neural network obtains an AUC of 0.94 for the diagnosis of COVID-19. To our knowledge, this work uses the largest chest x-ray dataset of COVID-19 positive cases to date and is the first one to use a hierarchical labeling schema and to provide interpretability of the results, not only by using network attention methods, but also by indicating the radiological findings that have led to the diagnosis.
翻訳日:2022-11-24 21:44:10 公開日:2020-06-06
# 単一の放射線画像からcovid-19の診断を学ぶ

Learning Diagnosis of COVID-19 from a Single Radiological Image ( http://arxiv.org/abs/2006.12220v1 )

ライセンス: Link先を確認
Pengyi Zhang, Yunxin Zhong, Xiaoying Tang, Yunlin Deng, Xiaoqiong Li(参考訳) 放射線画像は現在、臨床におけるcovid-19診断の視覚的な証拠として採用されている。 深部モデルを用いた感染自動測定と新型コロナウイルス診断は,放射線画像による早期検査に重要である。 残念ながら、大規模なトレーニングデータを早期に体系的に収集することは困難である。 この問題に対処するため,我々は多種多様な放射線画像の合成を頼りに,単一の放射線画像から新型コロナウイルス診断の深層モデルを学ぶ可能性を検討する。 具体的には,cosinganと呼ばれる新しい条件生成モデルを提案する。cosinganは特定の条件を持つ1つの放射線画像,すなわち肺の注釈や新型コロナウイルスの感染から学べる。 当社のCoSinGANは、新型コロナウイルス感染症の視覚所見の条件分布を捉えることができ、さらに入力条件に正確に一致する多彩で高解像度の放射線画像も合成できる。 CoSinGANから合成されたサンプルに基づいて訓練された深層分類とセグメンテーションネットワークは、新型コロナウイルス感染の顕著な検出精度を達成する。 このような結果は、強いデータ拡張を用いることで、同じ極端に少数の実検体(1、2実検体)で訓練された実検体よりも著しく良く、大規模データセット(2846実検体)で訓練された実検体に近似する。 極めて小さなデータセットと大規模データセットでトレーニングされた深層モデルのパフォーマンスギャップを著しく低減し、新型コロナウイルスのパンデミックの初期段階において、少数の放射線画像から新型コロナウイルスの診断を学べる可能性を秘めている。 私たちのコードはhttps://github.com/pengyizhang/cosinganで公開されています。

Radiological image is currently adopted as the visual evidence for COVID-19 diagnosis in clinical. Using deep models to realize automated infection measurement and COVID-19 diagnosis is important for faster examination based on radiological imaging. Unfortunately, collecting large training data systematically in the early stage is difficult. To address this problem, we explore the feasibility of learning deep models for COVID-19 diagnosis from a single radiological image by resorting to synthesizing diverse radiological images. Specifically, we propose a novel conditional generative model, called CoSinGAN, which can be learned from a single radiological image with a given condition, i.e., the annotations of the lung and COVID-19 infection. Our CoSinGAN is able to capture the conditional distribution of visual finds of COVID-19 infection, and further synthesize diverse and high-resolution radiological images that match the input conditions precisely. Both deep classification and segmentation networks trained on synthesized samples from CoSinGAN achieve notable detection accuracy of COVID-19 infection. Such results are significantly better than the counterparts trained on the same extremely small number of real samples (1 or 2 real samples) by using strong data augmentation, and approximate to the counterparts trained on large dataset (2846 real images). It confirms our method can significantly reduce the performance gap between deep models trained on extremely small dataset and on large dataset, and thus has the potential to realize learning COVID-19 diagnosis from few radiological images in the early stage of COVID-19 pandemic. Our codes are made publicly available at https://github.com/PengyiZhang/CoSinGAN.
翻訳日:2022-11-24 21:43:34 公開日:2020-06-06
# テキストスパン表現のクロスタスク解析

A Cross-Task Analysis of Text Span Representations ( http://arxiv.org/abs/2006.03866v1 )

ライセンス: Link先を確認
Shubham Toshniwal, Haoyue Shi, Bowen Shi, Lingyu Gao, Karen Livescu, Kevin Gimpel(参考訳) 多くの自然言語処理(NLP)タスクは、質問応答、エンティティ認識、コア参照解決を含むテキストスパンによる推論を含む。 広範囲にわたる研究は、単語や文を表現する機能的アーキテクチャに焦点を合わせてきたが、文内の任意のテキストスパンを表現する作業は少ない。 本稿では,6つのタスクにまたがる8つの事前学習した言語表現モデルを用いて,6つのスパン表現法を包括的に実験的に評価する。 いくつかの単純なスパン表現はタスク間でかなり信頼できるが、一般的に最適なスパン表現はタスクによって異なり、個々のタスクの異なる側面内でも変化する。 また,スパン表現の選択は,微調整エンコーダよりも固定事前学習エンコーダに大きな影響を与えることがわかった。

Many natural language processing (NLP) tasks involve reasoning with textual spans, including question answering, entity recognition, and coreference resolution. While extensive research has focused on functional architectures for representing words and sentences, there is less work on representing arbitrary spans of text within sentences. In this paper, we conduct a comprehensive empirical evaluation of six span representation methods using eight pretrained language representation models across six tasks, including two tasks that we introduce. We find that, although some simple span representations are fairly reliable across tasks, in general the optimal span representation varies by task, and can also vary within different facets of individual tasks. We also find that the choice of span representation has a bigger impact with a fixed pretrained encoder than with a fine-tuned encoder.
翻訳日:2022-11-24 21:42:21 公開日:2020-06-06
# 時間整合ネットワークにおけるリンク予測

Link Prediction for Temporally Consistent Networks ( http://arxiv.org/abs/2006.03804v1 )

ライセンス: Link先を確認
Mohamoud Ali, Yugyung Lee and Praveen Rao(参考訳) 動的ネットワークには固有の構造的、計算的、多分野的な利点がある。 リンク予測は動的ネットワークにおける次の関係を推定する。 しかし、現在のリンク予測手法では、二部類、非二部類、均質ネットワークのみが考慮されている。 動的に進化するネットワークを表現するための隣接行列の使用は、異種、スパース、またはネットワーク形成から解析的に学習する能力を制限する。 不均一ネットワークの場合、バイナリ値行列を用いた全てのネットワーク状態のモデル化は困難である。 一方、スパースまたは現在形成中のネットワークは、ゼロとして表される多くのエッジを欠いているため、クラス不均衡やノイズが発生する。 本稿では,時間パラメータ行列(tp行列)を提案し,その効果を実験的に実証する。 さらに,n度近傍の時間空間上の後方および前方の最大化を用いて,ノードの増減の予測的影響の指標として予測的影響指数を提案する。 さらに、時間的パラメータ化ネットワークモデル(TPNM)として、異種時間進化活動を表現する新しい手法を提案する。 この新しい手法により、アクティビティをネットワークの一形態として表現することが可能になり、インテリジェントなビジネスプロセス管理システムやコンテキスト対応ワークフローエンジンを含む、新たなリンク予測アプリケーションに刺激を与える可能性がある。 異なるネットワークシステムの4つのデータセットでモデルを評価した。 本稿では,動的に進化するネットワークにおいて,時間的関係の捕捉と保持に有効なモデルを示す。 また, 時間的進化に敏感なネットワークに対して, 最新のリンク予測ベンチマークよりも優れた性能を示した。

Dynamic networks have intrinsic structural, computational, and multidisciplinary advantages. Link prediction estimates the next relationship in dynamic networks. However, in the current link prediction approaches, only bipartite or non-bipartite but homogeneous networks are considered. The use of adjacency matrix to represent dynamically evolving networks limits the ability to analytically learn from heterogeneous, sparse, or forming networks. In the case of a heterogeneous network, modeling all network states using a binary-valued matrix can be difficult. On the other hand, sparse or currently forming networks have many missing edges, which are represented as zeros, thus introducing class imbalance or noise. We propose a time-parameterized matrix (TP-matrix) and empirically demonstrate its effectiveness in non-bipartite, heterogeneous networks. In addition, we propose a predictive influence index as a measure of a node's boosting or diminishing predictive influence using backward and forward-looking maximization over the temporal space of the n-degree neighborhood. We further propose a new method of canonically representing heterogeneous time-evolving activities as a temporally parameterized network model (TPNM). The new method robustly enables activities to be represented as a form of a network, thus potentially inspiring new link prediction applications, including intelligent business process management systems and context-aware workflow engines. We evaluated our model on four datasets of different network systems. We present results that show the proposed model is more effective in capturing and retaining temporal relationships in dynamically evolving networks. We also show that our model performed better than state-of-the-art link prediction benchmark results for networks that are sensitive to temporal evolution.
翻訳日:2022-11-24 21:41:57 公開日:2020-06-06
# Convergence Indicator: Particle Swarm Optimizationの実際の収束のための改良および完全に特徴づけられたパラメータ境界

The Convergence Indicator: Improved and completely characterized parameter bounds for actual convergence of Particle Swarm Optimization ( http://arxiv.org/abs/2006.03944v1 )

ライセンス: Link先を確認
Bernd Bassimir, Alexander Ra{\ss}, Rolf Wanka(参考訳) particle swarm optimization (pso) は連続ブラックボックス最適化問題に対するメタヒューリスティックである。 本稿では,粒子群,すなわちアルゴリズムの活用段階の収束に着目する。 我々は、粒子が最終的に単一点に収束するか、分岐するかを計算するのに使用できる新しい収束指標を導入する。 この収束指標を用いて、収束群につながるパラメータ領域を完全に特徴づける実際の境界を提供する。 我々の境界は、収束が保証されるパラメータ領域を、通常文献で用いられる収束分散によって引き起こされる境界と比較して拡張する。 本稿では,立方体スプライン補間による数値近似について述べる。 最後に、我々の概念、公式および結果の収束境界がPSOの実際の挙動を表すことを示す実験を提供する。

Particle Swarm Optimization (PSO) is a meta-heuristic for continuous black-box optimization problems. In this paper we focus on the convergence of the particle swarm, i.e., the exploitation phase of the algorithm. We introduce a new convergence indicator that can be used to calculate whether the particles will finally converge to a single point or diverge. Using this convergence indicator we provide the actual bounds completely characterizing parameter regions that lead to a converging swarm. Our bounds extend the parameter regions where convergence is guaranteed compared to bounds induced by converging variance which are usually used in the literature. To evaluate our criterion we describe a numerical approximation using cubic spline interpolation. Finally we provide experiments showing that our concept, formulas and the resulting convergence bounds represent the actual behavior of PSO.
翻訳日:2022-11-24 21:41:33 公開日:2020-06-06
# 胸部X線検査における深部鉱毒異常データ

Deep Mining External Imperfect Data for Chest X-ray Disease Screening ( http://arxiv.org/abs/2006.03796v1 )

ライセンス: Link先を確認
Luyang Luo, Lequan Yu, Hao Chen, Quande Liu, Xi Wang, Jiaqi Xu, and Pheng-Ann Heng(参考訳) ディープラーニングのアプローチは、胸部x線自動分析において著しく進歩している。 深層モデルのデータ駆動機能は、大規模な分布をカバーするためにトレーニングデータを必要とする。 したがって、複数のデータセット、特に医療画像からの知識を統合することは極めて重要である。 しかし、胸部x線(cxr)データを用いた疾患分類モデルの学習はまだ困難である。 近年の研究では、異なるCXRデータセットのジョイントトレーニングにパフォーマンスボトルネックが存在することが示されており、障害に対処する努力は少ない。 本稿では,外部のCXRデータセットを組み込むことで,不完全なトレーニングデータが得られることを議論する。 具体的には、画像の外観がデータセットによって異なるため、ドメインの差分と、異なるデータセットが部分的にラベル付けされているため、ラベルの差分である。 そこで我々は,多ラベル胸部疾患分類問題を重み付き独立二分課題として分類した。 ドメイン間で共有される共通カテゴリでは、機能の違いを軽減するためにタスク固有の敵トレーニングを採用します。 単一のデータセットに存在するカテゴリに対して,モデル予測の不確実性を考慮した時間的センシングを行い,不足ラベルからの情報をさらに抽出する。 このように、我々のフレームワークはドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。 30万以上の胸部x線画像を含む3つのデータセットについて広範な実験を行った。 本手法は他の競合モデルよりも優れており、0.8349 aucの公式nihテストセットで最新性能を設定でき、外部データセットを利用して内部分類を改善する効果を実証する。

Deep learning approaches have demonstrated remarkable progress in automatic Chest X-ray analysis. The data-driven feature of deep models requires training data to cover a large distribution. Therefore, it is substantial to integrate knowledge from multiple datasets, especially for medical images. However, learning a disease classification model with extra Chest X-ray (CXR) data is yet challenging. Recent researches have demonstrated that performance bottleneck exists in joint training on different CXR datasets, and few made efforts to address the obstacle. In this paper, we argue that incorporating an external CXR dataset leads to imperfect training data, which raises the challenges. Specifically, the imperfect data is in two folds: domain discrepancy, as the image appearances vary across datasets; and label discrepancy, as different datasets are partially labeled. To this end, we formulate the multi-label thoracic disease classification problem as weighted independent binary tasks according to the categories. For common categories shared across domains, we adopt task-specific adversarial training to alleviate the feature differences. For categories existing in a single dataset, we present uncertainty-aware temporal ensembling of model predictions to mine the information from the missing labels further. In this way, our framework simultaneously models and tackles the domain and label discrepancies, enabling superior knowledge mining ability. We conduct extensive experiments on three datasets with more than 360,000 Chest X-ray images. Our method outperforms other competing models and sets state-of-the-art performance on the official NIH test set with 0.8349 AUC, demonstrating its effectiveness of utilizing the external dataset to improve the internal classification.
翻訳日:2022-11-24 21:41:19 公開日:2020-06-06
# 深層学習によるヒトタンパク質の細胞位置の抽出

Extracting Cellular Location of Human Proteins Using Deep Learning ( http://arxiv.org/abs/2006.03800v1 )

ライセンス: Link先を確認
Hanke Chen(参考訳) 顕微鏡画像のパターンの理解と抽出は,生物医学の分野で大きな課題となっている。 訓練された科学者はヒトの細胞の中で興味を持つタンパク質を見つけることができるが、この手法は大量のデータを処理できるほど効率的で正確ではない。 この問題を解決するために,機械学習を用いて,人間よりも高速で精度の高いヒトタンパク質を探索する自動画像分類器の開発を試みた。 我々はResidueおよびSqueeze-Excitation層を用いた畳み込みニューラルネットワークを実装し,細胞内構造中の任意のタイプのタンパク質を同定した。 一連のテクニックを使ってモデルをトレーニングした後、27種類のヒト細胞タイプに何千ものタンパク質を28のサブセルに配置する。 このモデルでは、毎分4500枚の画像を63.07%の精度で分類することができ、人間のパフォーマンス(35%)とスピードを上回ります。 我々のシステムは異なる細胞タイプで実装できるため、バイオメディカル分野における理解の新たなビジョンが開ける。 ヒトのタンパク質の位置情報から、医師はウイルス感染、病原体侵入、悪性腫瘍の発生を含む細胞の異常な挙動を容易に検出することができる。 実験によって一般化されたデータの量は、人間が分析できるデータよりも大きいので、分析に必要な人的資源と時間を削減できる。 さらに、この位置情報は、細胞内工学、医療、エチオロジー検査といった様々なシナリオで利用することができる。

Understanding and extracting the patterns of microscopy images has been a major challenge in the biomedical field. Although trained scientists can locate the proteins of interest within a human cell, this procedure is not efficient and accurate enough to process a large amount of data and it often leads to bias. To resolve this problem, we attempted to create an automatic image classifier using Machine Learning to locate human proteins with higher speed and accuracy than human beings. We implemented a Convolution Neural Network with Residue and Squeeze-Excitation layers classifier to locate given proteins of any type in a subcellular structure. After training the model using a series of techniques, it can locate thousands of proteins in 27 different human cell types into 28 subcellular locations, way significant than historical approaches. The model can classify 4,500 images per minute with an accuracy of 63.07%, surpassing human performance in accuracy (by 35%) and speed. Because our system can be implemented on different cell types, it opens a new vision of understanding in the biomedical field. From the locational information of the human proteins, doctors can easily detect cell's abnormal behaviors including viral infection, pathogen invasion, and malignant tumor development. Given the amount of data generalized by experiments are greater than that human can analyze, the model cut down the human resources and time needed to analyze data. Moreover, this locational information can be used in different scenarios like subcellular engineering, medical care, and etiology inspection.
翻訳日:2022-11-24 21:40:52 公開日:2020-06-06
# ループ内の操作者によるIoTのための多段階・弾力性予測Q-ラーニングアルゴリズム:給水ネットワークを事例として

A Multi-step and Resilient Predictive Q-learning Algorithm for IoT with Human Operators in the Loop: A Case Study in Water Supply Networks ( http://arxiv.org/abs/2006.03899v1 )

ライセンス: Link先を確認
Maria Grammatopoulou, Aris Kanellopoulos, Kyriakos G.~Vamvoudakis, Nathan Lau(参考訳) エージェントが封じ込めるために見ている環境の情報を操作する人間のオペレータの存在を考慮して,iotネットワークの故障コンポーネントの存在下でのレジリエントで予測的な動作を推奨する問題を考える。 IoTネットワークは、ソースと宛先ノードの間の一定かつレジリエントなフローを維持することを目的とした、既知のトポロジを持つ有向グラフとして定式化されている。 このネットワークを経由する最適な経路は、障害による不規則な操作に関する履歴データと、攻撃の対象となる可能性のある場所に関するネットワークの状態に関する追加情報を有すると考えられる人間オペレータからのフィードバックを考慮した予測と回復性を備えたq-learningアルゴリズムによって評価される。 本手法を紹介するために, バージニア州アーリントン郡の匿名データを用いて, スマート給水システムのための予測および回復性のあるスケジューリングポリシーを計算し, 回避する。 (i)人手による攻撃が示唆されるすべての場所 (二)漏洩その他の故障が検出された地区の数は可能な限り多い。 この方法は、人間の適応性と機械の計算能力の両方を組み込んで、水分布における最適な実装封じ込めと回収動作を実現する。

We consider the problem of recommending resilient and predictive actions for an IoT network in the presence of faulty components, considering the presence of human operators manipulating the information of the environment the agent sees for containment purposes. The IoT network is formulated as a directed graph with a known topology whose objective is to maintain a constant and resilient flow between a source and a destination node. The optimal route through this network is evaluated via a predictive and resilient Q-learning algorithm which takes into account historical data about irregular operation, due to faults, as well as the feedback from the human operators that are considered to have extra information about the status of the network concerning locations likely to be targeted by attacks. To showcase our method, we utilize anonymized data from Arlington County, Virginia, to compute predictive and resilient scheduling policies for a smart water supply system, while avoiding (i) all the locations indicated to be attacked according to human operators (ii) as many as possible neighborhoods detected to have leaks or other faults. This method incorporates both the adaptability of the human and the computation capability of the machine to achieve optimal implementation containment and recovery actions in water distribution.
翻訳日:2022-11-24 21:34:34 公開日:2020-06-06
# 決定論的政策の二重ロバストオフポリティ値とグラディエント推定

Doubly Robust Off-Policy Value and Gradient Estimation for Deterministic Policies ( http://arxiv.org/abs/2006.03900v1 )

ライセンス: Link先を確認
Nathan Kallus, Masatoshi Uehara(参考訳) オフライン強化学習は、医療などの実験に限られるアプリケーションにおいて、一定の行動方針によって記録された外部の政治データを用いて、新しい政策を評価し、学習する。 本研究では,行動継続時の非政治データから決定論的政策の政策値と勾配を推定する。 行動が国家の決定論的機能である決定論的政策を目標とするのは、最適政策が常に決定論的であるからである。 この設定では、密度比が存在しないため、政策価値と勾配に対する標準的重要度サンプリングと二重ロバストな推定は失敗する。 この問題を回避するため,異なるカーネル化アプローチに基づく2重ロバストな推定器を複数提案する。 ニュアサンス推定器の温和なレート条件下で,これら各指標の漸近平均二乗誤差を解析した。 具体的には,地平線の長さに依存しない速度を得る方法を示す。

Offline reinforcement learning, wherein one uses off-policy data logged by a fixed behavior policy to evaluate and learn new policies, is crucial in applications where experimentation is limited such as medicine. We study the estimation of policy value and gradient of a deterministic policy from off-policy data when actions are continuous. Targeting deterministic policies, for which action is a deterministic function of state, is crucial since optimal policies are always deterministic (up to ties). In this setting, standard importance sampling and doubly robust estimators for policy value and gradient fail because the density ratio does not exist. To circumvent this issue, we propose several new doubly robust estimators based on different kernelization approaches. We analyze the asymptotic mean-squared error of each of these under mild rate conditions for nuisance estimators. Specifically, we demonstrate how to obtain a rate that is independent of the horizon length.
翻訳日:2022-11-24 21:34:10 公開日:2020-06-06
# 対人学習をモデル化する学習

Learning to Model Opponent Learning ( http://arxiv.org/abs/2006.03923v1 )

ライセンス: Link先を確認
Ian Davies, Zheng Tian and Jun Wang(参考訳) マルチエージェント強化学習(MARL: Multi-Agent Reinforcement Learning)は、一組の共存エージェントが相互とその環境と相互作用する設定を考える。 他のエージェントの適応と学習は、環境力学において非定常性を誘導する。 これは、通常は定常環境の仮定に依存する値関数ベースのアルゴリズムにとって大きな課題となる。 ポリシーサーチアルゴリズムは、相手の行動が知られていないことから生じる部分的な可観測性がポリシートレーニングに高いばらつきをもたらすため、マルチエージェント設定にも苦労する。 エージェントの対戦相手のモデル化は、しばしば、学習相手の共存から生じる問題を解決する手段として追求される。 相手モデルは、エージェントに他のエージェントを推論して自身の意思決定を支援する能力を提供する。 ほとんどの先行研究は、相手が静止ポリシーを採用するか、静止ポリシーのセットを切り替えていると仮定して、相手モデルを学ぶ。 このようなアプローチは、ポリシー探索アルゴリズムのトレーニング信号のばらつきを低減できる。 しかし、マルチエージェント設定では、エージェントは継続的に適応し学習するインセンティブを持つ。 これは、反対の定常性に関する仮定は非現実的であることを意味する。 本研究では,学習をモデルポンポントラーニング(LeMOL)と呼ぶ,対戦者の学習力学をモデル化するための新しいアプローチを開発する。 構造的相手モデルの方が, 行動クローンベースラインよりも正確で安定であることを示す。 さらに,マルチエージェント設定におけるアルゴリズムエージェントの性能を,対戦モデルが向上することを示す。

Multi-Agent Reinforcement Learning (MARL) considers settings in which a set of coexisting agents interact with one another and their environment. The adaptation and learning of other agents induces non-stationarity in the environment dynamics. This poses a great challenge for value function-based algorithms whose convergence usually relies on the assumption of a stationary environment. Policy search algorithms also struggle in multi-agent settings as the partial observability resulting from an opponent's actions not being known introduces high variance to policy training. Modelling an agent's opponent(s) is often pursued as a means of resolving the issues arising from the coexistence of learning opponents. An opponent model provides an agent with some ability to reason about other agents to aid its own decision making. Most prior works learn an opponent model by assuming the opponent is employing a stationary policy or switching between a set of stationary policies. Such an approach can reduce the variance of training signals for policy search algorithms. However, in the multi-agent setting, agents have an incentive to continually adapt and learn. This means that the assumptions concerning opponent stationarity are unrealistic. In this work, we develop a novel approach to modelling an opponent's learning dynamics which we term Learning to Model Opponent Learning (LeMOL). We show our structured opponent model is more accurate and stable than naive behaviour cloning baselines. We further show that opponent modelling can improve the performance of algorithmic agents in multi-agent settings.
翻訳日:2022-11-24 21:33:13 公開日:2020-06-06
# 火星科学研究所地上データシステムにおけるデータアカウンタビリティ問題に対する変分オートエンコーダのチューニング

Tuning a variational autoencoder for data accountability problem in the Mars Science Laboratory ground data system ( http://arxiv.org/abs/2006.03962v1 )

ライセンス: Link先を確認
Dounia Lakhmiri, Ryan Alimo and Sebastien Le Digabel(参考訳) 火星探査機キュリオシティ(Mars Curiosity)は、ミッション運用センターで最終目的地に到達する前に、システムのパイプラインを通過するエンジニアリングと科学データを頻繁に送信している。 地上データシステム分析(GDSA)チームは、必要に応じて再送信を要求するために、この情報の流れの監視と、そのデータ内の異常の検出に責任を負う。 この研究は、GDSAチームのミッションを支援するために、不足パッチでデータを検出するために訓練された変分オートエンコーダのアーキテクチャとハイパーパラメータをチューニングするために、デリバティブフリーの最適化手法である$\Delta$-MADSを提示する。

The Mars Curiosity rover is frequently sending back engineering and science data that goes through a pipeline of systems before reaching its final destination at the mission operations center making it prone to volume loss and data corruption. A ground data system analysis (GDSA) team is charged with the monitoring of this flow of information and the detection of anomalies in that data in order to request a re-transmission when necessary. This work presents $\Delta$-MADS, a derivative-free optimization method applied for tuning the architecture and hyperparameters of a variational autoencoder trained to detect the data with missing patches in order to assist the GDSA team in their mission.
翻訳日:2022-11-24 21:32:34 公開日:2020-06-06
# 弾性ネットのための高効率セミスムースニュートン拡張ラグランジアン法

An Efficient Semi-smooth Newton Augmented Lagrangian Method for Elastic Net ( http://arxiv.org/abs/2006.03970v1 )

ライセンス: Link先を確認
Tobia Boschi, Matthew Reimherr, Francesca Chiaromonte(参考訳) 特徴選択は統計学と機械学習において重要かつ活発な研究領域である。 Elastic Netは、非無視のコリニアリティや実践者が追加の既知の構造を取り入れたい場合、選択のためにしばしば使用される。 本稿では,超高次元環境下での弾性ネットを効率的に解くための半平滑ニュートン拡張ラグランジアン法を提案する。 我々の新しいアルゴリズムは、弾性ネットペナルティによって引き起こされる空間と、拡張ラグランジアンの第2次情報による空間の両方を利用する。 これにより、問題の計算コストが大幅に削減される。 合成データセットと実データセットの両方のシミュレーションを用いて、我々のアプローチがCPU時間で少なくとも1桁の精度で最高の競争相手を上回ることを実証した。 また,このアプローチを小児肥満に関するゲノムワイドアソシエーション研究に適用する。

Feature selection is an important and active research area in statistics and machine learning. The Elastic Net is often used to perform selection when the features present non-negligible collinearity or practitioners wish to incorporate additional known structure. In this article, we propose a new Semi-smooth Newton Augmented Lagrangian Method to efficiently solve the Elastic Net in ultra-high dimensional settings. Our new algorithm exploits both the sparsity induced by the Elastic Net penalty and the sparsity due to the second order information of the augmented Lagrangian. This greatly reduces the computational cost of the problem. Using simulations on both synthetic and real datasets, we demonstrate that our approach outperforms its best competitors by at least an order of magnitude in terms of CPU time. We also apply our approach to a Genome Wide Association Study on childhood obesity.
翻訳日:2022-11-24 21:32:19 公開日:2020-06-06
# 生成的adversarial phonology:ニューラルネットワークを用いた教師なし音韻・音韻学学習のモデル化

Generative Adversarial Phonology: Modeling unsupervised phonetic and phonological learning with neural networks ( http://arxiv.org/abs/2006.03965v1 )

ライセンス: Link先を確認
Ga\v{s}per Begu\v{s}(参考訳) 音声データにおけるよく理解された依存関係に基づくディープニューラルネットワークのトレーニングは、内部表現の学習方法に関する新たな洞察を提供する。 本稿では,音声の獲得を,生成型adversarial networkアーキテクチャにおけるランダム空間と生成音声データの依存性としてモデル化し,音声的・音韻的特性に対応するネットワークの内部表現を明らかにする手法を提案する。 なぜならネットワークは無注の生の音響データに基づいて訓練され、言語固有の仮定や事前に想定された抽象レベルなしで学習は教師なしであるからである。 生成的な敵ネットワークは英語のアロフォニック分布で訓練された。 ネットワークはアロフォニックな交替をうまく学習し、ネットワークが生成した音声信号は吸引継続時間の条件付き分布を含む。 本稿では,ネットワークの内部表現を確立する手法を提案し,例えば[s]の存在とそのスペクトル特性に対応する潜伏変数を同定する。 これらの変数を操作することで、生成された出力における[s]の存在とその摩擦振幅を積極的に制御する。 このことは、潜在変数を音韻および音韻表現の近似として用いることを学ぶことを示唆している。 重要なことに、トレーニングで学んだ依存関係はトレーニング間隔を超えて拡張され、学習表現のさらなる探索が可能になる。 また, 言語習得, 言語障害, 音声誤りにおける言語行動とネットワークのアーキテクチャと革新的アウトプットがどのように似ており, 音声データへの依存性が, ニューラルネットワークがどのように表現を学習するかを理解するのにどのように役立つかを論じる。

Training deep neural networks on well-understood dependencies in speech data can provide new insights into how they learn internal representations. This paper argues that acquisition of speech can be modeled as a dependency between random space and generated speech data in the Generative Adversarial Network architecture and proposes a methodology to uncover the network's internal representations that correspond to phonetic and phonological properties. The Generative Adversarial architecture is uniquely appropriate for modeling phonetic and phonological learning because the network is trained on unannotated raw acoustic data and learning is unsupervised without any language-specific assumptions or pre-assumed levels of abstraction. A Generative Adversarial Network was trained on an allophonic distribution in English. The network successfully learns the allophonic alternation: the network's generated speech signal contains the conditional distribution of aspiration duration. The paper proposes a technique for establishing the network's internal representations that identifies latent variables that correspond to, for example, presence of [s] and its spectral properties. By manipulating these variables, we actively control the presence of [s] and its frication amplitude in the generated outputs. This suggests that the network learns to use latent variables as an approximation of phonetic and phonological representations. Crucially, we observe that the dependencies learned in training extend beyond the training interval, which allows for additional exploration of learning representations. The paper also discusses how the network's architecture and innovative outputs resemble and differ from linguistic behavior in language acquisition, speech disorders, and speech errors, and how well-understood dependencies in speech data can help us interpret how neural networks learn their representations.
翻訳日:2022-11-24 21:26:21 公開日:2020-06-06
# 勾配推定バイアスを劇的に低減したディープコンブネットへの平衡伝播

Scaling Equilibrium Propagation to Deep ConvNets by Drastically Reducing its Gradient Estimator Bias ( http://arxiv.org/abs/2006.03824v1 )

ライセンス: Link先を確認
Axel Laborieux, Maxence Ernoult, Benjamin Scellier, Yoshua Bengio, Julie Grollier and Damien Querlioz(参考訳) Equilibrium Propagation (EP) は、強力な理論的保証を持つ局所学習規則を持つ収束RNNに対する生物学的に着想を得たアルゴリズムである。 与信代入フェーズにおけるニューラルネットワークのパラメータ更新を数学的に示し、ネットワークが標的に向かって無限に振る舞うときのバックプロパゲーション・スルー・タイム(BPTT)が提供する勾配にアプローチする。 しかし、実際には、EPによって提供される勾配推定によるネットワークのトレーニングは、MNISTよりも難しい視覚タスクにスケールしない。 本研究では, 有限ヌード法に固有のEPの勾配推定の偏りが, この現象の原因であり, EPによる深部ConvNetsのトレーニングを可能にすることを示す。 このバイアスは、対称なナジング(正のナジングと負のナジング)を用いることで大幅に低減できることを示す。 また,(正方形誤差に対して)クロスエントロピー損失の場合に対して,以前のep方程式を一般化する。 これらの進歩の結果, BPTT が達成した手法に近づいた CIFAR-10 で 11.7% の試験誤差を EP で達成し, 86% のテスト誤差を与える同符号ヌードを用いた標準 EP アプローチに対して, 大幅な改善を実現した。 また、これらの手法を非対称な前方および後方接続を持つアーキテクチャのトレーニングに適用し、13.2%のテストエラーを発生させる。 これらの結果はepを、深層ニューラルネットワークにおけるエラー勾配を計算するための、生物学的に賞賛に値するアプローチとして強調する。

Equilibrium Propagation (EP) is a biologically-inspired algorithm for convergent RNNs with a local learning rule that comes with strong theoretical guarantees. The parameter updates of the neural network during the credit assignment phase have been shown mathematically to approach the gradients provided by Backpropagation Through Time (BPTT) when the network is infinitesimally nudged toward its target. In practice, however, training a network with the gradient estimates provided by EP does not scale to visual tasks harder than MNIST. In this work, we show that a bias in the gradient estimate of EP, inherent in the use of finite nudging, is responsible for this phenomenon and that cancelling it allows training deep ConvNets by EP. We show that this bias can be greatly reduced by using symmetric nudging (a positive nudging and a negative one). We also generalize previous EP equations to the case of cross-entropy loss (by opposition to squared error). As a result of these advances, we are able to achieve a test error of 11.7% on CIFAR-10 by EP, which approaches the one achieved by BPTT and provides a major improvement with respect to the standard EP approach with same-sign nudging that gives 86% test error. We also apply these techniques to train an architecture with asymmetric forward and backward connections, yielding a 13.2% test error. These results highlight EP as a compelling biologically-plausible approach to compute error gradients in deep neural networks.
翻訳日:2022-11-24 21:25:49 公開日:2020-06-06
# 人工物体相互作用の事前の視覚的予測

Visual Prediction of Priors for Articulated Object Interaction ( http://arxiv.org/abs/2006.03979v1 )

ライセンス: Link先を確認
Caris Moses, Michael Noseworthy, Leslie Pack Kaelbling, Tom\'as Lozano-P\'erez, and Nicholas Roy(参考訳) 同様のドメインでの事前の経験なしでは、新しい設定での探索は難しい。 しかし、人間は先行体験を迅速かつ効率的に構築することができる。 子供たちはおもちゃで遊ぶときにこの振る舞いを示します。 例えば、黄色と青のドアを持つおもちゃがあれば、子供は明確な目的を持って探検しますが、一度黄色いドアの開け方を発見したら、青いドアをずっと早く開くことができます。 大人は台所などの新しい空間に入る際にもこの行動を示す。 そこで我々は,類似する領域の相互作用間の知識を視覚を通して伝達する手法である文脈先行予測法を開発した。 我々は,環境間で共有される視覚特徴と行動との関連を学習することにより,効率を高めつつ探索行動を示すエージェントを開発した。 この問題は、コンテキストがイメージであり、ロボットがパラメータ化されたアクションスペースにアクセスできるコンテキスト多腕バンディットとして定式化されている。 新たな対象が与えられた場合、その目的はわずかな相互作用で報酬を最大化することである。 視覚特徴と運動の相関関係を強く示す領域は、運動論的に制約されたメカニズムである。 人工関節とリボリュート関節のシミュレーション法について検討した。

Exploration in novel settings can be challenging without prior experience in similar domains. However, humans are able to build on prior experience quickly and efficiently. Children exhibit this behavior when playing with toys. For example, given a toy with a yellow and blue door, a child will explore with no clear objective, but once they have discovered how to open the yellow door, they will most likely be able to open the blue door much faster. Adults also exhibit this behavior when entering new spaces such as kitchens. We develop a method, Contextual Prior Prediction, which provides a means of transferring knowledge between interactions in similar domains through vision. We develop agents that exhibit exploratory behavior with increasing efficiency, by learning visual features that are shared across environments, and how they correlate to actions. Our problem is formulated as a Contextual Multi-Armed Bandit where the contexts are images, and the robot has access to a parameterized action space. Given a novel object, the objective is to maximize reward with few interactions. A domain which strongly exhibits correlations between visual features and motion is kinemetically constrained mechanisms. We evaluate our method on simulated prismatic and revolute joints.
翻訳日:2022-11-24 21:25:04 公開日:2020-06-06
# ガウスデータに基づく逆学習線形分類器の特異性

Unique properties of adversarially trained linear classifiers on Gaussian data ( http://arxiv.org/abs/2006.03873v1 )

ライセンス: Link先を確認
Jamie Hayes(参考訳) 機械学習モデルは敵の摂動に弱いため、入力に追加されると高い信頼性の誤分類を引き起こす可能性がある。 敵対的学習研究コミュニティは、敵対的摂動の根本原因の理解において顕著な進歩を遂げている。 しかしながら、安全クリティカルなタスクに機械学習を展開するために解決することが重要であると考えるほとんどの問題は、特徴付けや研究が難しい高次元複素多様体を含む。 単純な問題に対して逆向きに頑健な学習理論を開発することは一般的であり、洞察が「現実世界のデータセット」に移行することを期待する。 本稿では,このアプローチが失敗する状況について論じる。 特に線形分類器を用いて学習中に任意のレベルの逆汚職の下でガウスデータのバイナリ分類問題を解くことができ、この性質はCIFAR-10データセット上の非線形分類器では観測されない。

Machine learning models are vulnerable to adversarial perturbations, that when added to an input, can cause high confidence misclassifications. The adversarial learning research community has made remarkable progress in the understanding of the root causes of adversarial perturbations. However, most problems that one may consider important to solve for the deployment of machine learning in safety critical tasks involve high dimensional complex manifolds that are difficult to characterize and study. It is common to develop adversarially robust learning theory on simple problems, in the hope that insights will transfer to `real world datasets'. In this work, we discuss a setting where this approach fails. In particular, we show with a linear classifier, it is always possible to solve a binary classification problem on Gaussian data under arbitrary levels of adversarial corruption during training, and that this property is not observed with non-linear classifiers on the CIFAR-10 dataset.
翻訳日:2022-11-24 21:23:07 公開日:2020-06-06
# ディープネットワークのためのフランク・ウルフ最適化

Frank-Wolfe optimization for deep networks ( http://arxiv.org/abs/2006.03960v1 )

ライセンス: Link先を確認
Jakob Stigenberg(参考訳) 現在、ディープニューラルネットワークは分類、回帰、関数近似において最も一般的な選択肢の1つである。 しかし、このような深層ネットワークのトレーニングは、調整すべきパラメータが何百万もあるため、決して簡単ではない。 典型的には、ある最小限に収束する最適化法を用いる。 最も人気があり成功した方法は勾配降下に基づいている。 本稿では,frank-wolfe最適化という別の最適化手法を,小さな深層ネットワークに適用し,勾配降下と比較する。 最適化は収束するが、緩やかに、勾配降下の速度に近づかない。 さらに、確率的な設定では、最適化は非常に不安定になり、直線探索アプローチを使わなければ収束しないように見える。

Deep neural networks is today one of the most popular choices in classification, regression and function approximation. However, the training of such deep networks is far from trivial as there are often millions of parameters to tune. Typically, one use some optimization method that hopefully converges towards some minimum. The most popular and successful methods are based on gradient descent. In this paper, another optimization method, Frank-Wolfe optimization, is applied to a small deep network and compared to gradient descent. Although the optimization does converge, it does so slowly and not close to the speed of gradient descent. Further, in a stochastic setting, the optimization becomes very unstable and does not seem to converge unless one uses a line search approach.
翻訳日:2022-11-24 21:15:58 公開日:2020-06-06
# 条件付きニューラルアーキテクチャ探索

Conditional Neural Architecture Search ( http://arxiv.org/abs/2006.03969v1 )

ライセンス: Link先を確認
Sheng-Chun Kao, Arun Ramamurthy, Reed Williams, Tushar Krishna(参考訳) リソース効率のよいDeep Neural Networks(DNN)の設計は、さまざまなパフォーマンス、パワー、メモリ予算のために、エッジプラットフォームにディープラーニングソリューションをデプロイすることが重要である。 残念なことに、よく訓練されたmlモデルがエッジプラットフォームデプロイの制約に適合しない場合が多いため、モデル削減と再トレーニングの長いイテレーションが発生する。 さらに、プラットフォームA向けに最適化されたMLモデルは、別のプラットフォームBにデプロイするときに適さないことが多く、モデル再トレーニングの別のイテレーションを引き起こします。 本稿では,異なるプラットフォームで実現可能なMLモデルを生成するGANを用いた条件付きニューラルネットワーク探索手法を提案する。 制約最適化DNNモデルを生成する新しいワークフローを提案する。 これは、ニューラルネットワーク検索ドメインに条件付きおよび逆テクニックを導入する最初の作業である。 CIFAR-10の回帰問題と分類による手法を検証する。 提案するワークフローは、リソース最適化MLPまたはCNNベースのネットワークをうまく生成できる。

Designing resource-efficient Deep Neural Networks (DNNs) is critical to deploy deep learning solutions over edge platforms due to diverse performance, power, and memory budgets. Unfortunately, it is often the case a well-trained ML model does not fit to the constraint of deploying edge platforms, causing a long iteration of model reduction and retraining process. Moreover, a ML model optimized for platform-A often may not be suitable when we deploy it on another platform-B, causing another iteration of model retraining. We propose a conditional neural architecture search method using GAN, which produces feasible ML models for different platforms. We present a new workflow to generate constraint-optimized DNN models. This is the first work of bringing in condition and adversarial technique into Neural Architecture Search domain. We verify the method with regression problems and classification on CIFAR-10. The proposed workflow can successfully generate resource-optimized MLP or CNN-based networks.
翻訳日:2022-11-24 21:15:12 公開日:2020-06-06
# 次数次時間差学習 : 多項式複素数を用いた安定強化学習

Proximal Gradient Temporal Difference Learning: Stable Reinforcement Learning with Polynomial Sample Complexity ( http://arxiv.org/abs/2006.03976v1 )

ライセンス: Link先を確認
Bo Liu, Ian Gemp, Mohammad Ghavamzadeh, Ji Liu, Sridhar Mahadevan, Marek Petrik(参考訳) 本稿では,真の確率的勾配時間差学習アルゴリズムを設計・解析するための原理的手法として,近位勾配時間差学習を提案する。 本稿では, 従来の目的関数から始めるのではなく, 主目的関数から始めることによって, 勾配TD(GTD)強化学習法を公式に導出する方法を示す。 また,サドルポイント誤差解析を行い,その性能について有限サンプル境界を求める。 このクラスのアルゴリズムの以前の分析では、漸近収束を証明するために確率近似技術を使用しており、有限サンプル解析は提供していない。 GTD2-MPと呼ばれる高速化されたアルゴリズムも提案する。 理論解析の結果,GTDのアルゴリズム群は,線形複雑性のため,既存の最小2乗のTD法よりも好まれる可能性が示唆された。 高速化された勾配TD法の性能向上を示す実験結果を得た。

In this paper, we introduce proximal gradient temporal difference learning, which provides a principled way of designing and analyzing true stochastic gradient temporal difference learning algorithms. We show how gradient TD (GTD) reinforcement learning methods can be formally derived, not by starting from their original objective functions, as previously attempted, but rather from a primal-dual saddle-point objective function. We also conduct a saddle-point error analysis to obtain finite-sample bounds on their performance. Previous analyses of this class of algorithms use stochastic approximation techniques to prove asymptotic convergence, and do not provide any finite-sample analysis. We also propose an accelerated algorithm, called GTD2-MP, that uses proximal ``mirror maps'' to yield an improved convergence rate. The results of our theoretical analysis imply that the GTD family of algorithms are comparable and may indeed be preferred over existing least squares TD methods for off-policy learning, due to their linear complexity. We provide experimental results showing the improved performance of our accelerated gradient TD methods.
翻訳日:2022-11-24 21:14:57 公開日:2020-06-06
# 正規化オフポリィTDラーニング

Regularized Off-Policy TD-Learning ( http://arxiv.org/abs/2006.05314v1 )

ライセンス: Link先を確認
Bo Liu, Sridhar Mahadevan, Ji Liu(参考訳) 本稿では,計算複雑性の低い値関数のスパース表現を学習可能な,新規な非政治収束型TD学習法(RO-TD)を提案する。 RO-TDの基盤となるアルゴリズムフレームワークは、TDCのような非政治収束勾配TD法と、非滑らかな凸最適化の凸凹サドル点定式化という2つの主要なアイデアを統合している。 RO-TDの詳細な理論的および実験的解析を行った。 ro-tdアルゴリズムのオフ・ポリシー収束,スパース特徴選択能力,計算コストの低さを示すため,様々な実験を行った。

We present a novel $l_1$ regularized off-policy convergent TD-learning method (termed RO-TD), which is able to learn sparse representations of value functions with low computational complexity. The algorithmic framework underlying RO-TD integrates two key ideas: off-policy convergent gradient TD methods, such as TDC, and a convex-concave saddle-point formulation of non-smooth convex optimization, which enables first-order solvers and feature selection using online convex regularization. A detailed theoretical and experimental analysis of RO-TD is presented. A variety of experiments are presented to illustrate the off-policy convergence, sparse feature selection capability and low computational cost of the RO-TD algorithm.
翻訳日:2022-11-24 21:14:30 公開日:2020-06-06
# 医療報告生成のための補助信号誘導知識エンコーダデコーダ

Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report Generation ( http://arxiv.org/abs/2006.03744v1 )

ライセンス: Link先を確認
Mingjie Li, Fuyu Wang, Xiaojun Chang and Xiaodan Liang(参考訳) 自然な画像キャプションで直面する共通の困難に加えて、医用レポート生成には、医用コモンセンスと論理の両方を満たすように細粒度でセマンティックなコヒーレンスな段落を持つ医療画像を記述する必要がある。 従来の作品では、概してグローバル画像の特徴を抽出し、参照されたレポートに類似した段落の生成を試みるが、このアプローチには2つの制限がある。 第一に、放射線科医が関心を持つ領域は、通常、地球規模の画像の小さな領域に位置しており、画像の残りの部分は、訓練手順において無関係なノイズとみなすことができる。 第二に、画像の正常な領域を記述するために医療報告書で使われる類似の文が多数あり、深刻なデータバイアスを引き起こす。 この偏差は、モデルにこれらのセンシティブな文を定期的に生成するように教える可能性が高い。 これらの問題に対処するために,放射線学者の動作パターンを模倣する補助信号誘導知識エンコーダ(ASGK)を提案する。 より詳しくは、ASGKは内的視覚的特徴融合と外的医学的言語情報を統合し、医学的知識伝達と学習を導く。 ASGKの中核構造は、医学グラフエンコーダと、先進的な生成前訓練(GPT)にインスパイアされた自然言語デコーダである。 CX-CHRデータセットと私たちのCOVID-19 CT Reportデータセットの実験により、提案したASGKは堅牢で正確なレポートを生成することができ、さらに、医学用語分類と段落生成指標の両方において最先端の手法より優れています。

Beyond the common difficulties faced in the natural image captioning, medical report generation specifically requires the model to describe a medical image with a fine-grained and semantic-coherence paragraph that should satisfy both medical commonsense and logic. Previous works generally extract the global image features and attempt to generate a paragraph that is similar to referenced reports; however, this approach has two limitations. Firstly, the regions of primary interest to radiologists are usually located in a small area of the global image, meaning that the remainder parts of the image could be considered as irrelevant noise in the training procedure. Secondly, there are many similar sentences used in each medical report to describe the normal regions of the image, which causes serious data bias. This deviation is likely to teach models to generate these inessential sentences on a regular basis. To address these problems, we propose an Auxiliary Signal-Guided Knowledge Encoder-Decoder (ASGK) to mimic radiologists' working patterns. In more detail, ASGK integrates internal visual feature fusion and external medical linguistic information to guide medical knowledge transfer and learning. The core structure of ASGK consists of a medical graph encoder and a natural language decoder, inspired by advanced Generative Pre-Training (GPT). Experiments on the CX-CHR dataset and our COVID-19 CT Report dataset demonstrate that our proposed ASGK is able to generate a robust and accurate report, and moreover outperforms state-of-the-art methods on both medical terminology classification and paragraph generation metrics.
翻訳日:2022-11-24 21:13:57 公開日:2020-06-06
# 特徴生成による知識ベース学習

Knowledge-Based Learning through Feature Generation ( http://arxiv.org/abs/2006.03874v1 )

ライセンス: Link先を確認
Michal Badian and Shaul Markovitch(参考訳) 機械学習アルゴリズムは、少数の例を一般化するのが困難である。 人間は自分の持つ膨大なバックグラウンド知識を活用し、そのようなタスクを遂行することができる。 外部知識で学習アルゴリズムを強化する方法のひとつに特徴生成がある。 本稿では,補助データセットの収集に基づく特徴量生成のための新しいアルゴリズムを提案する。 トレーニングセットに加えて、追加のデータセットにアクセスできると仮定しています。 転送学習のセットアップとは異なり、補助データセットが元のものと類似した学習タスクを表現しているとは考えていない。 アルゴリズムは、トレーニングセットと補助データセットに共通する特徴を見つける。 これらの特徴と補助データセットからの例に基づいて、補助データセットから新機能の予測子を誘導する。 誘導予測器は生成された機能として元のトレーニングセットに追加される。 提案手法は,テキスト分類や医学的予測を含む様々な学習タスクでテストされ,与えられた機能のみを用いた場合よりも大幅に改善した。

Machine learning algorithms have difficulties to generalize over a small set of examples. Humans can perform such a task by exploiting vast amount of background knowledge they possess. One method for enhancing learning algorithms with external knowledge is through feature generation. In this paper, we introduce a new algorithm for generating features based on a collection of auxiliary datasets. We assume that, in addition to the training set, we have access to additional datasets. Unlike the transfer learning setup, we do not assume that the auxiliary datasets represent learning tasks that are similar to our original one. The algorithm finds features that are common to the training set and the auxiliary datasets. Based on these features and examples from the auxiliary datasets, it induces predictors for new features from the auxiliary datasets. The induced predictors are then added to the original training set as generated features. Our method was tested on a variety of learning tasks, including text classification and medical prediction, and showed a significant improvement over using just the given features.
翻訳日:2022-11-24 21:06:18 公開日:2020-06-06
# ニューラルネットワークにおけるブラックボックス組合せソルバの学習と最適化

Learning and Optimization of Blackbox Combinatorial Solvers in Neural Networks ( http://arxiv.org/abs/2006.03941v1 )

ライセンス: Link先を確認
T.J. Wilder(参考訳) ニューラルネットワーク内でのブラックボックスソルバの使用は、複雑な問題に対する証明された効率的な解決器を含めることで、ニューラルネットワークのパフォーマンスを改善することを目的とした比較的新しい領域である。 既存の研究は、ネットワークをブラックボックスとして扱いながら、これらのソルバをコンポーネントとして学習する方法を作成している。 本研究は, 一次損失関数だけでなく, 時間コスト正規化を用いて解法自体の性能を最適化することにより, 既存の技術の改善を試みる。 さらに,ブラックボックスソルバが使用するブラックボックスパラメータや,特定のソルバに対するヒューリスティック関数などのブラックボックスパラメータを学習する手法を提案する。 1つ以上の内部ブラックボックスを囲むブラックボックスであるハイパーブラックボックスの概念を導入することでこれを実現しています。

The use of blackbox solvers inside neural networks is a relatively new area which aims to improve neural network performance by including proven, efficient solvers for complex problems. Existing work has created methods for learning networks with these solvers as components while treating them as a blackbox. This work attempts to improve upon existing techniques by optimizing not only over the primary loss function, but also over the performance of the solver itself by using Time-cost Regularization. Additionally, we propose a method to learn blackbox parameters such as which blackbox solver to use or the heuristic function for a particular solver. We do this by introducing the idea of a hyper-blackbox which is a blackbox around one or more internal blackboxes.
翻訳日:2022-11-24 21:05:09 公開日:2020-06-06
# MAGNet: フレーズレベルでの自然言語クエリのマルチリージョンアテンション支援グラウンドディング

MAGNet: Multi-Region Attention-Assisted Grounding of Natural Language Queries at Phrase Level ( http://arxiv.org/abs/2006.03776v1 )

ライセンス: Link先を確認
Amar Shrestha, Krittaphat Pugdeethosapol, Haowen Fang, Qinru Qiu(参考訳) 自由形式のテキストクエリをグラウンディングするには、これらのテキストフレーズとその視覚的手がかりとの関係を理解する必要がある。 空間的注意ネットワークは、この関係を学習し、画像内の突出した物体を注視することが知られている。 そこで本稿では,空間的注意ネットワークを用いて局所的(単語)と大域的(フレーズ)情報を保存し,ネットワーク内領域提案ネットワーク(rpn)を用いて地域提案を洗練し,フレーズクエリの単一または複数領域を検出することを提案する。 私たちは、追加属性やコンテキストなど、データセットの制約に依存しないモデルのための、フレーズクエリー、基底真理ペア(参照式)にのみ焦点を合わせます。 このような参照表現データセット参照ゲームでは,マルチリージョンアテンション支援グラウンドネットワーク(magnet)が最先端よりも12%以上向上している。 Flickr30k Entitiesの画像キャプションや属性情報からのコンテキストがなければ、最先端技術と比較しても競争力のある結果が得られる。

Grounding free-form textual queries necessitates an understanding of these textual phrases and its relation to the visual cues to reliably reason about the described locations. Spatial attention networks are known to learn this relationship and focus its gaze on salient objects in the image. Thus, we propose to utilize spatial attention networks for image-level visual-textual fusion preserving local (word) and global (phrase) information to refine region proposals with an in-network Region Proposal Network (RPN) and detect single or multiple regions for a phrase query. We focus only on the phrase query - ground truth pair (referring expression) for a model independent of the constraints of the datasets i.e. additional attributes, context etc. For such referring expression dataset ReferIt game, our Multi-region Attention-assisted Grounding network (MAGNet) achieves over 12\% improvement over the state-of-the-art. Without the context from image captions and attribute information in Flickr30k Entities, we still achieve competitive results compared to the state-of-the-art.
翻訳日:2022-11-24 20:58:02 公開日:2020-06-06
# 法的議論の挑戦とスリル

Challenges and Thrills of Legal Arguments ( http://arxiv.org/abs/2006.03773v1 )

ライセンス: Link先を確認
Anurag Pallaprolu, Radha Vaidya, Aditya Swaroop Attawar(参考訳) 最先端の注目に基づくモデルは、主にトランスフォーマーアーキテクチャを中心に、いわゆるスケールドドット製品アテンションを用いたシーケンス・ツー・シーケンス変換の問題を解決する。 この手法は,話題間注目度を推定するのに非常に有効であるが,会話のようなシナリオを扱う場合の系列間注目度の問題には答えない。 そこで我々は,局所的に学習したトランスフォーマーを用いて連続的な文脈引数生成を行う拡張であるhumbertを提案する。

State-of-the-art attention based models, mostly centered around the transformer architecture, solve the problem of sequence-to-sequence translation using the so-called scaled dot-product attention. While this technique is highly effective for estimating inter-token attention, it does not answer the question of inter-sequence attention when we deal with conversation-like scenarios. We propose an extension, HumBERT, that attempts to perform continuous contextual argument generation using locally trained transformers.
翻訳日:2022-11-24 20:57:28 公開日:2020-06-06
# スパースデータセットのクロマティック学習

Chromatic Learning for Sparse Datasets ( http://arxiv.org/abs/2006.03779v1 )

ライセンス: Link先を確認
Vladimir Feinberg and Peter Bailis(参考訳) スパースで高次元のデータを学習するには、しばしばハッシュトリックのような特殊な方法を使う必要がある。 本研究では,多くの実践的な環境において,機能共起の程度を低くする,スケーラブルな代替手法を設計する。 この手法はクロマティックラーニング(CL)と呼ばれ、GBDTトレーニングの実行時性能最適化として以前用いられていた手法である特徴の共起グラフ上でグラフカラー化を行うことにより、低次元の高密度特徴表現を得る。 この色に基づく濃密表現は、さらに次元性を減らすために、例えば亜モジュラー特徴圧縮のような、より密なカテゴリエンコーディングアプローチと組み合わせることができる。 CLは線形並列性を示し、共起グラフのサイズでメモリを線形に消費する。 共起グラフの構造的特性を活用することで、clは、線形モデルの同じテストエラーを維持しながら、周波数ベースのトランザクションやハッシュトリックよりも桁違いに少ない特徴を用いて、50m以上の機能を1024まで含むkdd cup 2012のようなスパースデータセットを圧縮することができる。 この圧縮により、この幅の広いスパース設定でのディープネットワークの利用も可能となり、CLは予算化された入力次元の既存のベースラインと同等の性能を持つ。

Learning over sparse, high-dimensional data frequently necessitates the use of specialized methods such as the hashing trick. In this work, we design a highly scalable alternative approach that leverages the low degree of feature co-occurrences present in many practical settings. This approach, which we call Chromatic Learning (CL), obtains a low-dimensional dense feature representation by performing graph coloring over the co-occurrence graph of features---an approach previously used as a runtime performance optimization for GBDT training. This color-based dense representation can be combined with additional dense categorical encoding approaches, e.g., submodular feature compression, to further reduce dimensionality. CL exhibits linear parallelizability and consumes memory linear in the size of the co-occurrence graph. By leveraging the structural properties of the co-occurrence graph, CL can compress sparse datasets, such as KDD Cup 2012, that contain over 50M features down to 1024, using an order of magnitude fewer features than frequency-based truncation and the hashing trick while maintaining the same test error for linear models. This compression further enables the use of deep networks in this wide, sparse setting, where CL similarly has favorable performance compared to existing baselines for budgeted input dimension.
翻訳日:2022-11-24 20:55:57 公開日:2020-06-06