このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。



PDF登録状況(公開日: 20200527)

# 容量結合フリップモードスピン量子ビットにおけるプログラム可能な2量子ゲート

Programmable two-qubit gates in capacitively coupled flopping-mode spin qubits ( http://arxiv.org/abs/2003.02137v3 )

ライセンス: Link先を確認
Jorge Cayao, M\'onica Benito, Guido Burkard(参考訳) ゲート定義半導体量子ドットの分野における最近の成果は、超伝導回路共振器光子を介して互いに通信する局所連結量子ビットのノードからなるスピンベースの量子コンピュータの概念を強化している。 本研究では、スピンベースの量子コンピュータの同じノード内に位置する半導体量子ドットで定義される隣接するスピン量子ビット間の量子ゲートの多様集合を理論的に実証する。 磁場勾配で二重量子ドットポテンシャルを横切る電子のスピンによって得られる電気双極子は、共振器光子と低電力スピン制御との強い結合を可能にした。 ここでは、このフロッピングモードスピンキュービットが、複数の2量子ゲートをプログラムできるチューニング性を提供することを示す。 これらの量子ビット間の容量的カップリングはさらなる劣化をもたらすので、最も即時に可能な実験実現において、異なる2量子ビットゲートの不忠実さを推定する。

Recent achievements in the field of gate defined semiconductor quantum dots reinforce the concept of a spin-based quantum computer consisting of nodes of locally connected qubits which communicate with each other via superconducting circuit resonator photons. In this work we theoretically demonstrate a versatile set of quantum gates between adjacent spin qubits defined in semiconductor quantum dots situated within the same node of such a spin-based quantum computer. The electric dipole acquired by the spin of an electron that moves across a double quantum dot potential in a magnetic field gradient has enabled strong coupling to resonator photons and low-power spin control. Here we show that this flopping-mode spin qubit also provides with the tunability to program multiple two-qubit gates. Since the capacitive coupling between these qubits brings about additional dephasing, we calculate the estimated infidelity of different two-qubit gates in the most immediate possible experimental realizations.
翻訳日:2023-05-31 05:26:31 公開日:2020-05-27
# 開量子系におけるPT対称性の破れの発生

Emergence of PT-symmetry breaking in open quantum systems ( http://arxiv.org/abs/2003.02265v2 )

ライセンス: Link先を確認
Julian Huber, Peter Kirton, Stefan Rotter, Peter Rabl(参考訳) 利得と損失のバランスが取れた結合系におけるPT対称性の破れの影響は近年注目され、古典期における様々なフォトニック系、電気系、機械系で実証されている。 ここでは、マルコフのマスター方程式によって記述される有限次元開量子系に対するPT対称性の定義を一般化する。 具体的には、ある対称性変換の下でのこのマスター方程式の不変性は、保存されたパリティ対称性を持つ定常状態の存在を意味することを示す。 ヒルベルト空間の次元が大きくなるにつれて、これらの2つの制限相間の遷移はますます鋭くなり、古典的に期待されるPT対称性の破れ遷移が回復する。 この量子-古典対応により、古典的および量子的状態の両方で動作する様々な物理系におけるPT対称性の破れ効果を同定し、正確に記述するための共通の理論的枠組みを確立することができる。

The effect of PT-symmetry breaking in coupled systems with balanced gain and loss has recently attracted considerable attention and has been demonstrated in various photonic, electrical and mechanical systems in the classical regime. Here we generalize the definition of PT symmetry to finite-dimensional open quantum systems, which are described by a Markovian master equation. Specifically, we show that the invariance of this master equation under a certain symmetry transformation implies the existence of stationary states with preserved and broken parity symmetry. As the dimension of the Hilbert space grows, the transition between these two limiting phases becomes increasingly sharp and the classically expected PT-symmetry breaking transition is recovered. This quantum-to-classical correspondence allows us to establish a common theoretical framework to identify and accurately describe PT-symmetry breaking effects in a large variety of physical systems, operated both in the classical and quantum regimes.
翻訳日:2023-05-31 05:05:22 公開日:2020-05-27
# グラフ不変量による可溶スピンモデルのキャラクタリゼーション

Characterization of solvable spin models via graph invariants ( http://arxiv.org/abs/2003.05465v2 )

ライセンス: Link先を確認
Adrian Chapman and Steven T. Flammia(参考訳) 正確に解くモデルは物理学において必須である。 多体スピン-1/2系の場合、そのようなモデルの重要なクラスは、グラフ上の自由フェルミオンホッピングにマッピングできるものである。 このように解くことができるモデルの完全なキャラクタリゼーションを提供する。 具体的には, 最適解法である線グラフ認識のグラフ理論的問題に対して, スピンモデル認識の問題を軽減する。 結果の系は、自由フェルミオン解の障害を構成する定数サイズの可換構造の完全な集合である。 対称性はこれらのモデルに強く制約されていることが分かる。 パウリ対称性 (pauli symmetries) とは (i)フェルミオンホッピンググラフ上のサイクル (ii)フェルミオンパリティ作用素、又は (iii)論理的にエンコードされたキュービット。 クリフォード対称性は3つの例外を除いて、自由フェルミオンモデル自体の対称性でなければならない。 文献から得られるいくつかの厳密な自由フェルミオン解が我々の形式主義にどのように適合するかを実証し、自由フェルミオンによって解ける新しいモデルの明確な例を示す。

Exactly solvable models are essential in physics. For many-body spin-1/2 systems, an important class of such models consists of those that can be mapped to free fermions hopping on a graph. We provide a complete characterization of models which can be solved this way. Specifically, we reduce the problem of recognizing such spin models to the graph-theoretic problem of recognizing line graphs, which has been solved optimally. A corollary of our result is a complete set of constant-sized commutation structures that constitute the obstructions to a free-fermion solution. We find that symmetries are tightly constrained in these models. Pauli symmetries correspond to either: (i) cycles on the fermion hopping graph, (ii) the fermion parity operator, or (iii) logically encoded qubits. Clifford symmetries within one of these symmetry sectors, with three exceptions, must be symmetries of the free-fermion model itself. We demonstrate how several exact free-fermion solutions from the literature fit into our formalism and give an explicit example of a new model previously unknown to be solvable by free fermions.
翻訳日:2023-05-29 11:00:20 公開日:2020-05-27
# 世界保健のための人工知能:医療におけるデジタルトランスフォーメーションの10年から学ぶ

Artificial Intelligence for Global Health: Learning From a Decade of Digital Transformation in Health Care ( http://arxiv.org/abs/2005.12378v2 )

ライセンス: Link先を確認
Varoon Mathur, Saptarshi Purkayastha, Judy Wawira Gichoya(参考訳) リソース制限のある環境で生活する人々の健康ニーズは、機械学習(ml)と医療の交差点で見過ごされ、未熟な領域である。 医療におけるMLの使用は、近年、ディープラーニングの進歩から一般化しつつあるが、低所得国(LMICs)は、この10年間、医療における独自のデジタルトランスフォーメーションを行っており、モバイルヘルス(mHealth)の導入によるマイルストーンの飛躍的な成長を遂げている。 新しい技術の導入により、トップダウンのアプローチでafreshを始め、これらの技術を分離して実装することが一般的であり、使用の欠如とリソースの浪費に繋がる。 本稿では,現在の研究のギャップと,医療従事者の生活経験から,資源限定的な状況において必要な考慮事項について概説する。 また、LMICにおける医療システムにおける技術導入と展開の成功の鍵となる要素を概説し、機械学習ソリューションの構築に関連する開発プロセスにおける技術的・文化的考察を含める。 次に、リソース制限された設定において、影響の鍵となる機会がどこにあるのか、そしてAI/MLが最も利益を得られるか、というこれらの経験を取り上げます。

The health needs of those living in resource-limited settings are a vastly overlooked and understudied area in the intersection of machine learning (ML) and health care. While the use of ML in health care is more recently popularized over the last few years from the advancement of deep learning, low-and-middle income countries (LMICs) have already been undergoing a digital transformation of their own in health care over the last decade, leapfrogging milestones due to the adoption of mobile health (mHealth). With the introduction of new technologies, it is common to start afresh with a top-down approach, and implement these technologies in isolation, leading to lack of use and a waste of resources. In this paper, we outline the necessary considerations both from the perspective of current gaps in research, as well as from the lived experiences of health care professionals in resource-limited settings. We also outline briefly several key components of successful implementation and deployment of technologies within health systems in LMICs, including technical and cultural considerations in the development process relevant to the building of machine learning solutions. We then draw on these experiences to address where key opportunities for impact exist in resource-limited settings, and where AI/ML can provide the most benefit.
翻訳日:2023-05-19 05:44:04 公開日:2020-05-27
# コンタクトトレーシングアプリの誤認性

The Fallibility of Contact-Tracing Apps ( http://arxiv.org/abs/2005.11297v3 )

ライセンス: Link先を確認
Piotr Sapiezynski, Johanna Pruessing, Vedran Sekara(参考訳) 新型コロナウイルス(COVID-19)の世界的な感染拡大以来、われわれは接触追跡アプリをめぐる議論をフォローしてきた。 企業、学者、政府、市民社会がこれらのアプリを実装するための正しい方法について議論するにつれ、暗黙の仮定が繰り返されることに気付きました。 提案されたソリューションは、インターネットアクセスとスマートフォンのオーナーシップが与えられ、人びとはこれらのアプリを積極的にインストールでき、ウイルスに感染する可能性があるという通知を受けた人は、テストにアクセスでき、安全に安全である。 この研究ではこれらの仮定に挑戦する。 私たちは、必要な採用しきい値に達するのに十分なスマートフォンがないことだけでなく、インターネットアクセスの広範な欠如を強調するだけでなく、特定のグループ(高齢者、低所得者、社会的に距離を置ける能力の少ない人)に影響を与えていることも示しています。 残念ながら、これらは新型コロナウイルスのリスクが最も高いグループでもある。 また,オプトインベースでデプロイされているコンタクトトレースアプリは,採用率に失望していることも報告した。 我々は、既存の国家および企業の監視権限を過度に延ばすことによる潜在的な結果について警告する。 最後に、連絡先追跡アプリがアクセスやポリシーに関わらず役に立たないシナリオを多数記述する。 この作業では、最も脆弱な人々のニーズを優先し、人権を保護し、技術優先の修正ではなく長期的な影響を検討する、包括的で公平な政策対応を求めます。

Since the onset of the COVID-19's global spread we have been following the debate around contact tracing apps -- the tech-enabled response to the pandemic. As corporations, academics, governments, and civil society discuss the right way to implement these apps, we noticed recurring implicit assumptions. The proposed solutions are designed for a world where Internet access and smartphone ownership are a given, people are willing and able to install these apps, and those who receive notifications about potential exposure to the virus have access to testing and can isolate safely. In this work we challenge these assumptions. We not only show that there are not enough smartphones worldwide to reach required adoption thresholds but also highlight a broad lack of internet access, which affects certain groups more: the elderly, those with lower incomes, and those with limited ability to socially distance. Unfortunately, these are also the groups that are at the highest risks from COVID-19. We also report that the contact tracing apps that are already deployed on an opt-in basis show disappointing adoption levels. We warn about the potential consequences of over-extending the existing state and corporate surveillance powers. Finally, we describe a multitude of scenarios where contact tracing apps will not help regardless of access or policy. In this work we call for a comprehensive and equitable policy response that prioritizes the needs of the most vulnerable, protects human rights, and considers long term impact instead of focusing on technology-first fixes.
翻訳日:2023-05-19 01:36:29 公開日:2020-05-27
# 動的多点容量車両ルーティング問題に対する量子アニーリング手法

A Quantum Annealing Approach for Dynamic Multi-Depot Capacitated Vehicle Routing Problem ( http://arxiv.org/abs/2005.12478v2 )

ライセンス: Link先を確認
Ramkumar Harikrishnakumar, Saideep Nannapaneni, Nam H. Nguyen, James E. Steck, Elizabeth C. Behrman(参考訳) 量子アニーリング(Quantum annealing, QA)は、AQC(Adiabatic Quantum Computation)の原理に基づく量子コンピューティングアルゴリズムであり、従来のアルゴリズムと比較して、車両ルーティング問題(VRP)のような組合せ最適化問題の解法において、計算上の優位性を示す。 本稿では,MDCVRP (Multi-depot Capacitated Vehicle routing problem) と呼ばれる可変VRP問題に対するQAアプローチを提案する。 これは、輸送、物流、サプライチェーン管理の分野における実世界の応用におけるNPハード最適化問題である。 異種補給所と車体容量の異なる車両について検討する。 ヘテロジニアスデポのセット、各デポ内の車両数、異質デポ/車両容量、空間的に分散した顧客位置のセットが与えられた場合、MDCVRPは、全顧客が提供されるキャパシティの制約を満たす様々な車両のルートを特定しようとする。 MDCVRPを2次非拘束二元最適化(QUBO)問題としてモデル化し,キャパシティ制約を考慮に入れた全車種間距離を最小化する。 さらに,D-MDCVRPとして知られるMDCVRPの動的バージョンに対するQUBOモデルを定式化し,車種をリアルタイムの顧客要求に動的に再ルーティングする。 本稿では,D-Wave の量子アニールハードウェア上での MDCVRP と D-MDCVRP の解法について述べる。

Quantum annealing (QA) is a quantum computing algorithm that works on the principle of Adiabatic Quantum Computation (AQC), and it has shown significant computational advantages in solving combinatorial optimization problems such as vehicle routing problems (VRP) when compared to classical algorithms. This paper presents a QA approach for solving a variant VRP known as multi-depot capacitated vehicle routing problem (MDCVRP). This is an NP-hard optimization problem with real-world applications in the fields of transportation, logistics, and supply chain management. We consider heterogeneous depots and vehicles with different capacities. Given a set of heterogeneous depots, the number of vehicles in each depot, heterogeneous depot/vehicle capacities, and a set of spatially distributed customer locations, the MDCVRP attempts to identify routes of various vehicles satisfying the capacity constraints such as that all the customers are served. We model MDCVRP as a quadratic unconstrained binary optimization (QUBO) problem, which minimizes the overall distance traveled by all the vehicles across all depots given the capacity constraints. Furthermore, we formulate a QUBO model for dynamic version of MDCVRP known as D-MDCVRP, which involves dynamic rerouting of vehicles to real-time customer requests. We discuss the problem complexity and a solution approach to solving MDCVRP and D-MDCVRP on quantum annealing hardware from D-Wave.
翻訳日:2023-05-18 07:55:52 公開日:2020-05-27
# 近距離等距離投影法で基礎アルゴリズムを学習する教育ゲーム

Education Games To Learn Basic Algorithm With Near Isometric Projection Method ( http://arxiv.org/abs/2005.13225v1 )

ライセンス: Link先を確認
Wirawan Istiono, Hijrah, Nur Nawaningtyas.P(参考訳) 基礎プログラミングとアルゴリズム学習は、コンピュータを専攻する学生に必要な必須科目の一つである。 このレッスンは知識ベースであるため、プログラム言語を学ぶ前に、学生は、近等距離射影を用いたアルゴリズム学習ゲームアプリケーションを使用することで、学習アルゴリズムやプログラミングにもっと興味を持つようになるという困難を避けるために、学習を奨励する必要がある。 本研究では,プログラミングアルゴリズムの基礎を学習しやすくするために,シークエンシング,オーバーロード,手順,再帰ループ,条件等に着目した基礎学習アルゴリズムを提案する。 シミュレーションの結果, 等尺射影法に近い教育ゲームは, 基本的なプログラミングアルゴリズムを学ぶための応用ゲームが興味深く, uatを用いたテスト後の基本的なアルゴリズムを理解するのに役立つという合意が83.87%に達した。 マルチメディア・ヌサンタラ大学30人を対象にしたユーザ受け入れテスト

Basic programming and algorithm learning is one of the compulsory subjects required for students majoring in computers. As this lesson is knowledge base, it is very important and essential that before learn programmings languages students must be encourages to learn it to avoid difficulties that by using the algorithm learning games application with Near Isometric Projection, Students or prospective students become more interested in learning algorithms and programming. In this study, basic learning algorithms focused on the material Sequencing, Overloading, Procedures, Recursive Loops and Conditionals, which are made so that it can make it easier for students to learn the basics of programming algorithms. The simulated results show that proposed Education Games with Near Isometric Projection method reach 83.87% statement of agreement that application games to learn basic programming algorithms were interesting and helped them to understand basic algorithm after testing using UAT. Testing with User Acceptance Test for 30 students of Multimedia Nusantara University
翻訳日:2023-05-18 05:23:47 公開日:2020-05-27
# 光子パルスで駆動される量子太陽電池

Quantum Photovoltaic Cells Driven by Photon Pulses ( http://arxiv.org/abs/2005.13185v1 )

ライセンス: Link先を確認
Sangchul Oh, Jungjun Park, Hyunchul Nha(参考訳) 量子熱エンジンとして光子パルスによって駆動される2つの量子系、2レベル系と4レベル量子光セルの量子熱力学を調べる。 温熱貯水池から供給される熱(エネルギー)源は光子パルスのシーケンスによって供給されるが,冷水貯水池とのみ熱接触するシステムと設定した。 各系の動力学は、リンドブラッドマスター方程式によって記述されたシステム・バス相互作用とともに、ジェインズ・カンミングス・ハミルトニアン(jaynes-cummings hamiltonian)の光子パルスによるコヒーレント相互作用によって制御される。 本研究では, システムエネルギーの変化, 光子パルスによる電力供給, 外部負荷への出力, 冷水浴への放熱, エントロピー生成を含む2レベル系および量子フォトセルの熱力学量を算出する。 これにより、冷湯中の量子光セルが連続的な量子熱エンジンとして動作し、連続的に光子パルスを印加することを示す。 具体的には、外部負荷に供給される出力電力の電流と電圧と、光子パルスによって供給される入力電力との比で量子フォトセルの電力効率を紹介する。 本研究は,非平衡熱力学下では,外部磁場により駆動される量子系が効率的な量子熱エンジンとして機能する可能性を示唆する。

We investigate the quantum thermodynamics of two quantum systems, a two-level system and a four-level quantum photocell, each driven by photon pulses as a quantum heat engine. We set these systems to be in thermal contact only with a cold reservoir while the heat (energy) source, conventionally given from a hot thermal reservoir, is supplied by a sequence of photon pulses. The dynamics of each system is governed by a coherent interaction due to photon pulses in terms of the Jaynes-Cummings Hamiltonian together with the system-bath interaction described by the Lindblad master equation. We calculate the thermodynamic quantities for the two-level system and the quantum photocell including the change in system energy, power delivered by photon pulses, power output to an external load, heat dissipated to a cold bath, and entropy production. We thereby demonstrate how a quantum photocell in the cold bath can operate as a continuum quantum heat engine with the sequence of photon pulses continuously applied. We specifically introduce the power efficiency of the quantum photocell in terms of the ratio of output power delivered to an external load with current and voltage to the input power delivered by the photon pulse. Our study indicates a possibility that a quantum system driven by external fields can act as an efficient quantum heat engine under non-equilibrium thermodynamics.
翻訳日:2023-05-18 05:23:12 公開日:2020-05-27
# CoVista:プライバシーに敏感なモバイル連絡先追跡の取り組み

CoVista: A Unified View on Privacy Sensitive Mobile Contact Tracing Effort ( http://arxiv.org/abs/2005.13164v1 )

ライセンス: Link先を確認
David Culler, Prabal Dutta, Gabe Fierro, Joseph E. Gonzalez, Nathan Pemberton, Johann Schleier-Smith, K. Shankari, Alvin Wan, Thomas Zachariah(参考訳) 世界中の政府は、公衆衛生政策を規定するテック大企業に不満を募らせている。 appleとgoogleが作ったこのソフトウェアは、個人が自分の露出を、コラボした露出通知で追跡できる。 しかし、同じソフトウェアは位置追跡を禁止し、堅牢な契約追跡のために公衆衛生当局が必要とする重要な情報を拒否する。 この情報は、新型コロナウイルス陽性の人々を治療し、隔離し、伝染するホットスポットを特定し、感染が続くのを防ぐために必要である。 この記事では、appleとgoogleのエクスポージャー通知プロトコルのプライバシーに敏感な目標を維持しつつ、公衆衛生当局のニーズに対応するlighthouseとcovid-19 commonsの2つの単純なアイデアを紹介します。

Governments around the world have become increasingly frustrated with tech giants dictating public health policy. The software created by Apple and Google enables individuals to track their own potential exposure through collated exposure notifications. However, the same software prohibits location tracking, denying key information needed by public health officials for robust contract tracing. This information is needed to treat and isolate COVID-19 positive people, identify transmission hotspots, and protect against continued spread of infection. In this article, we present two simple ideas: the lighthouse and the covid-commons that address the needs of public health authorities while preserving the privacy-sensitive goals of the Apple and google exposure notification protocols.
翻訳日:2023-05-18 05:22:06 公開日:2020-05-27
# 2光子結合スペクトル検出(JS-Q-OCT)を用いた量子光コヒーレンストモグラフィ

Quantum Optical Coherence Tomography using two photon joint spectrum detection (JS-Q-OCT) ( http://arxiv.org/abs/2005.13147v1 )

ライセンス: Link先を確認
Sylwia M. Kolenderska, Frederique Vanholsbeeck, Piotr Kolenderski(参考訳) 量子コヒーレンス・トモグラフィ(quantum Optical Coherence Tomography, Q-OCT)は、白色光干渉法に基づく高分解能3次元イメージング技術である。 Q-OCTは周波数束縛された光子対の源を用いるため、干渉計における分散ミスマッチの影響を受けない軸分解能だけでなく、2の平方根の係数によって本質的に改善される。 残念なことに、Q-OCTの実践的応用は、イメージスクランブルアーティファクトと遅い取得時間によって妨げられている。 本稿では,これらの問題から解放された新しい手法であるjs-q-oct(joint spectrum detection)の理論的解析を行う。 標準Q-OCT構成のように光子対の一致検出に基づいて、各光子対の波長を識別する。 物体の内部構造に関する全ての情報は、ジョイントスペクトルに符号化されており、フーリエ変換により容易に検索可能であることを示す。 深度走査は不要であり、標準のq-octよりも高速である。 最後に, ジョイントスペクトルで利用可能なデータにより, 人工物除去が可能であることが示され, 将来的なアルゴリズムについて考察する。

Quantum Optical Coherence Tomography (Q-OCT) is the non-classical counterpart of Optical Coherence Tomography (OCT) - a high-resolution 3D imaging technique based on white-light interferometry. Because Q-OCT uses a source of frequency-entangled photon pairs, not only is the axial resolution not affected by dispersion mismatch in the interferometer, but is also inherently improved by a factor of square root of two. Unfortunately, practical applications of Q-OCT are hindered by image-scrambling artefacts and slow acquisition times. Here, we present a theoretical analysis of a novel approach that is free of these problems: Q-OCT with joint spectrum detection (JS-Q-OCT). Based on a photon pair coincidence detection as in the standard Q-OCT configuration, it also discerns, each photon pair by their wavelength. We show that all the information about the internal structures of the object is encoded in the joint spectrum and can be easily retrieved through Fourier transformation. No depth scanning is required, making our technique potentially faster than standard Q-OCT. Finally, we show that the data available in the joint spectrum enables artefact removal and discuss prospective algorithms for doing so.
翻訳日:2023-05-18 05:21:52 公開日:2020-05-27
# コミュニティ検出のための複素ネットワーク上の離散時間量子ウォーク

Discrete-time quantum walk on complex networks for community detection ( http://arxiv.org/abs/2005.13104v1 )

ライセンス: Link先を確認
Kanae Mukai and Naomichi Hatano(参考訳) 複雑なネットワーク上での離散時間量子ウォークを定義し,コミュニティ検出に利用する。 フーリエコインを用いた量子ウォークが初期ノードが属するコミュニティに局所化されていることを数値的に示す。 一方、グローバーのコインによる量子ウォークは、コミュニティ上ではなく、初期ノードの周りに局在する傾向がある。 同じネットワーク上の古典的なランダムウォークの確率は、一般に緩和時間を伴う一様分布に収束する。 したがって、複素ネットワーク上のフーリエコイン量子ウォークの確率の時間平均は、グローバーコイン量子ウォークと古典的なランダムウォークのスナップショットよりも明確にコミュニティ構造を明らかにしていると主張する。 本研究は,まず,先駆的な3コミュニティネットワークにおけるコミュニティ検出手法を実証し,適切なグループ化を実現する。 次に,Zachary's Kara ClubとUS Airport Networkの2つの実世界のネットワークに適用する。 我々は,前及び主要航空会社のコミュニティ構造,インストラクターと管理者の2つのコミュニティを明らかにすることに成功している。

We define the discrete-time quantum walk on complex networks and utilize it for community detection. We numerically show that the quantum walk with the Fourier coin is localized in a community to which the initial node belongs. Meanwhile, the quantum walk with the Grover coin tends to be localized around the initial node, not over a community. The probability of the classical random walk on the same network converges to the uniform distribution with a relaxation time generally a priori. We thus claim that the time average of the probability of the Fourier-coin quantum walk on complex networks reveals the community structure more explicitly than that of the Grover-coin quantum walk and a snapshot of the classical random walk. We first demonstrate our method of community detection for a prototypical three-community network, producing the correct grouping. We then apply our method to two real-world networks, namely Zachary's karate club and the US Airport network. We successfully reveals the community structure, the two communities of the instructor and the administrator in the former and major airline companies in the latter.
翻訳日:2023-05-18 05:21:34 公開日:2020-05-27
# フラクタルネットワークにおける量子輸送の光

Shining Light on Quantum Transport in Fractal Networks ( http://arxiv.org/abs/2005.13385v1 )

ライセンス: Link先を確認
Xiao-Yun Xu, Xiao-Wei Wang, Dan-Yang Chen, C. Morais Smith, Xian-Min Jin(参考訳) フラクタルは魅力的な構造であり、その美的魅力のためだけでなく、非整数次元の物理的性質の調査を可能にするためでもある。 これらの非慣習的なシステムでは、フラクタル次元、スペクトル次元、フラクタル幾何学など、無数の内在的な特徴が作用する可能性がある。 豊富な理論と数値研究にもかかわらず、フラクタルネットワークの実験はいまだに解明されていない。 本稿では, フラクタルネットワークにおける量子輸送を, 逐次伝播長を持つフラクタルフォトニック格子における連続時間量子ウォークにより実験的に検討する。 光子は歩行器として働き、1つの初期部位に注入された後に格子の中で進化する。 本研究では, 伝播長の異なる光子進化パターンによる輸送特性を明らかにし, パターンの確率分布に基づいて計算した分散とポリオリヤ数の解析を行った。 古典フラクタルとは対照的に,フラクタル次元のみに支配される異常輸送を観測する。 さらに、通常の輸送から異常輸送への移行がある臨界点はフラクタル幾何学に大きく依存している。 実験では物理法則を定量的に検証し,前例のない詳細で輸送力学を明らかにすることにより,フラクタル性によって支配されるより複雑な量子現象の理解への道を開く。

Fractals are fascinating structures, not only for their aesthetic appeal, but also because they allow for the investigation of physical properties in non-integer dimensions. In these unconventional systems, a myriad of intrinsic features might come into play, such as the fractal dimension, the spectral dimension, or the fractal geometry. Despite abundant theoretical and numerical studies, experiments in fractal networks remain elusive. Here, we experimentally investigate quantum transport in fractal networks by performing continuous-time quantum walks in fractal photonic lattices with incremental propagation lengths. Photons act as the walkers and evolve in the lattices after being injected into one initial site. We unveil the transport properties through the photon evolution pattern at different propagation lengths and the analysis of the variance and the P'olya number, which are calculated based on the probability distribution of the patterns. Contrarily to classical fractals, we observe anomalous transport governed solely by the fractal dimension. In addition, the critical point at which there is a transition from normal to anomalous transport is highly dependent on the fractal geometry. Our experiment allows the verification of physical laws in a quantitative manner and reveals the transport dynamics with unprecedented detail, thus opening a path to the understanding of more complex quantum phenomena governed by fractality.
翻訳日:2023-05-18 05:12:48 公開日:2020-05-27
# イオン量子輸送と平衡から離れた雑音

Anyon Quantum Transport and Noise away from Equilibrium ( http://arxiv.org/abs/2005.13323v1 )

ライセンス: Link先を確認
Mihail Mintchev and Paul Sorba(参考訳) 我々は1つの空間次元におけるエノンの量子輸送を調べる。 一般化ギブス状態における2つの熱貯水池と接触する非平衡系の普遍的特徴を確立後、軸-ベクトル双対性を持つ友永-ラッティンガーモデルのアーベル・アノン解に着目する。 この文脈では、物理的可観測物の非平衡表現が構築され、これはエノン粒子と熱輸送の体系的な研究の基本的な道具である。 関連するローレンツ数を決定し、相互作用と正則統計によって誘導される標準ヴィーデマン・フランツ法則からの偏差を明示的に記述する。 電気およびヘリカル電流によって生じる量子揺らぎを調査し、相対ノイズパワーの統計パラメータ依存性を確立する。

We investigate the quantum transport of anyons in one space dimension. After establishing some universal features of non-equilibrium systems in contact with two heat reservoirs in a generalised Gibbs state, we focus on the abelian anyon solution of the Tomonaga-Luttinger model possessing axial-vector duality. In this context a non-equilibrium representation of the physical observables is constructed, which is the basic tool for a systematic study of the anyon particle and heat transport. We determine the associated Lorentz number and describe explicitly the deviation from the standard Wiedemann-Franz law induced by the interaction and the anyon statistics. The quantum fluctuations generated by the electric and helical currents are investigated and the dependence of the relative noise power on the statistical parameter is established.
翻訳日:2023-05-18 05:12:29 公開日:2020-05-27
# OpenQL: 量子加速器のためのポータブル量子プログラミングフレームワーク

OpenQL : A Portable Quantum Programming Framework for Quantum Accelerators ( http://arxiv.org/abs/2005.13283v1 )

ライセンス: Link先を確認
N. Khammassi, I. Ashraf, J. v. Someren, R. Nane, A. M. Krol, M. A. Rol, L. Lao, K. Bertels, C. G. Almudever(参考訳) 難解な古典的問題を解決する量子アルゴリズムのポテンシャルにより、量子コンピューティングは急速に進化し、より多くのアルゴリズムが開発され、最適化されている。 これらの量子アルゴリズムをハイレベルな言語で表現し、ハードウェアの詳細を抽象化しながら量子プロセッサ上で実行可能にすることは、難しい作業である。 まず、量子プログラミング言語はこれらのアルゴリズムを記述するための直感的なプログラミングインターフェースを提供する必要がある。 その後、コンパイラはプログラムを量子回路に変換し、それを最適化し、サポート対象の量子演算、量子ビット接続、制御エレクトロニクスの制限といったハードウェア上の制約に従ってターゲットの量子プロセッサにマッピングする。 本稿では,高レベルな量子プログラミング言語と関連する量子コンパイラを含む,OpenQLという量子プログラミングフレームワークを提案する。 OpenQLのプログラミングインターフェースを示し、コンパイラの異なるレイヤと、異なるキュービット技術に対してポータビリティを提供する方法について説明する。 実験によれば、openqlは超伝導量子ビットとsiスピン量子ビットという2つの異なる量子ビット技術上で同じハイレベルアルゴリズムの実行を可能にする。 実行可能コードに加えて、openqlは中間的な量子アセンブリコード(cqasm)も生成する。

With the potential of quantum algorithms to solve intractable classical problems, quantum computing is rapidly evolving and more algorithms are being developed and optimized. Expressing these quantum algorithms using a high-level language and making them executable on a quantum processor while abstracting away hardware details is a challenging task. Firstly, a quantum programming language should provide an intuitive programming interface to describe those algorithms. Then a compiler has to transform the program into a quantum circuit, optimize it and map it to the target quantum processor respecting the hardware constraints such as the supported quantum operations, the qubit connectivity, and the control electronics limitations. In this paper, we propose a quantum programming framework named OpenQL, which includes a high-level quantum programming language and its associated quantum compiler. We present the programming interface of OpenQL, we describe the different layers of the compiler and how we can provide portability over different qubit technologies. Our experiments show that OpenQL allows the execution of the same high-level algorithm on two different qubit technologies, namely superconducting qubits and Si-Spin qubits. Besides the executable code, OpenQL also produces an intermediate quantum assembly code (cQASM), which is technology-independent and can be simulated using the QX simulator.
翻訳日:2023-05-18 05:11:45 公開日:2020-05-27
# ランダム正則グラフにおけるアンダーソン遷移のスケーリング

Scaling up the Anderson transition in random-regular graphs ( http://arxiv.org/abs/2005.13571v1 )

ライセンス: Link先を確認
M. Pino(参考訳) 格子のアンダーソン転移とランダム正則グラフの接続性について検討する。 以上の結果から,フラクタル次元は遷移を通じて連続であるが,その導関数には不連続性が生じ,アンダーソン遷移付近の金属の非エルゴーディティが示唆される。 臨界指数 $\nu = 1.00 \pm0.02$ と臨界障害 $w= 18.2\pm 0.1$ はスケーリングアプローチによって見つかる。 私たちのデータでは、関連するガウスアンサンブルの予測はゼロ障害でのみ回復する。

We study the Anderson transition in lattices with the connectivity of a random-regular graph. Our results indicate that fractal dimensions are continuous across the transition, but a discontinuity occurs in their derivatives, implying the non-ergodicity of the metal near the Anderson transition. A critical exponent $\nu = 1.00 \pm0.02$ and critical disorder $W= 18.2\pm 0.1$ are found via a scaling approach. Our data support that the predictions of the relevant Gaussian Ensemble are only recovered at zero disorder.
翻訳日:2023-05-18 05:04:42 公開日:2020-05-27
# 異方性中心スピンモデルにおける永続暗黒状態

Persistent dark states in anisotropic central spin models ( http://arxiv.org/abs/2005.13556v1 )

ライセンス: Link先を確認
Tamiro Villazon, Pieter W. Claeys, Mohit Pandey, Anatoli Polkovnikov, Anushya Chandran(参考訳) 実験的にアクセス可能なクビットが周囲のスピン浴と熱平衡を保たない長時間の暗黒状態は、固体系において広まる。 我々は、完全暗黒固有状態を持つ可積分線に近接して、不均一な中心スピンモデルの大規模なクラスにおける暗黒状態のユビキティを説明する。 数値的にアクセス可能なサイズでは、暗黒状態は積分性から大きくずれて固有状態として持続し、クォービットはその初期偏光の記憶を長時間保持する。 系の固有状態はカオス的であり、小さな摂動に対して指数関数的な感度を示すが、固有状態の熱化仮説を満たさない。 むしろ、システムサイズで指数関数的に増加する長いリラクゼーション時間を予測する。 この中間カオス的だが非エルゴード的レジームはメソスコピック量子ドットおよびダイヤモンド欠陥系を特徴づけるものであり、有限緩和時間を持つ従来の熱化への数値的傾向は見られない。

Long-lived dark states, in which an experimentally accessible qubit is not in thermal equilibrium with a surrounding spin bath, are pervasive in solid-state systems. We explain the ubiquity of dark states in a large class of inhomogenous central spin models using the proximity to integrable lines with exact dark eigenstates. At numerically accessible sizes, dark states persist as eigenstates at large deviations from integrability, and the qubit retains memory of its initial polarization at long times. Although the eigenstates of the system are chaotic, exhibiting exponential sensitivity to small perturbations, they do not satisfy the eigenstate thermalization hypothesis. Rather, we predict long relaxation times that increase exponentially with system size. We propose that this intermediate chaotic but non-ergodic regime characterizes mesoscopic quantum dot and diamond defect systems, as we see no numerical tendency towards conventional thermalization with a finite relaxation time.
翻訳日:2023-05-18 05:04:33 公開日:2020-05-27
# 超微細焼成による水素原子の量子状態形成

Quantum State Preparation of Hydrogen Atoms by Hyperfine Quenching ( http://arxiv.org/abs/2005.13501v1 )

ライセンス: Link先を確認
Amanda Alencar (IF/UFRJ), \'Italo Prazeres (IF/UFRJ), Carlos Renato de Carvalho (IF/UFRJ), Fran\c{c}ois Impens (IF/UFRJ), Aline Medina (IF/UFRJ), Nelson Velho de Castro Faria (IF/UFRJ), Jacques Robert (LPGP/UPS), Ginette Jalbert (IF/UFRJ)(参考訳) H(2S)ビームのための2状態原子偏光子を実装するために、均一磁場と定磁場の領域を用いることについて議論する。 このような磁場配置を持つ装置は、広範囲の磁場強度と原子速度に対して効率的な偏極を実現することができる。 さらに、分極の成功を確認するために満たさなければならない基準を確立する。 これは、出力する2状態原子線に対して予想されるLyman-$\alpha$放射の特定のビーティングパターンのためである。

We discuss the use of a region of uniform and constant magnetic field in order to implement a two-state atomic polarizer for an H(2S) beam. We have observed that a device with such field configuration is capable of achieving an efficient polarization for a wide range of magnetic field intensities and atomic velocities. In addition, we establish a criterion that must be met to confirm a successful polarization. That is possible due to a specific beating pattern for the Lyman-$\alpha$ radiation expected for the outgoing two-state atomic beam.
翻訳日:2023-05-18 05:02:34 公開日:2020-05-27
# 科学とアルゴリズムの中立性:基礎物理学と社会の機械学習

(Non)-neutrality of science and algorithms: Machine Learning between fundamental physics and society ( http://arxiv.org/abs/2006.10745v1 )

ライセンス: Link先を確認
Aniello Lampo, Michele Mancarella and Angelo Piga(参考訳) ビッグデータとプラットフォーム資本主義の時代における機械学習(ML)アルゴリズムの影響は、アカデミックにおける科学的研究を免れていない。 本研究では,基本物理学におけるMLの利用と,社会に直接影響を及ぼす他の事例との関係を分析する。 出版物の書誌分析から文献の詳細な議論、学界内外における生産的・活動的文脈の概観に至るまで、この問題のさまざまな側面に対処する。 分析は3つの重要な要素に基づいて行われる: 科学の非中立性は、歴史と社会との本質的な関係と理解される; アルゴリズムの非中立性は、プログラマの選択に依存する要素の存在という意味で、技術的進歩が何であれ排除できない; データ駆動科学(および社会)を支持するパラダイムシフトの問題点の性質である。 科学的な思考の普遍性が内部から排除されるということは、社会や政治の議論にも必要な第一歩となる。 これはMLのケーススタディにおける本研究の主題である。

The impact of Machine Learning (ML) algorithms in the age of big data and platform capitalism has not spared scientific research in academia. In this work, we will analyse the use of ML in fundamental physics and its relationship to other cases that directly affect society. We will deal with different aspects of the issue, from a bibliometric analysis of the publications, to a detailed discussion of the literature, to an overview on the productive and working context inside and outside academia. The analysis will be conducted on the basis of three key elements: the non-neutrality of science, understood as its intrinsic relationship with history and society; the non-neutrality of the algorithms, in the sense of the presence of elements that depend on the choices of the programmer, which cannot be eliminated whatever the technological progress is; the problematic nature of a paradigm shift in favour of a data-driven science (and society). The deconstruction of the presumed universality of scientific thought from the inside becomes in this perspective a necessary first step also for any social and political discussion. This is the subject of this work in the case study of ML.
翻訳日:2023-05-18 04:56:15 公開日:2020-05-27
# COVID-19情報デミックの議論の課題 -- データ、ツール、倫理

Challenges in Combating COVID-19 Infodemic -- Data, Tools, and Ethics ( http://arxiv.org/abs/2005.13691v1 )

ライセンス: Link先を確認
Kaize Ding, Kai Shu, Yichuan Li, Amrita Bhattacharjee, and Huan Liu(参考訳) 新型コロナウイルス(COVID-19)のパンデミックは世界的荒廃を続けているが、それに伴う多くの課題が浮かび上がっている。 私たちが直面している重要な課題のひとつは、最近集めたデータを効率的に効果的に利用し、典型的な情報過負荷問題であるCOVID-19インフォデミックと戦うための計算ツールを見つけることです。 新型コロナウイルスは、不確実性や解決策探索への熱意は、インフォデミックにとって有能な環境を提供する。 したがって、インフォデミックと闘い、新型コロナウイルスと対決し、生命維持や試行中の正常な注文の維持において、あらゆる生活に負の影響を和らげるために協力的に努力する必要がある。 新型コロナウイルスのインフォデミック(インフォデミック)と戦う立場にあるこの論文では、人間の優しさ、恐怖、無知を生かした、荒々しい陰謀論、誤報、および様々な種類の詐欺の実例を提供することによって、その必要性を説明する。 研究者や実践者が本能的に貢献し、支援したいという、新型コロナウイルス(covid-19)インフォデミックとの戦いにおける3つの重要な課題を提示する。 これら3つの課題が,集団知恵やクラウドソーシング,共同研究によって効果的に対処できることを実証する。

While the COVID-19 pandemic continues its global devastation, numerous accompanying challenges emerge. One important challenge we face is to efficiently and effectively use recently gathered data and find computational tools to combat the COVID-19 infodemic, a typical information overloading problem. Novel coronavirus presents many questions without ready answers; its uncertainty and our eagerness in search of solutions offer a fertile environment for infodemic. It is thus necessary to combat the infodemic and make a concerted effort to confront COVID-19 and mitigate its negative impact in all walks of life when saving lives and maintaining normal orders during trying times. In this position paper of combating the COVID-19 infodemic, we illustrate its need by providing real-world examples of rampant conspiracy theories, misinformation, and various types of scams that take advantage of human kindness, fear, and ignorance. We present three key challenges in this fight against the COVID-19 infodemic where researchers and practitioners instinctively want to contribute and help. We demonstrate that these three challenges can and will be effectively addressed by collective wisdom, crowdsourcing, and collaborative research.
翻訳日:2023-05-18 04:55:34 公開日:2020-05-27
# 単一閉じ込められたca$^+$イオンのrydbergスペクトル:フロッケ解析

Rydberg spectrum of a single trapped Ca$^+$ ion: A Floquet analysis ( http://arxiv.org/abs/2005.13659v1 )

ライセンス: Link先を確認
Mariusz Pawlak and H. R. Sadeghpour(参考訳) 我々は、ポールトラップ内の1つのCa$^+$イオンのレイドバーグスペクトルを、ハミルトントラップにイオンの様々な内部および外部結合項を組み込むことにより計算する。 結合項には、Ca$^+$のスピン軌道結合、電荷(電子とイオンのコア)と無線周波数および静電場とのカップリング、ポールトラップのイオン電子結合、イオン中心と質量のカップリングが含まれる。 電子Rydberg状態は、e^-$+Ca$^{2+}$の1電子モデルポテンシャルによって正確に記述され、多くの励起されたRydberg状態に対する正確なアイジネギー、量子欠陥パラメータ、および静的およびテンソル偏光性が得られる。 時間周期のrfハミルトニアンはフロッケ基底に拡大し、トラップ場を拡がったrydberg線はca$^+(23p)$とca$^+(52f)$ rydberg線の最近の観測と比較される。

We compute the Rydberg spectrum of a single Ca$^+$ ion in a Paul trap by incorporating various internal and external coupling terms of the ion to the trap in the Hamiltonian. The coupling terms include spin-orbit coupling in Ca$^+$, charge (electron and ionic core) coupling to the radio frequency and static fields, ion-electron coupling in the Paul trap, and ion center-of-mass coupling. The electronic Rydberg states are precisely described by a one-electron model potential for e$^-$+Ca$^{2+}$, and accurate eigenenergies, quantum defect parameters, and static and tensor polarizabilities for a number of excited Rydberg states are obtained. The time-periodic rf Hamiltonian is expanded in the Floquet basis, and the trapping-field-broadened Rydberg lines are compared with recent observations of Ca$^+(23P)$ and Ca$^+(52F)$ Rydberg lines.
翻訳日:2023-05-18 04:54:06 公開日:2020-05-27
# 格子中のトンクス・ジラルドー気体の励起スペクトル関数

Exact spectral function of a Tonks-Girardeau gas in a lattice ( http://arxiv.org/abs/2005.13646v1 )

ライセンス: Link先を確認
J. Settino, N. Lo Gullo, F. Plastina, A. Minguzzi(参考訳) 強相関系の単粒子スペクトル関数は、その動力学と輸送特性を記述するための必須成分である。 tonks-Girardeau系における強相互作用のある1次元ボース気体の正確なスペクトル関数を計算し、任意の種類の凝縮ポテンシャルに有効であり、格子上のボソンに応用して全スペクトル関数を全てのエネルギーと運動量スケールで求める方法を開発した。 3つの主要な特異点線が示されている。 最初の2つは、一様流体のリーブ-Iおよびリーブ-IIモードの類似体と同一視できるが、第3の2つは格子の存在によるものである。 スペクトル関数は、非線形ルッティンガー液体記述により予測されるように、リーブ-i とリーブ-ii 特異点に近いパワーロー挙動を示し、正確な指数を求める。 特に、リーブ-IIモードは、動的構造因子で何が起こるかとは異なるスペクトル関数のばらつきを示し、超低温原子を用いた実験でそれを探査する経路を提供する。

The single-particle spectral function of a strongly correlated system is an essential ingredient to describe its dynamics and transport properties. We develop a general method to calculate the exact spectral function of a strongly interacting one-dimensional Bose gas in the Tonks-Girardeau regime, valid for any type of confining potential, and apply it to bosons on a lattice to obtain the full spectral function, at all energy and momentum scales. We find that it displays three main singularity lines. The first two can be identified as the analogs of Lieb-I and Lieb-II modes of a uniform fluid; the third one, instead, is specifically due to the presence of the lattice. We show that the spectral function displays a power-law behaviour close to the Lieb-I and Lieb-II singularities, as predicted by the non-linear Luttinger liquid description, and obtain the exact exponents. In particular, the Lieb-II mode shows a divergence in the spectral function, differently from what happens in the dynamical structure factor, thus providing a route to probe it in experiments with ultracold atoms.
翻訳日:2023-05-18 04:53:42 公開日:2020-05-27
# 有限量子楽器

Finite Quantum Instruments ( http://arxiv.org/abs/2005.13642v1 )

ライセンス: Link先を確認
Stan Gudder(参考訳) この記事では、有限次元複素ヒルベルト空間$H$で表される量子系を考える。 まず、$h$ 上の有限可観測の概念を定義する。 次に、凸結合、後処理、シーケンシャルな製品の観点から可観測物を組み合わせる方法について論じる。 また、補完的かつ共存する可観測性も定義する。 次に,有限楽器とその対応可観測性について述べる。 観測対象の以前の組み合わせと関係を楽器に拡張し、それらの特性を比較する。 我々は4種類の楽器(identity, trivial, l\"uders, kraus instruments)を提示する。 これらのタイプは、楽器の動作の異なる方法を説明するために使用される。 次に,観測機器と観測機器の連立確率について考察する。 この記事は、測定モデルと測定する機器に関する議論で締めくくられている。

This article considers quantum systems described by a finite-dimensional complex Hilbert space $H$. We first define the concept of a finite observable on $H$. We then discuss ways of combining observables in terms of convex combinations, post-processing and sequential products. We also define complementary and coexistent observables. We then introduce finite instruments and their related compatible observables. The previous combinations and relations for observables are extended to instruments and their properties are compared. We present four types of instruments; namely, identity, trivial, L\"uders and Kraus instruments. These types are used to illustrate different ways that instruments can act. We next consider joint probabilities for observables and instruments. The article concludes with a discussion of measurement models and the instruments they measure.
翻訳日:2023-05-18 04:53:22 公開日:2020-05-27
# 適応波動作用素法によるパラメータ依存ハミルトニアンの固有値と固有ベクトルの計算

Calculating eigenvalues and eigenvectors of parameter-dependent hamiltonians using an adaptative wave operator method ( http://arxiv.org/abs/2005.13611v1 )

ライセンス: Link先を確認
Arnaud Leclerc and Georges Jolicard(参考訳) 適応活性部分空間を用いてパラメータ依存行列の固有値と固有ベクトルを計算する波動演算子法を提案する。 我々は、調整可能なパラメータが修正されたとき、連続した固有空間に従う適応プロジェクタを用いて、外部調整可能なパラメータや断熱的パラメータに依存するハミルトニアンを考える。 この方法は非エルミートハミルトニアンも扱うことができる。 固定されたアクティブ空間と標準ブロックダビッドソン法を用いた標準波動演算子アルゴリズムとの比較により、反復アルゴリズムを導出し、検証する。 提案するアプローチは競争力があり、一定メモリコストで数十イテレーション以内に収束する。 まず、4次元結合振動子モデルによるハミルトニアンの手法の能力について述べる。 また、強度や周波数の異なる強いレーザー場下での分子光解離へのより現実的な応用を示す。 例外点近傍におけるh${}_2^+$の光解離共鳴の写像を例示として計算する。

We propose a wave operator method to calculate eigenvalues and eigenvectors of large parameter-dependent matrices, using an adaptative active subspace. We consider a hamiltonian which depends on external adjustable or adiabatic parameters, using adaptative projectors which follow the successive eigenspaces when the adjustable parameters are modified. The method can also handle non-hermitian hamiltonians. An iterative algorithm is derived and tested through comparisons with a standard wave operator algorithm using a fixed active space and with a standard block-Davidson method. The proposed approach is competitive, it converges within a few dozen iterations at constant memory cost. We first illustrate the abilities of the method on a 4-D coupled oscillator model hamiltonian. A more realistic application to molecular photodissociation under intense laser fields with varying intensity or frequency is also presented. Maps of photodissociation resonances of H${}_2^+$ in the vicinity of exceptional points are calculated as an illustrative example.
翻訳日:2023-05-18 04:53:13 公開日:2020-05-27
# 多体局在系における測定誘起絡み合い遷移

Measurement-induced entanglement transitions in many-body localized systems ( http://arxiv.org/abs/2005.13603v1 )

ライセンス: Link先を確認
Oliver Lunt, Arijeet Pal(参考訳) 古典性誘導環境への量子絡み合いの弾力性は、量子多体系の基本的な側面と結びついている。 エンタングルメントのダイナミクスは、最近測定によって引き起こされるエンタングルメント遷移の文脈で研究され、臨界測定確率 $p_{c}$ において、定常エンタングルメントが体積則から面積則へ崩壊する。 興味深いことに、基礎となるユニタリダイナミクスが量子情報をいかにうまくスクランブルするかによって、$p_{c}$の値に区別がある。 強カオス系の場合、$p_{c} > 0$ であるのに対し、可積分モデルのような弱カオス系の場合、$p_{c} = 0$ である。 本研究では,基礎となるユニタリダイナミクスが多体局在化(MBL)されるシステムにおける,これらの測定誘起絡み合い遷移について検討する。 MBL系における創発的積分性は、測定ベースに応じて測定誘起遷移の性質が定性的に異なることを示しており、測定ベースがスクランブルされた場合、$p_{c} > 0$ であり、その場合、$p_{c} = 0$ である。 この機能はhaar-random回路モデルでは見られず、すべてのローカルオペレータが時間内にスクランブルされる。 p_{c} > 0$ で遷移が発生したとき、臨界指数 $\nu = 1.3(2)$ を得るために有限サイズのスケーリングを使い、2+0D パーコレーションの値に近い。 また、z = 0.98(4)$ の動的臨界指数と臨界点における R\'{e}nyi エントロピーの対数スケーリングも見出され、臨界点における基礎となる共形対称性が示唆される。 この研究は、測定によって引き起こされる絡み合い遷移の性質が、基礎となるユニタリダイナミクスのスクランブルな性質にどのように依存するかをさらに示している。 これは、開量子系における測定による絡み合った量子状態の制御とシミュレーションに関するさらなる疑問をもたらす。

The resilience of quantum entanglement to a classicality-inducing environment is tied to fundamental aspects of quantum many-body systems. The dynamics of entanglement has recently been studied in the context of measurement-induced entanglement transitions, where the steady-state entanglement collapses from a volume-law to an area-law at a critical measurement probability $p_{c}$. Interestingly, there is a distinction in the value of $p_{c}$ depending on how well the underlying unitary dynamics scramble quantum information. For strongly chaotic systems, $p_{c} > 0$, whereas for weakly chaotic systems, such as integrable models, $p_{c} = 0$. In this work, we investigate these measurement-induced entanglement transitions in a system where the underlying unitary dynamics are many-body localized (MBL). We demonstrate that the emergent integrability in an MBL system implies a qualitative difference in the nature of the measurement-induced transition depending on the measurement basis, with $p_{c} > 0$ when the measurement basis is scrambled and $p_{c} = 0$ when it is not. This feature is not found in Haar-random circuit models, where all local operators are scrambled in time. When the transition occurs at $p_{c} > 0$, we use finite-size scaling to obtain the critical exponent $\nu = 1.3(2)$, close to the value for 2+0D percolation. We also find a dynamical critical exponent of $z = 0.98(4)$ and logarithmic scaling of the R\'{e}nyi entropies at criticality, suggesting an underlying conformal symmetry at the critical point. This work further demonstrates how the nature of the measurement-induced entanglement transition depends on the scrambling nature of the underlying unitary dynamics. This leads to further questions on the control and simulation of entangled quantum states by measurements in open quantum systems.
翻訳日:2023-05-18 04:52:57 公開日:2020-05-27
# 多レベル減衰量子チャネルの古典的容量の束縛

Bounding the Classical Capacity of Multilevel Damping Quantum Channels ( http://arxiv.org/abs/2001.06486v2 )

ライセンス: Link先を確認
Chiara Macchiavello, Massimiliano F. Sacchi, Tito Sacchi(参考訳) 量子通信チャネルの古典的容量を証明する最近の手法は、有限次元の一般減衰チャネルに適用されている。 この方法は,2つの局所的な測定設定と古典的最適化によって得られるフーリエベースと,計算によって得られた相互情報を比較する。 異なる減衰構造の大規模代表クラスに対する結果を示す。

A recent method to certify the classical capacity of quantum communication channels is applied for general damping channels in finite dimension. The method compares the mutual information obtained by coding on the computational and a Fourier basis, which can be obtained by just two local measurement settings and classical optimization. The results for large representative classes of different damping structures are presented.
翻訳日:2023-01-10 12:44:34 公開日:2020-05-27
# 異常検出のための正規化サイクル一貫性生成対向ネットワーク

Regularized Cycle Consistent Generative Adversarial Network for Anomaly Detection ( http://arxiv.org/abs/2001.06591v2 )

ライセンス: Link先を確認
Ziyi Yang, Iman Soltani Bozchalooi and Eric Darve(参考訳) 本稿では,異常検出アルゴリズムについて検討する。 従来の異常検出手法は、トレーニング中に提供される非アノマラスデータの分布のモデル化に重点を置いている。 しかし、これは必ずしも異常データの正しい検出を保証するものではない。 本稿では, ニューラルネットワークを逆向きに訓練し, 異常なサンプルをよりよく認識するRCGAN(Regularized Cycle Consistent Generative Adversarial Network)を提案する。 この手法は、損失関数の新たな定義と識別器ネットワークの新規利用によるペナルティ分布の活用に基づいている。 これは固い数学的基礎に基づいており、我々の手法は現在の最先端技術と比較して異常な例を検出するための強い保証を持っていることを示す。 実世界および合成データにおける実験結果から,本モデルが従来の異常検出ベンチマークにおいて有意かつ一貫した改善をもたらすことが示された。 特に、RCGANはKDDCUP、Arrhythmia、Thyroid、Musk、CIFAR10データセットの最先端性を改善している。

In this paper, we investigate algorithms for anomaly detection. Previous anomaly detection methods focus on modeling the distribution of non-anomalous data provided during training. However, this does not necessarily ensure the correct detection of anomalous data. We propose a new Regularized Cycle Consistent Generative Adversarial Network (RCGAN) in which deep neural networks are adversarially trained to better recognize anomalous samples. This approach is based on leveraging a penalty distribution with a new definition of the loss function and novel use of discriminator networks. It is based on a solid mathematical foundation, and proofs show that our approach has stronger guarantees for detecting anomalous examples compared to the current state-of-the-art. Experimental results on both real-world and synthetic data show that our model leads to significant and consistent improvements on previous anomaly detection benchmarks. Notably, RCGAN improves on the state-of-the-art on the KDDCUP, Arrhythmia, Thyroid, Musk and CIFAR10 datasets.
翻訳日:2023-01-10 04:53:57 公開日:2020-05-27
# 可変長と不完全ウェアラブル感時系列の表現学習

Representation Learning on Variable Length and Incomplete Wearable-Sensory Time Series ( http://arxiv.org/abs/2002.03595v3 )

ライセンス: Link先を確認
Xian Wu, Chao Huang, Pablo Roblesgranda, Nitesh Chawla(参考訳) ウェアラブルセンサー(例えばスマートリストバンド)の普及は、個人の健康状態や健康状態だけでなく、人口統計やパーソナリティ属性を含む個人の属性を評価し、推測する前例のない機会を生み出している。 しかし、心拍数や歩数などのウェアラブルから取得したデータは、2つの重要な課題を示している。 1) 時系列は、データ収集期間が異なるため、しばしば可変長で不完全である(例えば、着用行動は人によって異なる)。 2)ストレスや環境などの外部要因に対する個人間変動 本稿は、これらの課題に対処し、個人に関するパーソナライズされた洞察の可能性に近づき、定量化された自己から資格ある自己へと飛躍する。 具体的には,時系列符号化モジュールとパターンアグリゲーションネットワークの統合により,時系列データを可変長・欠落値で符号化する。 さらに、heartspaceはsiamese-tripletネットワークを実装し、埋め込み学習プロセス中に、シリーズ内およびシリーズ間相関を共同で捉えて表現を最適化する。 2つの異なる実世界のデータに対する実証的な評価は、人格予測、人口統計推定、ユーザー識別など、さまざまなアプリケーションにおいて、最先端のベースラインよりも大きなパフォーマンス向上を示す。

The prevalence of wearable sensors (e.g., smart wristband) is creating unprecedented opportunities to not only inform health and wellness states of individuals, but also assess and infer personal attributes, including demographic and personality attributes. However, the data captured from wearables, such as heart rate or number of steps, present two key challenges: 1) the time series is often of variable-length and incomplete due to different data collection periods (e.g., wearing behavior varies by person); and 2) inter-individual variability to external factors like stress and environment. This paper addresses these challenges and brings us closer to the potential of personalized insights about an individual, taking the leap from quantified self to qualified self. Specifically, HeartSpace proposed in this paper encodes time series data with variable-length and missing values via the integration of a time series encoding module and a pattern aggregation network. Additionally, HeartSpace implements a Siamese-triplet network to optimize representations by jointly capturing intra- and inter-series correlations during the embedding learning process. The empirical evaluation over two different real-world data presents significant performance gains overstate-of-the-art baselines in a variety of applications, including personality prediction, demographics inference, and user identification.
翻訳日:2023-01-02 08:17:21 公開日:2020-05-27
# リアルタイム意味的背景減算

Real-Time Semantic Background Subtraction ( http://arxiv.org/abs/2002.04993v3 )

ライセンス: Link先を確認
Anthony Cioppa and Marc Van Droogenbroeck and Marc Braham(参考訳) 意味的背景減算sbは、意味的セグメンテーションネットワークから派生した意味的情報と組み合わせて、ほとんどの背景減算アルゴリズムの性能を向上させることが示されている。 しかし、SBSは全てのフレームに対して高品質なセマンティックセグメンテーションマスクを必要とし、計算が遅い。 さらに、最先端のバックグラウンド減算アルゴリズムの多くはリアルタイムではないため、現実のアプリケーションには適さない。 本稿では,リアルタイム制約されたアプリケーションに対して,同様の性能を維持しながらSBSを拡張したReal-Time Semantic background Subtraction(RT-SBS)という新しいバックグラウンドサブトラクションアルゴリズムを提案する。 RT-SBSは、リアルタイムバックグラウンドサブトラクションアルゴリズムと高品質なセマンティック情報とを効果的に組み合わせ、各ピクセルに対して独立して遅い速度で提供することができる。 vibeと組み合わされたrt-sbは、リアルタイムのバックグラウンド減算アルゴリズムの新しい状態を設定し、非リアルタイムの最先端技術とさえ競合する。 RT-SBSのpython CPUとGPU実装はhttps://github.com/cioppaanthony/rt-sbsで提供しています。

Semantic background subtraction SBS has been shown to improve the performance of most background subtraction algorithms by combining them with semantic information, derived from a semantic segmentation network. However, SBS requires high-quality semantic segmentation masks for all frames, which are slow to compute. In addition, most state-of-the-art background subtraction algorithms are not real-time, which makes them unsuitable for real-world applications. In this paper, we present a novel background subtraction algorithm called Real-Time Semantic Background Subtraction (denoted RT-SBS) which extends SBS for real-time constrained applications while keeping similar performances. RT-SBS effectively combines a real-time background subtraction algorithm with high-quality semantic information which can be provided at a slower pace, independently for each pixel. We show that RT-SBS coupled with ViBe sets a new state of the art for real-time background subtraction algorithms and even competes with the non real-time state-of-the-art ones. Note that we provide python CPU and GPU implementations of RT-SBS at https://github.com/cioppaanthony/rt-sbs.
翻訳日:2023-01-01 19:56:22 公開日:2020-05-27
# 自閉症と他の課題における大規模混合サイトfMRIデータセットの深層学習

Ensemble Deep Learning on Large, Mixed-Site fMRI Datasets in Autism and Other Tasks ( http://arxiv.org/abs/2002.07874v2 )

ライセンス: Link先を確認
Matthew Leming, Juan Manuel G\'orriz, John Suckling(参考訳) mri分類のためのディープラーニングモデルは、通常、サンプルサイズが小さいため制限され、自身の複雑性("ブラックボックス問題")によって抽象化されるという、繰り返し発生する2つの問題に直面している。 本稿では,43,858個のデータポイントからなる,これまでコンパイルされた最大のマルチソース機能MRIコネクトロミックデータセットを用いた畳み込みニューラルネットワーク(CNN)を訓練する。 このモデルを自閉症(asd)と典型的発達制御(td)の断面比較に適用し,推定統計を特徴付けることが困難であった。 これらの知見を文脈化するために,ジェンダーとタスクと休息の分類を行う。 トレーニングセットの構築にクラスバランシングを採用することで、3$\times$300の修正CNNをアンサンブルモデルでトレーニングし、AUROC全体の0.6774、0.7680、0.9222で、それぞれASD対TD、ジェンダー、タスク、レストを分類しました。 さらに,2つの可視化手法を用いて,この文脈におけるブラックボックス問題に対処することを目指す。 まず、クラスアクティベーションマップは、モデルが分類を行う際の脳の機能的接続を示す。 第2に,隠れたレイヤの最大アクティベーションを分析することで,モデルが大規模かつ混合中心のデータセットをどのように構成するかを探究し,隠れたレイヤの特定の領域を,さまざまなデータ共変量を処理するために(解析された独立変数に依存する),異なるソースからデータを混合する他の領域に限定することに成功した。 本研究では,ASDとTD制御を区別する深層学習モデルが時間的および小脳の接続に大きく焦点をあてており,特に右因果核と副中央軸に焦点をあてている。

Deep learning models for MRI classification face two recurring problems: they are typically limited by low sample size, and are abstracted by their own complexity (the "black box problem"). In this paper, we train a convolutional neural network (CNN) with the largest multi-source, functional MRI (fMRI) connectomic dataset ever compiled, consisting of 43,858 datapoints. We apply this model to a cross-sectional comparison of autism (ASD) vs typically developing (TD) controls that has proved difficult to characterise with inferential statistics. To contextualise these findings, we additionally perform classifications of gender and task vs rest. Employing class-balancing to build a training set, we trained 3$\times$300 modified CNNs in an ensemble model to classify fMRI connectivity matrices with overall AUROCs of 0.6774, 0.7680, and 0.9222 for ASD vs TD, gender, and task vs rest, respectively. Additionally, we aim to address the black box problem in this context using two visualization methods. First, class activation maps show which functional connections of the brain our models focus on when performing classification. Second, by analyzing maximal activations of the hidden layers, we were also able to explore how the model organizes a large and mixed-centre dataset, finding that it dedicates specific areas of its hidden layers to processing different covariates of data (depending on the independent variable analyzed), and other areas to mix data from different sources. Our study finds that deep learning models that distinguish ASD from TD controls focus broadly on temporal and cerebellar connections, with a particularly high focus on the right caudate nucleus and paracentral sulcus.
翻訳日:2023-01-01 04:51:04 公開日:2020-05-27
# 情報検索とディープニューラルネットワークの観点からのテキストベース質問応答--調査

Text-based Question Answering from Information Retrieval and Deep Neural Network Perspectives: A Survey ( http://arxiv.org/abs/2002.06612v2 )

ライセンス: Link先を確認
Zahra Abbasiantaeb and Saeedeh Momtazi(参考訳) テキストベースの質問回答(QA)は,ユーザの質問に対する簡潔な回答を見つけることを目的とした課題である。 この研究は情報検索技術で広く研究されており、深層ニューラルネットワークのアプローチを考えることで近年注目を集めている。 本論文の主な焦点であるディープラーニングアプローチは,複数のレイヤの表現と質問とテキスト間の相互作用を学習する強力な技術を提供する。 本稿では、従来の情報検索の視点と、より最近のディープニューラルネットワークの視点の両方を含む、QAタスクのために提案された様々なモデルの概要について述べる。 また、タスクのよく知られたデータセットを導入し、異なる手法の比較を行うために文献から利用可能な結果を提示する。

Text-based Question Answering (QA) is a challenging task which aims at finding short concrete answers for users' questions. This line of research has been widely studied with information retrieval techniques and has received increasing attention in recent years by considering deep neural network approaches. Deep learning approaches, which are the main focus of this paper, provide a powerful technique to learn multiple layers of representations and interaction between questions and texts. In this paper, we provide a comprehensive overview of different models proposed for the QA task, including both traditional information retrieval perspective, and more recent deep neural network perspective. We also introduce well-known datasets for the task and present available results from the literature to have a comparison between different techniques.
翻訳日:2022-12-31 17:50:11 公開日:2020-05-27
# 深層学習におけるグラフの確率的符号化は、英国バイオバンクの安静状態およびタスク機能脳ネットワークにおけるジェンダー分類の複雑な解析を可能にする

Stochastic encoding of graphs in deep learning allows for complex analysis of gender classification in resting-state and task functional brain networks from the UK Biobank ( http://arxiv.org/abs/2002.10936v2 )

ライセンス: Link先を確認
Matthew Leming, John Suckling(参考訳) 畳み込みニューラルネットワーク(cnns)を用いた脳機能結合mriデータの分類は有望であるが、これらのモデルの複雑さは脳活動のどの側面が分類に寄与するかを理解することを妨げる。 cnnを解釈するために可視化技術が開発されている一方で、抽象入力データのエンコーディング方法に固有のバイアスや、ディープラーニングモデルの自然分散は、これらの手法の正確さから引き離されている。 機能的コネクトームを性別別に分類するために,CNNのアンサンブルに確率的符号化手法を導入する。 本手法を英国バイオバンクの安静状態とタスクデータに適用し,タスク状態と安静状態に関わる3つの脳ネットワークの塩分と相互作用を2つの可視化手法で測定した。 頭の動き, 年齢, 頭蓋内容積などの相違要因を抑えるため, データ内のクラス間での同値分布を確保するために, 多変量バランスアルゴリズムを導入した。 最終的なAUROCは0.8459。 その結果,3つのネットワークにおいて,タスクデータの分類において,内部サリエンスネットワークが最も重要な役割を担い,中央エグゼクティブネットワークへの接続がタスクデータよりも正確に分類できることが判明した。

Classification of whole-brain functional connectivity MRI data with convolutional neural networks (CNNs) has shown promise, but the complexity of these models impedes understanding of which aspects of brain activity contribute to classification. While visualization techniques have been developed to interpret CNNs, bias inherent in the method of encoding abstract input data, as well as the natural variance of deep learning models, detract from the accuracy of these techniques. We introduce a stochastic encoding method in an ensemble of CNNs to classify functional connectomes by gender. We applied our method to resting-state and task data from the UK BioBank, using two visualization techniques to measure the salience of three brain networks involved in task- and resting-states, and their interaction. To regress confounding factors such as head motion, age, and intracranial volume, we introduced a multivariate balancing algorithm to ensure equal distributions of such covariates between classes in our data. We achieved a final AUROC of 0.8459. We found that resting-state data classifies more accurately than task data, with the inner salience network playing the most important role of the three networks overall in classification of resting-state data and connections to the central executive network in task data.
翻訳日:2022-12-28 21:09:39 公開日:2020-05-27
# 3次元点雲に対する領域適応グラフフーリエ変換

Region adaptive graph fourier transform for 3d point clouds ( http://arxiv.org/abs/2003.01866v2 )

ライセンス: Link先を確認
Eduardo Pavez, Benjamin Girault, Antonio Ortega and Philip A. Chou(参考訳) 本稿では,3次元点雲特性の圧縮のための領域適応グラフフーリエ変換(RA-GFT)を提案する。 RA-GFTは、空間的局所化されたブロック変換を組み合わせた多分解能変換である。 ポイントは根木で表されるネストされたパーティションの族によって構成されると仮定する。 各解像度レベルでは、属性はブロック変換を使用してクラスタで処理される。 各ブロック変換は、単一の近似(DC)係数と様々な詳細(AC)係数を生成する。 dc係数は木を次の(より低い分解能の)レベルまで押し上げられ、根に達するまでプロセスを繰り返すことができる。 クラスタは点数が異なる場合があるため、各ブロック変換は各係数の相対的重要性を組み込まなければならない。 これに対し、$\mathbf{Q}$-normalized graph Laplacianを導入し、その固有ベクトルをブロック変換として使用することを提案する。 RA-GFTは従来の手法よりも複雑性と性能のトレードオフが優れている。 特に、Regional Adaptive Haar Transform(RAHT)を2.5dBまで上回り、複雑さのオーバーヘッドが小さい。

We introduce the Region Adaptive Graph Fourier Transform (RA-GFT) for compression of 3D point cloud attributes. The RA-GFT is a multiresolution transform, formed by combining spatially localized block transforms. We assume the points are organized by a family of nested partitions represented by a rooted tree. At each resolution level, attributes are processed in clusters using block transforms. Each block transform produces a single approximation (DC) coefficient, and various detail (AC) coefficients. The DC coefficients are promoted up the tree to the next (lower resolution) level, where the process can be repeated until reaching the root. Since clusters may have a different numbers of points, each block transform must incorporate the relative importance of each coefficient. For this, we introduce the $\mathbf{Q}$-normalized graph Laplacian, and propose using its eigenvectors as the block transform. The RA-GFT achieves better complexity-performance trade-offs than previous approaches. In particular, it outperforms the Region Adaptive Haar Transform (RAHT) by up to 2.5 dB, with a small complexity overhead.
翻訳日:2022-12-26 13:55:20 公開日:2020-05-27
# 重み付け平均化によるSGDの再検討:最適化と一般化の展望

Revisiting SGD with Increasingly Weighted Averaging: Optimization and Generalization Perspectives ( http://arxiv.org/abs/2003.04339v3 )

ライセンス: Link先を確認
Zhishuai Guo, Yan Yan and Tianbao Yang(参考訳) 確率勾配降下(SGD)は、様々な角度から文献で広く研究されており、多くのビッグデータ機械学習問題の解法として一般的に用いられている。 しかし、全ての反復解を単一の解に結合する平均化手法はまだ未検討のままである。 重み付けされた平均化スキームが文献で検討されているが、既存の作品はほとんどが強凸目的関数と最適化誤差の収束に制限されている。 これらの平均化スキームが、非凸問題を含む {\bf の非強凸目的に対して、最適化誤差と一般化誤差の両方の収束にどのように影響するかは、まだ不明である。 本稿では,最適化誤差と一般化誤差の両方の観点から,凸,強凸,非凸目的関数の重み付け平均を包括的に解析することによって,ギャップを埋める。 特に、ますます重み付けが増す平均化の族を分析し、イテレーション $t$ の解の重みは $t^{\alpha}$ (\alpha > 0$) に比例する。 我々は$\alpha$が最適化誤差と一般化誤差にどのように影響するかを示し、$\alpha$によるトレードオフを示す。 このトレードオフと多項式的に重み付き平均化の有効性を、ディープラーニングを含む幅広い問題に対する他の平均化方式と比較して実証した。

Stochastic gradient descent (SGD) has been widely studied in the literature from different angles, and is commonly employed for solving many big data machine learning problems. However, the averaging technique, which combines all iterative solutions into a single solution, is still under-explored. While some increasingly weighted averaging schemes have been considered in the literature, existing works are mostly restricted to strongly convex objective functions and the convergence of optimization error. It remains unclear how these averaging schemes affect the convergence of {\it both optimization error and generalization error} (two equally important components of testing error) for {\bf non-strongly convex objectives, including non-convex problems}. In this paper, we {\it fill the gap} by comprehensively analyzing the increasingly weighted averaging on convex, strongly convex and non-convex objective functions in terms of both optimization error and generalization error. In particular, we analyze a family of increasingly weighted averaging, where the weight for the solution at iteration $t$ is proportional to $t^{\alpha}$ ($\alpha > 0$). We show how $\alpha$ affects the optimization error and the generalization error, and exhibit the trade-off caused by $\alpha$. Experiments have demonstrated this trade-off and the effectiveness of polynomially increased weighted averaging compared with other averaging schemes for a wide range of problems including deep learning.
翻訳日:2022-12-25 08:16:50 公開日:2020-05-27
# ハイブリッド・トランスファー・ラーニングを用いた近代マンモグラフィによる乳癌の診断

Diagnosis of Breast Cancer Based on Modern Mammography using Hybrid Transfer Learning ( http://arxiv.org/abs/2003.13503v3 )

ライセンス: Link先を確認
Aditya Khamparia, Subrato Bharati, Prajoy Podder, Deepak Gupta, Ashish Khanna, Thai Kim Phung, Dang N. H. Thanh(参考訳) 乳癌は女性にとって一般的ながんである。 乳がんの早期発見は女性の生存率を大幅に増加させる可能性がある。 本論文は,乳癌検出のための転写学習プロセスに焦点をあてる。 本稿では, 改良VGG(MVGG), 残差ネットワーク, 移動ネットワークを提案し, 実装した。 本論文ではDDSMデータセットを用いる。 実験の結果,提案したハイブリッドトランスファー学習モデル(MVGG16とImageNetの融合)は,エポック数が15の88.3%の精度を提供することがわかった。 一方、修正VGG 16アーキテクチャ(MVGG 16)のみが80.8%の精度を提供し、MobileNetは77.2%の精度を提供する。 したがって、提案したハイブリッド事前学習ネットワークは、単一アーキテクチャと比較して優れた性能を示す。 このアーキテクチャは、偽陰性率と偽陽性率を減らすために、放射線科医にとって有効なツールと見なすことができる。 そのため,マンモグラフィー解析の効率化が期待できる。

Breast cancer is a common cancer for women. Early detection of breast cancer can considerably increase the survival rate of women. This paper mainly focuses on transfer learning process to detect breast cancer. Modified VGG (MVGG), residual network, mobile network is proposed and implemented in this paper. DDSM dataset is used in this paper. Experimental results show that our proposed hybrid transfers learning model (Fusion of MVGG16 and ImageNet) provides an accuracy of 88.3% where the number of epoch is 15. On the other hand, only modified VGG 16 architecture (MVGG 16) provides an accuracy 80.8% and MobileNet provides an accuracy of 77.2%. So, it is clearly stated that the proposed hybrid pre-trained network outperforms well compared to single architecture. This architecture can be considered as an effective tool for the radiologists in order to reduce the false negative and false positive rate. Therefore, the efficiency of mammography analysis will be improved.
翻訳日:2022-12-21 00:09:06 公開日:2020-05-27
# 繰り返しスパイクニューラルネットワークモデルの遺伝的アルゴリズムパラメータ最適化

Genetic Algorithmic Parameter Optimisation of a Recurrent Spiking Neural Network Model ( http://arxiv.org/abs/2003.13850v2 )

ライセンス: Link先を確認
Ifeatu Ezenwe, Alok Joshi and KongFatt Wong-Lin(参考訳) ニューラルネットワークは、人間の脳の振る舞いをゆるくモデル化する複雑なアルゴリズムである。 計算神経科学と人工知能において重要な役割を果たしている。 次世代のニューラルネットワークモデルは、スパイキングニューラルネットワーク(SNN)と呼ばれるニューロンのスパイクタイミングアクティビティに基づいている。 しかし,SNNにおけるモデルパラメータの探索と最適化は困難である。 遺伝的アルゴリズム (ga) によるsnsの最適化は, 主に単純, フィードフォワード, 振動ネットワークに焦点が当てられていたが, 皮質様再帰的snsの最適化についてはあまり研究されていない。 本研究では,再帰的なSNNにおける最適パラメータの探索にGAを用いて,標的となる神経細胞の発火率,例えば実験観察に用いた。 計算効率と生物学的リアリズムのために,1000個のIzhikevich刺激ニューロンからなる皮質柱型SNNを検討した。 検討されたモデルパラメータは、ニューロンバイアス入力電流である。 まず, このSNNについて, 対象人口平均発射活動の最適パラメータ値と, 約100世代毎のアルゴリズムの収束について検討した。 その結果, GAの最適個体数は ~16-20 の範囲内であり, クロスオーバー率は ~0.95 であった。 全体として、我々は、反復する皮質SNNにおいてモデルパラメータを最適化するためのGAの実装の可能性を示した。

Neural networks are complex algorithms that loosely model the behaviour of the human brain. They play a significant role in computational neuroscience and artificial intelligence. The next generation of neural network models is based on the spike timing activity of neurons: spiking neural networks (SNNs). However, model parameters in SNNs are difficult to search and optimise. Previous studies using genetic algorithm (GA) optimisation of SNNs were focused mainly on simple, feedforward, or oscillatory networks, but not much work has been done on optimising cortex-like recurrent SNNs. In this work, we investigated the use of GAs to search for optimal parameters in recurrent SNNs to reach targeted neuronal population firing rates, e.g. as in experimental observations. We considered a cortical column based SNN comprising 1000 Izhikevich spiking neurons for computational efficiency and biologically realism. The model parameters explored were the neuronal biased input currents. First, we found for this particular SNN, the optimal parameter values for targeted population averaged firing activities, and the convergence of algorithm by ~100 generations. We then showed that the GA optimal population size was within ~16-20 while the crossover rate that returned the best fitness value was ~0.95. Overall, we have successfully demonstrated the feasibility of implementing GA to optimise model parameters in a recurrent cortical based SNN.
翻訳日:2022-12-18 07:35:34 公開日:2020-05-27
# モデルフリー強化学習によるロボットテーブルテニス

Robotic Table Tennis with Model-Free Reinforcement Learning ( http://arxiv.org/abs/2003.14398v2 )

ライセンス: Link先を確認
Wenbo Gao and Laura Graesser and Krzysztof Choromanski and Xingyou Song and Nevena Lazic and Pannag Sanketi and Vikas Sindhwani and Navdeep Jaitly(参考訳) 本稿では,100Hzの速度でロボット関節を制御することで,卓球を返却できる効率的なポリシーを学習するためのモデルフリーアルゴリズムを提案する。 我々は,非視覚入力のためのcnnベースのポリシーアーキテクチャに作用する進化的探索(es)手法が,スムースな動作につながるコンパクトなコントローラを学習することを示す。 さらに,課題や報酬を適切に調整したカリキュラム学習を行うことで,多モードスタイル,特に前手やバックハンドストロークを発達させ,幅広い球球投球において80-%のリターン率を達成できることを示す。 マルチモダリティは、マルチヘッドアーキテクチャや階層的なポリシーなど、アーキテクチャの先行を一切必要としない。

We propose a model-free algorithm for learning efficient policies capable of returning table tennis balls by controlling robot joints at a rate of 100Hz. We demonstrate that evolutionary search (ES) methods acting on CNN-based policy architectures for non-visual inputs and convolving across time learn compact controllers leading to smooth motions. Furthermore, we show that with appropriately tuned curriculum learning on the task and rewards, policies are capable of developing multi-modal styles, specifically forehand and backhand stroke, whilst achieving 80\% return rate on a wide range of ball throws. We observe that multi-modality does not require any architectural priors, such as multi-head architectures or hierarchical policies.
翻訳日:2022-12-18 00:29:14 公開日:2020-05-27
# スコア誘導型生成型逆ネットワーク

Score-Guided Generative Adversarial Networks ( http://arxiv.org/abs/2004.04396v2 )

ライセンス: Link先を確認
Minhyeok Lee and Junhee Seok(参考訳) 本稿では,事前学習ネットワークを用いた評価モジュールを導入したGAN(Generative Adversarial Network)を提案する。 提案モデルはスコア誘導GAN(ScoreGAN)と呼ばれ,GANの評価基準,すなわちインセプションスコアを,発電機のトレーニングのための粗いガイドとしてトレーニングする。 インセプションネットワークの代わりにトレーニング済みの別のネットワークを使用することで、ScoreGANはインセプションネットワークのオーバーフィッティングを回避し、生成されたサンプルはインセプションネットワークの敵の例に対応しない。 また, オーバーフィッティングを防止するため, 評価指標を補助的役割としてのみ使用し, 従来の目標であるGANを主に使用した。 CIFAR-10データセットで評価され、ScoreGANは10.36$\pm$0.15のインセプションスコアを示した。 さらに、ScoreGANの有効性を一般化するために、このモデルはCIFAR-100という別のデータセットでさらに評価され、その結果、Fr'echet Inception Distance (FID)が13.98である他の既存の手法よりも優れていた。

We propose a Generative Adversarial Network (GAN) that introduces an evaluator module using pre-trained networks. The proposed model, called score-guided GAN (ScoreGAN), is trained with an evaluation metric for GANs, i.e., the Inception score, as a rough guide for the training of the generator. By using another pre-trained network instead of the Inception network, ScoreGAN circumvents the overfitting of the Inception network in order that generated samples do not correspond to adversarial examples of the Inception network. Also, to prevent the overfitting, the evaluation metrics are employed only as an auxiliary role, while the conventional target of GANs is mainly used. Evaluated with the CIFAR-10 dataset, ScoreGAN demonstrated an Inception score of 10.36$\pm$0.15, which corresponds to state-of-the-art performance. Furthermore, to generalize the effectiveness of ScoreGAN, the model was further evaluated with another dataset, i.e., the CIFAR-100; as a result, ScoreGAN outperformed the other existing methods, where the Fr\'echet Inception Distance (FID) was 13.98.
翻訳日:2022-12-15 02:38:17 公開日:2020-05-27
# Y-net: バイオメディカルイメージセグメンテーションとクラスタリング

Y-net: Biomedical Image Segmentation and Clustering ( http://arxiv.org/abs/2004.05698v2 )

ライセンス: Link先を確認
Sharmin Pathan, Anant Tripathi(参考訳) 医用画像解析のための画像分割を伴う深層クラスタリングアーキテクチャを提案する。 主なアイデアは、被験者のサンプルにある疾患の重症度に関するイメージを教師なしの学習で収集し、このイメージを分割して関心のある領域をハイライト・アウトラインする。 まず、画像のセグメンテーションのためのオートエンコーダのトレーニングから始める。 オートエンコーダからのエンコーダ部は、クラスタリングノードとセグメンテーションノードに分岐する。 kmeansクラスタリングを用いたディープクラスタリングはクラスタリングブランチで行われ、セグメンテーションには軽量モデルが使用される。 各ブランチはautoencoderから抽出された機能を使用する。 我々はISIC 2018 Skin Lesion Analysis towardss Melanoma Detection and Cityscapes datasets for segmentation and clusteringでこの結果を示した。 提案されたアーキテクチャは、2つのデータセットでUNetとDeepLabの結果を上回り、パラメータの数は半分以下である。 イメージを4つのクラスタにクラスタリングするために、deep clusteringブランチを使用します。 医療画像の複雑なデータセットを用いて,重症疾患の生存予測を解析したり,疾患の進展状況に基づいて治療をカスタマイズしたりすることができる。 クラスタリングの患者は、実際の価値ある機能に対して、どのようにバイナリを行うべきかを理解するのに役立つ。 提案されたアーキテクチャは、データセットが大きくなるとかなりコストがかかるため、早期診断を提供し、ラベル付けへの人間の介入を減らすことができる。 主なアイデアは、ディープクラスタリングによるセグメンテーションへのワンショットアプローチを提案することである。

We propose a deep clustering architecture alongside image segmentation for medical image analysis. The main idea is based on unsupervised learning to cluster images on severity of the disease in the subject's sample, and this image is then segmented to highlight and outline regions of interest. We start with training an autoencoder on the images for segmentation. The encoder part from the autoencoder branches out to a clustering node and segmentation node. Deep clustering using Kmeans clustering is performed at the clustering branch and a lightweight model is used for segmentation. Each of the branches use extracted features from the autoencoder. We demonstrate our results on ISIC 2018 Skin Lesion Analysis Towards Melanoma Detection and Cityscapes datasets for segmentation and clustering. The proposed architecture beats UNet and DeepLab results on the two datasets, and has less than half the number of parameters. We use the deep clustering branch for clustering images into four clusters. Our approach can be applied to work with high complexity datasets of medical imaging for analyzing survival prediction for severe diseases or customizing treatment based on how far the disease has propagated. Clustering patients can help understand how binning should be done on real valued features to reduce feature sparsity and improve accuracy on classification tasks. The proposed architecture can provide an early diagnosis and reduce human intervention on labeling as it can become quite costly as the datasets grow larger. The main idea is to propose a one shot approach to segmentation with deep clustering.
翻訳日:2022-12-14 05:23:24 公開日:2020-05-27
# mopt:マルチオブジェクトのpanopticトラッキング

MOPT: Multi-Object Panoptic Tracking ( http://arxiv.org/abs/2004.08189v2 )

ライセンス: Link先を確認
Juana Valeria Hurtado, Rohit Mohan, Wolfram Burgard, Abhinav Valada(参考訳) ダイナミックシーンの包括的理解は、インテリジェントロボットが環境の中で自律的に操作する上で重要な前提条件である。 多様な知覚問題を含むこの領域の研究は、動的シーンの全体的理解能力をモデル化するのではなく、個々のタスクに個別に対処することに焦点を当ててきた。 本稿では,意味セグメンテーション,インスタンスセグメンテーション,マルチオブジェクトトラッキングといった従来と異なるタスクを統合するマルチオブジェクト・パンオプティカル・トラッキング(mopt)と呼ばれる新しい知覚タスクを提案する。 MOPTは、個々のサブプロブレムの相互利益のために、"thing"クラスと"stuff"クラスのピクセルレベルの意味情報、時間的コヒーレンス、ピクセルレベルの関連を活用できる。 そこで本研究では,MOPTの定量的評価を容易にするために,SPTQ(Soft Panoptic Track Quality)尺度を提案する。 この課題に対処する第一歩として、最先端のパン光学分割ネットワークであるEfficientPS上に構築された新しいPanopticTrackNetアーキテクチャを提案する。 さらに,最先端のパノプティクスセグメンテーションと,比較対象の多対象追跡モデルからの予測を組み合わせた,強力なベースラインを提示する。 視覚ベースとLiDARベースのMOPTの定量的,定性的な評価を行い,その効果を実証した。

Comprehensive understanding of dynamic scenes is a critical prerequisite for intelligent robots to autonomously operate in their environment. Research in this domain, which encompasses diverse perception problems, has primarily been focused on addressing specific tasks individually rather than modeling the ability to understand dynamic scenes holistically. In this paper, we introduce a novel perception task denoted as multi-object panoptic tracking (MOPT), which unifies the conventionally disjoint tasks of semantic segmentation, instance segmentation, and multi-object tracking. MOPT allows for exploiting pixel-level semantic information of 'thing' and 'stuff' classes, temporal coherence, and pixel-level associations over time, for the mutual benefit of each of the individual sub-problems. To facilitate quantitative evaluations of MOPT in a unified manner, we propose the soft panoptic tracking quality (sPTQ) metric. As a first step towards addressing this task, we propose the novel PanopticTrackNet architecture that builds upon the state-of-the-art top-down panoptic segmentation network EfficientPS by adding a new tracking head to simultaneously learn all sub-tasks in an end-to-end manner. Additionally, we present several strong baselines that combine predictions from state-of-the-art panoptic segmentation and multi-object tracking models for comparison. We present extensive quantitative and qualitative evaluations of both vision-based and LiDAR-based MOPT that demonstrate encouraging results.
翻訳日:2022-12-12 13:07:34 公開日:2020-05-27
# 文書画像における自己教師付き表現学習

Self-Supervised Representation Learning on Document Images ( http://arxiv.org/abs/2004.10605v2 )

ライセンス: Link先を確認
Adrian Cosma, Mihai Ghidoveanu, Michael Panaitescu-Liess and Marius Popescu(参考訳) 本研究は,文書画像分類における自己指導型事前学習が文書画像に与える影響を分析する。 従来,自然画像に対する自己監督の効果について検討してきたが,パッチベースの事前学習は,その構造的特性やサンプル内意味情報の低さから,文書画像に対して不十分な効果を示した。 本研究では,タバコ3482画像分類タスクの性能を向上させるための2つのコンテキスト対応手法を提案する。 また,データ量に制限のある文書画像分類シナリオにおいて,教師付きイメージネット事前学習を含む他の一般的な自己教師付き手法よりも優れた文書(画像とテキスト)のマルチモーダリティを利用する自己監督手法を提案する。

This work analyses the impact of self-supervised pre-training on document images in the context of document image classification. While previous approaches explore the effect of self-supervision on natural images, we show that patch-based pre-training performs poorly on document images because of their different structural properties and poor intra-sample semantic information. We propose two context-aware alternatives to improve performance on the Tobacco-3482 image classification task. We also propose a novel method for self-supervision, which makes use of the inherent multi-modality of documents (image and text), which performs better than other popular self-supervised methods, including supervised ImageNet pre-training, on document image classification scenarios with a limited amount of data.
翻訳日:2022-12-12 05:00:54 公開日:2020-05-27
# ディープニューラルネットワークに対するライブトロイの木馬攻撃

Live Trojan Attacks on Deep Neural Networks ( http://arxiv.org/abs/2004.11370v2 )

ライセンス: Link先を確認
Robby Costales, Chengzhi Mao, Raphael Norwitz, Bryan Kim, Junfeng Yang(参考訳) すべてのソフトウェアシステムと同様に、ディープラーニングモデルの実行は、部分的には、メモリ内のデータとして表現されるロジックによって決定される。 何十年もの間、攻撃者は従来のソフトウェアプログラムを利用してデータを操作してきた。 本研究では,メモリ内のモデルパラメータをパッチし,特定の入力に対して予め定義された悪意のある動作を実現するディープラーニングシステムに対するライブ攻撃を提案する。 これらのパッチのサイズと数を最小限にすることで、攻撃者はネットワーク通信とメモリ上書きの量を減らし、システム障害や検出可能な副作用の最小限のリスクを負う。 複数のディープラーニングモデルに対する効率的なパッチ計算により,この攻撃の可能性を示す。 所望のトロイの木馬行動は、少数の小さなパッチで誘導でき、訓練データへのアクセスも制限されている。 この攻撃が実際のシステムでどのように実行されるかの詳細を説明し、WindowsとLinuxでTensorFlowモデルパラメータをパッチするサンプルコードを提供する。 最後に,現在最先端のトロイの木馬検出技術であるSTRIPをバイパスするために,摂動入力のエントロピーを効果的に操作する手法を提案する。

Like all software systems, the execution of deep learning models is dictated in part by logic represented as data in memory. For decades, attackers have exploited traditional software programs by manipulating this data. We propose a live attack on deep learning systems that patches model parameters in memory to achieve predefined malicious behavior on a certain set of inputs. By minimizing the size and number of these patches, the attacker can reduce the amount of network communication and memory overwrites, with minimal risk of system malfunctions or other detectable side effects. We demonstrate the feasibility of this attack by computing efficient patches on multiple deep learning models. We show that the desired trojan behavior can be induced with a few small patches and with limited access to training data. We describe the details of how this attack is carried out on real systems and provide sample code for patching TensorFlow model parameters in Windows and in Linux. Lastly, we present a technique for effectively manipulating entropy on perturbed inputs to bypass STRIP, a state-of-the-art run-time trojan detection technique.
翻訳日:2022-12-10 17:57:04 公開日:2020-05-27
# アスペクトマイニングのための新しい効率的かつ効率的な方法

A new effective and efficient measure for outlying aspect mining ( http://arxiv.org/abs/2004.13550v3 )

ライセンス: Link先を確認
Durgesh Samariya, Sunil Aryal, Kai Ming Ting(参考訳) Outlying Aspect Mining (OAM) は、与えられたクエリが与えられたデータセットに対して外れ値となる部分空間(つまりアスペクト)を見つけることを目的としている。 既存のOAMアルゴリズムでは、従来の距離/密度ベースのアウトリーチスコアを使用してサブスペースをランク付けする。 これらの距離/密度に基づくスコアは部分空間の次元に依存するため、異なる次元の部分空間間で直接比較することはできない。 比較するために$z$-score正規化が使われている。 各サブスペース内のすべてのインスタンスの外れ値を計算する必要がある。 これにより、既に高価な密度推定に加えて大きな計算オーバーヘッドが加わり、大規模および/または高次元データセットで実行できないoamアルゴリズムが作成される。 また,OAMでは,$Z$-score正規化が不適切である場合もある。 本稿では,部分空間の次元性とは無関係なシンネと呼ばれる新しいスコアを提案する。 これにより、異なる次元を持つ部分空間のスコアは、追加の正規化なしで直接比較できる。 実験の結果,SiNNEは既存のスコアと同等以上の結果が得られ,ビームサーチに基づくOAMアルゴリズムの実行時間を大幅に改善することがわかった。

Outlying Aspect Mining (OAM) aims to find the subspaces (a.k.a. aspects) in which a given query is an outlier with respect to a given dataset. Existing OAM algorithms use traditional distance/density-based outlier scores to rank subspaces. Because these distance/density-based scores depend on the dimensionality of subspaces, they cannot be compared directly between subspaces of different dimensionality. $Z$-score normalisation has been used to make them comparable. It requires to compute outlier scores of all instances in each subspace. This adds significant computational overhead on top of already expensive density estimation---making OAM algorithms infeasible to run in large and/or high-dimensional datasets. We also discover that $Z$-score normalisation is inappropriate for OAM in some cases. In this paper, we introduce a new score called SiNNE, which is independent of the dimensionality of subspaces. This enables the scores in subspaces with different dimensionalities to be compared directly without any additional normalisation. Our experimental results revealed that SiNNE produces better or at least the same results as existing scores; and it significantly improves the runtime of an existing OAM algorithm based on beam search.
翻訳日:2022-12-08 22:25:21 公開日:2020-05-27
# ProbaNet:オブジェクト検出のための提案バランスネットワーク

ProbaNet: Proposal-balanced Network for Object Detection ( http://arxiv.org/abs/2005.02699v2 )

ライセンス: Link先を確認
Jing Wu, Xiang Zhang, Mingyi Zhou, Ce Zhu(参考訳) 畳み込みニューラルネットワーク(CNN)に基づくオブジェクト検出器によって生成される候補オブジェクトの提案は、全体的なパフォーマンスに影響を与える易しいサンプルの不均衡問題に遭遇する。 本研究では,不均衡問題を解決するための提案バランスネットワーク(probanet)を提案する。 第一にprobanetは,しきい値切り換えによって簡単なサンプルを捨てることで,トレーニング用ハードサンプルを選択する確率を高める。 第二に、probanetは体重を増やすことで前景の提案を強調している。 ProbaNetの有効性を評価するため、異なるベンチマークに基づいてモデルをトレーニングする。 ProbaNetを用いたモデルの平均平均精度(mAP)は、PASCAL VOC 2007のベースラインよりも1.2$\%高い。 さらに、既存の2段検出器と互換性があり、非常に少量の計算コストを提供する。

Candidate object proposals generated by object detectors based on convolutional neural network (CNN) encounter easy-hard samples imbalance problem, which can affect overall performance. In this study, we propose a Proposal-balanced Network (ProbaNet) for alleviating the imbalance problem. Firstly, ProbaNet increases the probability of choosing hard samples for training by discarding easy samples through threshold truncation. Secondly, ProbaNet emphasizes foreground proposals by increasing their weights. To evaluate the effectiveness of ProbaNet, we train models based on different benchmarks. Mean Average Precision (mAP) of the model using ProbaNet achieves 1.2$\%$ higher than the baseline on PASCAL VOC 2007. Furthermore, it is compatible with existing two-stage detectors and offers a very small amount of additional computational cost.
翻訳日:2022-12-06 05:25:57 公開日:2020-05-27
# アウトライン・アスペクト・マイニング法に関する総合調査

A Comprehensive Survey on Outlying Aspect Mining Methods ( http://arxiv.org/abs/2005.02637v2 )

ライセンス: Link先を確認
Durgesh Samariya and Jiangang Ma and Sunil Aryal(参考訳) 近年、研究者は側面採掘への関心が高まっている。 アスペクトマイニングは、与えられたデータオブジェクトが他のデータオブジェクトとは異なる機能の集合を見つけるタスクである。 アスペクトマイニングの問題に対処するために設計された研究はほとんどなく、アスペクトマイニングのアプローチと研究者の強みと弱点についてはほとんど知られていない。 この研究では、既存のアウトライジングアスペクトマイニングアプローチを3つのカテゴリに分類した。 各カテゴリについて、そのカテゴリに該当する既存の作業を提供し、そのカテゴリの長所と短所を提供します。 現実のシナリオにおいて重要な問題であるため、現在のテクニックの時間的複雑さ比較も提供します。 本研究の背景にあるのは、既存の鉱業技術とこれらの技術がどのように開発されたのかをよりよく理解することである。

In recent years, researchers have become increasingly interested in outlying aspect mining. Outlying aspect mining is the task of finding a set of feature(s), where a given data object is different from the rest of the data objects. Remarkably few studies have been designed to address the problem of outlying aspect mining; therefore, little is known about outlying aspect mining approaches and their strengths and weaknesses among researchers. In this work, we have grouped existing outlying aspect mining approaches in three different categories. For each category, we have provided existing work that falls in that category and then provided their strengths and weaknesses in those categories. We also offer time complexity comparison of the current techniques since it is a crucial issue in the real-world scenario. The motive behind this paper is to give a better understanding of the existing outlying aspect mining techniques and how these techniques have been developed.
翻訳日:2022-12-06 04:55:53 公開日:2020-05-27
# 多変量長期記憶を用いたCOVID-19増殖予測

COVID-19 growth prediction using multivariate long short term memory ( http://arxiv.org/abs/2005.04809v2 )

ライセンス: Link先を確認
Novanto Yudistira(参考訳) 新型コロナウイルス(covid-19)の感染拡大予測は、パンデミックの成長を追跡する上で重要な課題である。 既存の予測は質的分析と数学的モデリングに基づいている。 機械学習によるビッグデータの利用は、データが豊富であるにも関わらず、COVID-19の成長予測において依然として制限されている。 ディープラーニングを用いた予測におけるビッグデータの利用には,長期記憶(LSTM)法を用いて,時間とともに新型コロナウイルスの増殖の相関関係を学習する。 LSTM層の構造は、最高のバリデーションスコアが達成されるまでヒューリスティックに探索される。 まず、世界中から確認された事例を含むトレーニングデータをトレーニングした。 リカレントニューラルネットワーク(RNN)法と同等の低い検証誤差で比較して,良好な性能を示した。 評価はグラフの可視化とルート平均二乗誤差(RMSE)に基づいて行われる。 確認されたケースの量を時間とともに同じ量にすることは容易ではないことがわかった。 しかし、LSTMは実際のケースと予測に類似したパターンを提供する。 今後,今後のパンデミックの予測に,提案した予測を活用できる。 コードはここにある。 https://github.com/cbasemaster/lstmcorona

Coronavirus disease (COVID-19) spread forecasting is an important task to track the growth of the pandemic. Existing predictions are merely based on qualitative analyses and mathematical modeling. The use of available big data with machine learning is still limited in COVID-19 growth prediction even though the availability of data is abundance. To make use of big data in the prediction using deep learning, we use long short-term memory (LSTM) method to learn the correlation of COVID-19 growth over time. The structure of an LSTM layer is searched heuristically until the best validation score is achieved. First, we trained training data containing confirmed cases from around the globe. We achieved favorable performance compared with that of the recurrent neural network (RNN) method with a comparable low validation error. The evaluation is conducted based on graph visualization and root mean squared error (RMSE). We found that it is not easy to achieve the same quantity of confirmed cases over time. However, LSTM provide a similar pattern between the actual cases and prediction. In the future, our proposed prediction can be used for anticipating forthcoming pandemics. The code is provided here: https://github.com/cbasemaster/lstmcorona
翻訳日:2022-12-05 01:39:29 公開日:2020-05-27
# 談話カテゴリに科学的抽象化を分割する:スパースラベルデータに対する深層学習に基づくアプローチ

Segmenting Scientific Abstracts into Discourse Categories: A Deep Learning-Based Approach for Sparse Labeled Data ( http://arxiv.org/abs/2005.05414v2 )

ライセンス: Link先を確認
Soumya Banerjee, Debarshi Kumar Sanyal, Samiran Chattopadhyay, Plaban Kumar Bhowmick and Parthapratim Das(参考訳) 科学論文の要約は、その論文の内容を短い段落に蒸留する。 生体医学文献では、抽象概念をBACKGROUND、OBJECTIVE、Method、RESULT、ConCLUSIONなどの談話カテゴリに構造化するのが慣例であるが、コンピュータ科学などの他の分野ではこのセグメンテーションは一般的ではない。 明示的なカテゴリは、より粒度の細かい、つまり談話レベルの検索とレコメンデーションに役立つかもしれない。 ラベル付きデータのスパース性は、非バイオドメインにおける抽象概念の自動談話レベルセグメンテーションのための教師付き機械学習ソリューションの構築を困難にする。 本稿では,転送学習を用いてこの問題に対処する。 特に,これら3つのカテゴリーが最も一般的であるため,3つの談話カテゴリの背景,技法,観察を抽象的に定義する。 PubMedから構造化された抽象概念に基づいて深層ニューラルネットワークをトレーニングし、それを手書きのコンピュータサイエンス論文の小さなコーパスで微調整する。 テストコーパスでは75%の精度で観察した。 我々は,モデルの異なる部分の役割を強調するためにアブレーション研究を行う。 本手法は,ラベル付きデータがスパースである抽象部分の自動分割に対して有望な解決法であると考えられる。

The abstract of a scientific paper distills the contents of the paper into a short paragraph. In the biomedical literature, it is customary to structure an abstract into discourse categories like BACKGROUND, OBJECTIVE, METHOD, RESULT, and CONCLUSION, but this segmentation is uncommon in other fields like computer science. Explicit categories could be helpful for more granular, that is, discourse-level search and recommendation. The sparsity of labeled data makes it challenging to construct supervised machine learning solutions for automatic discourse-level segmentation of abstracts in non-bio domains. In this paper, we address this problem using transfer learning. In particular, we define three discourse categories BACKGROUND, TECHNIQUE, OBSERVATION-for an abstract because these three categories are the most common. We train a deep neural network on structured abstracts from PubMed, then fine-tune it on a small hand-labeled corpus of computer science papers. We observe an accuracy of 75% on the test corpus. We perform an ablation study to highlight the roles of the different parts of the model. Our method appears to be a promising solution to the automatic segmentation of abstracts, where the labeled data is sparse.
翻訳日:2022-12-04 20:21:41 公開日:2020-05-27
# 単一参加型構造接続行列は、MRIにおける自閉症機能よりも参加者の分類の精度を高める

Single-participant structural connectivity matrices lead to greater accuracy in classification of participants than function in autism in MRI ( http://arxiv.org/abs/2005.08035v2 )

ライセンス: Link先を確認
Matthew Leming, Simon Baron-Cohen, John Suckling(参考訳) 本稿では,T1強調MRIから推定した灰色マター体積の局所ヒストグラムから対称接続行列を導出する手法を提案する。 次に,接続行列を畳み込みニューラルネットワーク(cnn)に入力し,6つの異なるデータベース(合計29,288個のコネクトーム,平均年齢30.72,範囲0.12-78.00,自閉症1555名を含む)から,自閉症と年齢,運動量,頭蓋内容積マッチング制御を分類した。 本手法を,fMRI接続行列とグレーマター体積の単変量推定を用いて,同一参加者の類似分類と比較した。 さらに,出力クラスアクティベーションマップのグラフ理論的指標を適用し,cnnが分類に好んで用いた行列の領域を同定し,特にハブに着目した。 その結果、AUROCsは構造的接続のみで分類すると0.7298 (69.71%)、機能的接続のみで分類すると0.6964 (67.72%)、単変量グレー物質量で分類すると0.7037 (66.43%)であった。 構造的および機能的な接続性の組み合わせにより、AUROCの精度は0.7354 (69.40%)となった。 クラスアクティベーションマップのグラフ解析では, 機能的入力に対するネットワークパターンの識別はできなかったが, 左右ヘシュル回旋群と上頂点の局所的な差異が認められた。 この研究は、多数の構造的MRIを機械学習モデルに入力するための、シンプルな特徴抽出手段を提供する。

In this work, we introduce a technique of deriving symmetric connectivity matrices from regional histograms of grey-matter volume estimated from T1-weighted MRIs. We then validated the technique by inputting the connectivity matrices into a convolutional neural network (CNN) to classify between participants with autism and age-, motion-, and intracranial-volume-matched controls from six different databases (29,288 total connectomes, mean age = 30.72, range 0.42-78.00, including 1555 subjects with autism). We compared this method to similar classifications of the same participants using fMRI connectivity matrices as well as univariate estimates of grey-matter volumes. We further applied graph-theoretical metrics on output class activation maps to identify areas of the matrices that the CNN preferentially used to make the classification, focusing particularly on hubs. Our results gave AUROCs of 0.7298 (69.71% accuracy) when classifying by only structural connectivity, 0.6964 (67.72% accuracy) when classifying by only functional connectivity, and 0.7037 (66.43% accuracy) when classifying by univariate grey matter volumes. Combining structural and functional connectivities gave an AUROC of 0.7354 (69.40% accuracy). Graph analysis of class activation maps revealed no distinguishable network patterns for functional inputs, but did reveal localized differences between groups in bilateral Heschl's gyrus and upper vermis for structural connectivity. This work provides a simple means of feature extraction for inputting large numbers of structural MRIs into machine learning models.
翻訳日:2022-12-02 13:59:51 公開日:2020-05-27
# グラフインターバルニューラルネットワークを用いたセマンティックプログラム埋め込み学習

Learning Semantic Program Embeddings with Graph Interval Neural Network ( http://arxiv.org/abs/2005.09997v2 )

ライセンス: Link先を確認
Yu Wang, Fengjuan Gao, Linzhang Wang, Ke Wang(参考訳) ソースコードの分散表現を学ぶことは、機械学習モデルにとって難しい課題である。 初期の作品は、自然言語メソッドが容易に適用できるように、プログラムをテキストとして扱いました。 残念ながら、そのようなアプローチはソースコードが持つ豊富な構造情報を活かさない。 最近では、グラフ表現からプログラムの埋め込みを学ぶためにグラフニューラルネットワーク(GNN)が提案されている。 均一で高価なメッセージパス処理により、GNNは特に大きなグラフに描画されたプログラムを扱う際に、精度の問題に悩まされる。 本稿では,既存のGNNの弱点に対処するため,グラフインターバルニューラルネットワーク(GINN)と呼ばれる新しいグラフニューラルネットワークを提案する。 標準のGNNとは異なり、GINNはモデル学習を支援するために設計された抽象手法を用いて得られたグラフ表現から一般化する。 特に、GINNはプログラムの特徴表現をマイニングするためのインターバルのみに重点を置いており、さらに、GINNは学習を大きなグラフにスケールするためのインターバル階層を運用している。 我々は、変数誤用予測とメソッド名予測の2つの人気下流アプリケーションに対してGINNを評価する。 どちらのケースにおいても、GINNは最先端のモデルよりも快適なマージンで優れています。 Javaコードのnullポインタ参照バグをキャッチするために,GINNに基づいたニューラルバグ検出機能も開発した。 64のプロジェクトから抽出された9,000のメソッドから学習しながら、ginnベースのバグ検出器は、13のテストプロジェクトでgnnベースのバグ検出器を大きく上回っている。 次に、トレーニングされたGINNベースのバグ検出ツールとFacebook Inferをデプロイして、GitHub上の20の高スタープロジェクトのコードベースをスキャンします。 手動の検査によって、ginnベースのバグ検出器によって引き起こされた102の警告のうち、38のバグを確認しました。

Learning distributed representations of source code has been a challenging task for machine learning models. Earlier works treated programs as text so that natural language methods can be readily applied. Unfortunately, such approaches do not capitalize on the rich structural information possessed by source code. Of late, Graph Neural Network (GNN) was proposed to learn embeddings of programs from their graph representations. Due to the homogeneous and expensive message-passing procedure, GNN can suffer from precision issues, especially when dealing with programs rendered into large graphs. In this paper, we present a new graph neural architecture, called Graph Interval Neural Network (GINN), to tackle the weaknesses of the existing GNN. Unlike the standard GNN, GINN generalizes from a curated graph representation obtained through an abstraction method designed to aid models to learn. In particular, GINN focuses exclusively on intervals for mining the feature representation of a program, furthermore, GINN operates on a hierarchy of intervals for scaling the learning to large graphs. We evaluate GINN for two popular downstream applications: variable misuse prediction and method name prediction. Results show in both cases GINN outperforms the state-of-the-art models by a comfortable margin. We have also created a neural bug detector based on GINN to catch null pointer deference bugs in Java code. While learning from the same 9,000 methods extracted from 64 projects, GINN-based bug detector significantly outperforms GNN-based bug detector on 13 unseen test projects. Next, we deploy our trained GINN-based bug detector and Facebook Infer to scan the codebase of 20 highly starred projects on GitHub. Through our manual inspection, we confirm 38 bugs out of 102 warnings raised by GINN-based bug detector compared to 34 bugs out of 129 warnings for Facebook Infer.
翻訳日:2022-12-02 00:49:07 公開日:2020-05-27
# GPT-too: AMR-to-text生成のための言語モデルファーストアプローチ

GPT-too: A language-model-first approach for AMR-to-text generation ( http://arxiv.org/abs/2005.09123v2 )

ライセンス: Link先を確認
Manuel Mager, Ramon Fernandez Astudillo, Tahira Naseem, Md Arafat Sultan, Young-Suk Lee, Radu Florian and Salim Roukos(参考訳) AMR(Meaning Representations)は、広範囲の文レベルの意味グラフである。 AMRからテキストを生成するための既存のアプローチは、アノテートされたデータのみに対するシーケンス・ツー・シーケンスやグラフ・ツー・シーケンスのトレーニングに重点を置いている。 本稿では,強い事前学習言語モデルとサイクル一貫性に基づく再スコーリングを組み合わせた代替手法を提案する。 提案手法の単純さにもかかわらず,本実験の結果は,最近の変圧器アーキテクチャの使用を含む,英語のLDC2017T10データベースにおいて,従来の手法よりも優れた性能を示した。 標準的な評価指標に加えて、我々のアプローチの強みをさらに裏付ける人間の評価実験も提供する。

Meaning Representations (AMRs) are broad-coverage sentence-level semantic graphs. Existing approaches to generating text from AMR have focused on training sequence-to-sequence or graph-to-sequence models on AMR annotated data only. In this paper, we propose an alternative approach that combines a strong pre-trained language model with cycle consistency-based re-scoring. Despite the simplicity of the approach, our experimental results show these models outperform all previous techniques on the English LDC2017T10dataset, including the recent use of transformer architectures. In addition to the standard evaluation metrics, we provide human evaluation experiments that further substantiate the strength of our approach.
翻訳日:2022-12-01 22:55:15 公開日:2020-05-27
# Simplify-then-Translate: Black-Box 機械翻訳のための自動前処理

Simplify-then-Translate: Automatic Preprocessing for Black-Box Machine Translation ( http://arxiv.org/abs/2005.11197v2 )

ライセンス: Link先を確認
Sneha Mehta, Bahareh Azarnoush, Boris Chen, Avneesh Saluja, Vinith Misra, Ballav Bihani, Ritwik Kumar(参考訳) ブラックボックスの機械翻訳システムは、様々なアプリケーションで驚くほど有用であることが証明されているが、デザインによっては、特定のドメインに適応したり、チューニングしたり、その上に構築するのは難しい。 本研究では,文の単純化による自動前処理(APP)によるシステム改善手法を提案する。 まず、ブラックボックスMTシステムを用いて、翻訳に役立てるために原文を「単純化」するパラフレーズモデルをトレーニングするために、大きなドメイン内パラフレーズコーパスを自動的に生成する手法を提案する。 このモデルは、複数の低リソース言語ペアのソース文の前処理に使用される。 この前処理は,非前処理文に比べて翻訳性能が向上することを示す。 さらに, 要約文の翻訳が原文より優れていることを確認するために, 並べて人間による評価を行う。 最後に、言語ペアの翻訳容易性(BLEUで測定される)と、この言語ペアの逆翻訳(SARIで測定される)から得られる単純化モデルの品質の関係を調べた上で、単純化モデルコーパスを生成するための推奨言語ペアに関するガイダンスを提供し、低リソース翻訳の下流タスクに結びつける。

Black-box machine translation systems have proven incredibly useful for a variety of applications yet by design are hard to adapt, tune to a specific domain, or build on top of. In this work, we introduce a method to improve such systems via automatic pre-processing (APP) using sentence simplification. We first propose a method to automatically generate a large in-domain paraphrase corpus through back-translation with a black-box MT system, which is used to train a paraphrase model that "simplifies" the original sentence to be more conducive for translation. The model is used to preprocess source sentences of multiple low-resource language pairs. We show that this preprocessing leads to better translation performance as compared to non-preprocessed source sentences. We further perform side-by-side human evaluation to verify that translations of the simplified sentences are better than the original ones. Finally, we provide some guidance on recommended language pairs for generating the simplification model corpora by investigating the relationship between ease of translation of a language pair (as measured by BLEU) and quality of the resulting simplification model from back-translations of this language pair (as measured by SARI), and tie this into the downstream task of low-resource translation.
翻訳日:2022-11-30 09:06:38 公開日:2020-05-27
# 語り節の類型化による個人的語りの類似性の検討

Exploring aspects of similarity between spoken personal narratives by disentangling them into narrative clause types ( http://arxiv.org/abs/2005.12762v2 )

ライセンス: Link先を確認
Belen Saldias and Deb Roy(参考訳) 個人の物語を共有することは、人間の社会行動の基本的な側面であり、生活経験を共有するのに役立つ。 ストーリーを伝え、背景に頼ってコンテキストや類似点、相違点を理解することができます。 ストーリーテリングマシンの開発やキャラクターの特徴の推測に多大な努力が払われている。 しかし、私たちは通常、物語を比較するモデルを見つけません。 このタスクは、時折私たちがしているように、類似性の意味を理解していないため、マシンにとって非常に難しいものです。 この課題に対処するために,まず594本から10,296話節からなる実世界の話し言葉コーパスを紹介する。 第2に, ラボフの社会言語モデル(行動, 行動, 態度, 評価条項タイプ)の下で, それらの節に注釈を付けるように依頼し, 最高の節に対して84.7%のFスコアに達する分類器を訓練する。 最後に、私たちはストーリーにマッチし、人々が物語を比較するためにラボフのフレームワークを暗黙に頼っているかどうかを探る。 ナレーターによる評価に続く行動が,非専門家が最も考慮すべき側面であることを示す。 我々のアプローチは、個人的物語の研究や表現を目的とした機械学習手法を知らせることを目的としています。

Sharing personal narratives is a fundamental aspect of human social behavior as it helps share our life experiences. We can tell stories and rely on our background to understand their context, similarities, and differences. A substantial effort has been made towards developing storytelling machines or inferring characters' features. However, we don't usually find models that compare narratives. This task is remarkably challenging for machines since they, as sometimes we do, lack an understanding of what similarity means. To address this challenge, we first introduce a corpus of real-world spoken personal narratives comprising 10,296 narrative clauses from 594 video transcripts. Second, we ask non-narrative experts to annotate those clauses under Labov's sociolinguistic model of personal narratives (i.e., action, orientation, and evaluation clause types) and train a classifier that reaches 84.7% F-score for the highest-agreed clauses. Finally, we match stories and explore whether people implicitly rely on Labov's framework to compare narratives. We show that actions followed by the narrator's evaluation of these are the aspects non-experts consider the most. Our approach is intended to help inform machine learning methods aimed at studying or representing personal narratives.
翻訳日:2022-11-29 00:33:03 公開日:2020-05-27
# MRIセマンティックセグメンテーション問題における知識伝達のためのベイズ生成モデル

Bayesian Generative Models for Knowledge Transfer in MRI Semantic Segmentation Problems ( http://arxiv.org/abs/2005.12639v2 )

ライセンス: Link先を確認
Anna Kuzina, Evgenii Egorov, Evgeny Burnaev(参考訳) ディープラーニングに基づく自動セグメンテーション手法は,近頃,通常の手法を上回って,最先端のパフォーマンスを実証している。 しかしながら、これらの手法は医学的な問題に非常によく見られる小さなデータセットには適用できない。 そこで本研究では,生成ベイズ前駆ネットワークを介する疾患間の知識伝達手法を提案する。 本手法は,前訓練法とランダム初期化法を比較し,脳腫瘍分割2018データベース(brats2018)の小さな部分集合に対するdice類似度係数測定値から最良の結果を得た。

Automatic segmentation methods based on deep learning have recently demonstrated state-of-the-art performance, outperforming the ordinary methods. Nevertheless, these methods are inapplicable for small datasets, which are very common in medical problems. To this end, we propose a knowledge transfer method between diseases via the Generative Bayesian Prior network. Our approach is compared to a pre-train approach and random initialization and obtains the best results in terms of Dice Similarity Coefficient metric for the small subsets of the Brain Tumor Segmentation 2018 database (BRATS2018).
翻訳日:2022-11-29 00:32:14 公開日:2020-05-27
# 注意型マルチタスク転送学習による視覚利子予測

Visual Interest Prediction with Attentive Multi-Task Transfer Learning ( http://arxiv.org/abs/2005.12770v2 )

ライセンス: Link先を確認
Deepanway Ghosal, Maheshkumar H. Kolekar(参考訳) 視覚的関心と影響予測は、コンピュータビジョンの領域における非常に興味深い研究分野である。 本稿では,デジタル写真における視覚的興味と感情の次元を予測するために,移動学習と注意機構に基づくニューラルネットワークモデルを提案する。 多次元的影響の学習は、マルチタスク学習フレームワークを通じて行われる。 様々な実験により,提案手法の有効性を示す。 ベンチマークデータセットにおけるモデルの評価は、現在の最先端システムを大きく改善しています。

Visual interest & affect prediction is a very interesting area of research in the area of computer vision. In this paper, we propose a transfer learning and attention mechanism based neural network model to predict visual interest & affective dimensions in digital photos. Learning the multi-dimensional affects is addressed through a multi-task learning framework. With various experiments we show the effectiveness of the proposed approach. Evaluation of our model on the benchmark dataset shows large improvement over current state-of-the-art systems.
翻訳日:2022-11-28 23:57:17 公開日:2020-05-27
# 音声記録を用いたパーキンソン病進行のモニタリングによる語彙データに対する機械学習モデルの比較検討

A Comparative Study of Machine Learning Models for Tabular Data Through Challenge of Monitoring Parkinson's Disease Progression Using Voice Recordings ( http://arxiv.org/abs/2005.14257v1 )

ライセンス: Link先を確認
Mohammadreza Iman, Amy Giuntini, Hamid Reza Arabnia, and Khaled Rasheed(参考訳) パーキンソン病の患者は、医師によって定期的に監視され、疾患の進行を観察し、症状を緩和するための治療計画を調整する必要がある。 患者が自宅で録音した音声記録を通して、疾患の進行をモニタリングすることで、プロセスの迅速化とストレスの軽減が可能になる。 早期パーキンソン病42名の音声記録データセットを6ヵ月間にわたって使用し,複数の機械学習手法を用いて音声記録と患者の運動性PDRSスコアの相関関係について検討した。 我々は回帰法と分類法の両方を用いてこの問題にアプローチした。 本論文の多くは、未知のインスタンスに対してより正確な値を得るために、回帰手法を用いて音声データをモータUPDRSスコアにマッピングすることを目的としている。 この変種機械学習手法の比較研究を通じて,多数の表型データセット上で,木が最先端のディープラーニングモデルを上回るような古い機械学習手法を実現することができた。

People with Parkinson's disease must be regularly monitored by their physician to observe how the disease is progressing and potentially adjust treatment plans to mitigate the symptoms. Monitoring the progression of the disease through a voice recording captured by the patient at their own home can make the process faster and less stressful. Using a dataset of voice recordings of 42 people with early-stage Parkinson's disease over a time span of 6 months, we applied multiple machine learning techniques to find a correlation between the voice recording and the patient's motor UPDRS score. We approached this problem using a multitude of both regression and classification techniques. Much of this paper is dedicated to mapping the voice data to motor UPDRS scores using regression techniques in order to obtain a more precise value for unknown instances. Through this comparative study of variant machine learning methods, we realized some old machine learning methods like trees outperform cutting edge deep learning models on numerous tabular datasets.
翻訳日:2022-11-28 09:57:50 公開日:2020-05-27
# 前方誤差補正がコミュニケーション認識回避攻撃に及ぼす影響

Effects of Forward Error Correction on Communications Aware Evasion Attacks ( http://arxiv.org/abs/2005.13123v1 )

ライセンス: Link先を確認
Matthew DelVecchio, Bryse Flowers, William C. Headley(参考訳) 近年の研究では、RFML(Radio Frequency Machine Learning)アプリケーション用に開発されたディープニューラルネットワーク(DNN)に対する対向機械学習の影響が示されている。 これらの攻撃は盗聴者の性能を損なうことに成功したが、意図的なコミュニケーションを成功させるという主要な目標を完全には支持できなかった。 これを解決するため,DNNによる対向通信信号のインテリジェントな作成により,対向する回避目標と意図する通信とのバランスを向上する通信対応攻撃フレームワークが最近開発された。 このフレームワークにFECを組み込むことは、この以前の作業の自然な拡張であり、より悪質な環境におけるパフォーマンスの向上を可能にする。 この研究は、FEC符号の使用に関する固有の知識を伝達信号に組み込むために、損失関数の改善と設計上の考慮を通じてフレームワークへのコントリビューションを提供する。 性能分析により、FEC符号化は、たとえコーディングスキームの明確な知識が想定されていなくても、コミュニケーションを意識した敵攻撃を改善し、回避と意図する通信の対向する目標のバランスをとる上で、従来の技術よりもパフォーマンスを向上させることができることが示された。

Recent work has shown the impact of adversarial machine learning on deep neural networks (DNNs) developed for Radio Frequency Machine Learning (RFML) applications. While these attacks have been shown to be successful in disrupting the performance of an eavesdropper, they fail to fully support the primary goal of successful intended communication. To remedy this, a communications-aware attack framework was recently developed that allows for a more effective balance between the opposing goals of evasion and intended communication through the novel use of a DNN to intelligently create the adversarial communication signal. Given the near ubiquitous usage of forward error correction (FEC) coding in the majority of deployed systems to correct errors that arise, incorporating FEC in this framework is a natural extension of this prior work and will allow for improved performance in more adverse environments. This work therefore provides contributions to the framework through improved loss functions and design considerations to incorporate inherent knowledge of the usage of FEC codes within the transmitted signal. Performance analysis shows that FEC coding improves the communications aware adversarial attack even if no explicit knowledge of the coding scheme is assumed and allows for improved performance over the prior art in balancing the opposing goals of evasion and intended communications.
翻訳日:2022-11-28 09:57:34 公開日:2020-05-27
# ハミルトン型材料特性予測のためのグラフニューラルネットワーク

Graph Neural Network for Hamiltonian-Based Material Property Prediction ( http://arxiv.org/abs/2005.13352v1 )

ライセンス: Link先を確認
Hexin Bai, Peng Chu, Jeng-Yuan Tsai, Nathan Wilson, Xiaofeng Qian, Qimin Yan, Haibin Ling(参考訳) 応用のための次世代電子デバイスの開発は、新しい電子・磁気・トポロジカルな特性を持つ量子材料の発見を要求する。 従来の電子構造法は計算時間とメモリ消費を必要とするため、より高速で正確な予測モデルが求められている。 物質ハミルトニアンは、任意の物質中の原子軌道間の相互作用を表現し、無機化合物の構造-不純物相関を制御する重要な要素を全て提供する。 機械学習手法の開発による材料ハミルトンの効果的な学習は、量子材料の発見と設計を加速するための変換的アプローチを提供する。 このモチベーションにより、無機材料のバンドギャップを予測できるいくつかの異なるグラフ畳み込みネットワークを提示し、比較する。 モデルは、それぞれの軌道の情報と相互の相互作用の2つの異なる特徴を組み込むように開発されている。 それぞれの軌道の情報には、スーパーセルの中心と原子番号に関する相対座標の名前が含まれ、軌道間の相互作用はハミルトン行列で表される。 その結果,クロスバリデーションにより予測精度が期待できることがわかった。

Development of next-generation electronic devices for applications call for the discovery of quantum materials hosting novel electronic, magnetic, and topological properties. Traditional electronic structure methods require expensive computation time and memory consumption, thus a fast and accurate prediction model is desired with increasing importance. Representing the interactions among atomic orbitals in any material, a material Hamiltonian provides all the essential elements that control the structure-property correlations in inorganic compounds. Effective learning of material Hamiltonian by developing machine learning methodologies therefore offers a transformative approach to accelerate the discovery and design of quantum materials. With this motivation, we present and compare several different graph convolution networks that are able to predict the band gap for inorganic materials. The models are developed to incorporate two different features: the information of each orbital itself and the interaction between each other. The information of each orbital includes the name, relative coordinates with respect to the center of super cell and the atom number, while the interaction between orbitals are represented by the Hamiltonian matrix. The results show that our model can get a promising prediction accuracy with cross-validation.
翻訳日:2022-11-28 09:53:18 公開日:2020-05-27
# オープンプラン作業場における濃度推定のための環境物理システム

An Ambient-Physical System to Infer Concentration in Open-plan Workplace ( http://arxiv.org/abs/2005.13535v1 )

ライセンス: Link先を確認
Mohammad Saiedur Rahaman, Jonathan Liono, Yongli Ren, Jeffrey Chan, Shaw Kudo, Tim Rawling and Flora D. Salim(参考訳) オープンプランワークスペースにおける大きな課題のひとつは、作業中の作業者の集中度を十分に確保することである。 したがって、労働者の集中度を推定できるため、設計者、管理者、労働者は、異なるオープンプランレイアウトが持つ影響を見積り、最適なものを見つけることができる。 本研究では, 濃度推定問題を調査するための環境物理システムを提案する。 具体的には、作業中の知覚濃度に関連する様々な環境および物理的信号をキャプチャするために、一連の広帯域センサを配置する。 このシステムの実用性は、異なる設計とレイアウトの2つの大きなオープンプランの職場でテストされている。 実験結果は,現代職場の能力向上に応用できる作業集中推論における広汎性センシングの有望な応用を浮き彫りにした。

One of the core challenges in open-plan workspaces is to ensure a good level of concentration for the workers while performing their tasks. Hence, being able to infer concentration levels of workers will allow building designers, managers, and workers to estimate what effect different open-plan layouts will have and to find an optimal one. In this research, we present an ambient-physical system to investigate the concentration inference problem. Specifically, we deploy a series of pervasive sensors to capture various ambient and physical signals related to perceived concentration at work. The practicality of our system has been tested on two large open-plan workplaces with different designs and layouts. The empirical results highlight promising applications of pervasive sensing in occupational concentration inference, which can be adopted to enhance the capabilities of modern workplaces.
翻訳日:2022-11-28 09:53:01 公開日:2020-05-27
# マルチエージェント予測状態表現のためのテンソル分解

Tensor Decomposition for Multi-agent Predictive State Representation ( http://arxiv.org/abs/2005.13706v1 )

ライセンス: Link先を確認
Bilian Chen, Biyang Ma, Yifeng Zeng, Langcai Cao, Jing Tang(参考訳) 予測状態表現~(PSR)は行動観測シーケンスのベクトルを用いてシステムの力学を表現し、その後の事象の確率を予測する。 単一エージェント計画問題領域でよく研究されている簡潔な知識表現である。 我々の知る限りでは、マルチエージェント計画問題の解決にPSRを使用するための作業は存在しない。 マルチエージェントPSRモデルを学ぶことは、特に問題領域の複雑さを言うまでもなく、エージェントの数が増えれば非常に難しい。 本稿では,マルチエージェントPSRモデル開発における課題に取り組むために,テンソル手法を用いる。 まず,2エージェント設定に着目し,psrモデルの高次テンソルとしてシステムダイナミクス行列を構築し,予測パラメータと状態ベクトルを直接2つの異なるテンソル分解法で学習し,線形回帰による遷移パラメータを導出する。 その後、マルチエージェント設定でPSR学習アプローチを一般化する。 実験の結果,複数の問題領域におけるマルチエージェントpsrモデリング問題を効果的に解くことができた。

Predictive state representation~(PSR) uses a vector of action-observation sequence to represent the system dynamics and subsequently predicts the probability of future events. It is a concise knowledge representation that is well studied in a single-agent planning problem domain. To the best of our knowledge, there is no existing work on using PSR to solve multi-agent planning problems. Learning a multi-agent PSR model is quite difficult especially with the increasing number of agents, not to mention the complexity of a problem domain. In this paper, we resort to tensor techniques to tackle the challenging task of multi-agent PSR model development problems. By first focusing on a two-agent setting, we construct the system dynamics matrix as a high order tensor for a PSR model, learn the prediction parameters and deduce state vectors directly through two different tensor decomposition methods respectively, and derive the transition parameters via linear regression. Subsequently, we generalize the PSR learning approaches in a multi-agent setting. Experimental results show that our methods can effectively solve multi-agent PSR modelling problems in multiple problem domains.
翻訳日:2022-11-28 09:52:48 公開日:2020-05-27
# より高度な勾配難読化手法を用いたadversarial attackの軽減

Mitigating Advanced Adversarial Attacks with More Advanced Gradient Obfuscation Techniques ( http://arxiv.org/abs/2005.13712v1 )

ライセンス: Link先を確認
Han Qiu, Yi Zeng, Qinkai Zheng, Tianwei Zhang, Meikang Qiu, Gerard Memmi(参考訳) Deep Neural Networks (DNN) は、Adversarial Examples (AE) の脆弱性としてよく知られている。 攻撃者と守備兵の間の武器競争の開始と加熱に多くの努力が費やされている。 近年、先進的な勾配に基づく攻撃手法(BPDAやEOTなど)が提案され、既存の防衛手法をかなり多く破っている。 今日まで、これらの攻撃に対して効果的かつ効率的に防御できる、満足のいくソリューションはまだ存在しない。 本稿では,2つの大きな貢献により,これらの高度な勾配に基づく攻撃の軽減に向けて,着実に一歩を踏み出します。 まず,これらの攻撃の根本原因を詳細に分析し,攻撃の基本的な前提を破ることのできる4つの特性を提案する。 次に、これらのプロパティを満たす一連のオペレーションを識別します。 これらの操作を統合することで、これらの強力な攻撃を無効化できる2つの前処理関数を設計する。 広範な評価は、我々のソリューションが既存の標準および先進的な攻撃技術を効果的に軽減し、過去2年間にトップレベルのカンファレンスで公開された11の最先端の防御ソリューションを破ることができることを示している。 ディフェンダーは、最も強力な攻撃に対して7%未満の攻撃成功率を制限するために、我々のソリューションを利用することができます。

Deep Neural Networks (DNNs) are well-known to be vulnerable to Adversarial Examples (AEs). A large amount of efforts have been spent to launch and heat the arms race between the attackers and defenders. Recently, advanced gradient-based attack techniques were proposed (e.g., BPDA and EOT), which have defeated a considerable number of existing defense methods. Up to today, there are still no satisfactory solutions that can effectively and efficiently defend against those attacks. In this paper, we make a steady step towards mitigating those advanced gradient-based attacks with two major contributions. First, we perform an in-depth analysis about the root causes of those attacks, and propose four properties that can break the fundamental assumptions of those attacks. Second, we identify a set of operations that can meet those properties. By integrating these operations, we design two preprocessing functions that can invalidate these powerful attacks. Extensive evaluations indicate that our solutions can effectively mitigate all existing standard and advanced attack techniques, and beat 11 state-of-the-art defense solutions published in top-tier conferences over the past 2 years. The defender can employ our solutions to constrain the attack success rate below 7% for the strongest attacks even the adversary has spent dozens of GPU hours.
翻訳日:2022-11-28 09:52:30 公開日:2020-05-27
# キーポイント追跡と空間認識時間応答フィルタリングを用いた群衆の効率的な豚数計測

Efficient Pig Counting in Crowds with Keypoints Tracking and Spatial-aware Temporal Response Filtering ( http://arxiv.org/abs/2005.13131v1 )

ライセンス: Link先を確認
Guang Chen, Shiwen Shen, Longyin Wen, Si Luo, Liefeng Bo(参考訳) 豚の計数は大規模な養豚にとって重要な課題であり、通常は人間の視覚で完了する。 しかし、このプロセスは非常に時間がかかり、エラーが発生しやすい。 文学の研究で豚の自動計数法を開発したものは少ない。 既存の方法では豚の計数にのみ焦点をあてており、その精度は豚の動き、咬合、重なりなどいくつかの要因によって疑問視されている。 特に、単一の画像の視野は非常に限られており、大型の豚群家に対する豚のカウントの要件を満たしていなかった。 そこで我々は,1台の単眼魚眼カメラと検査ロボットを用いたリアルタイム自動ブタ計数システムについて紹介した。 我々のシステムは、人間を超える正確な結果をもたらすことを示した。 我々のパイプラインは豚の重複、咬合、変形による偽陰性を回避する新しいボトムアップ・ピッグ検出アルゴリズムから始まった。 深層畳み込みニューラルネットワーク(CNN)は、ブタの身体部分のキーポイントを検出し、キーポイントを関連付けて個々のブタを特定するように設計されている。 その後、ビデオフレーム間で豚を関連付けるために、効率的なオンライン追跡方法が用いられる。 最後に、豚やカメラの動きによる偽陽性の抑制や障害の追跡に有効である豚の数を予測するために、空間認識型時間応答フィルタリング(STRF)法を提案する。 パイプライン全体がエッジコンピューティングデバイスにデプロイされ、その効果が実証された。

Pig counting is a crucial task for large-scale pig farming, which is usually completed by human visually. But this process is very time-consuming and error-prone. Few studies in literature developed automated pig counting method. Existing methods only focused on pig counting using single image, and its accuracy is challenged by several factors, including pig movements, occlusion and overlapping. Especially, the field of view of a single image is very limited, and could not meet the requirements of pig counting for large pig grouping houses. To that end, we presented a real-time automated pig counting system in crowds using only one monocular fisheye camera with an inspection robot. Our system showed that it produces accurate results surpassing human. Our pipeline began with a novel bottom-up pig detection algorithm to avoid false negatives due to overlapping, occlusion and deformation of pigs. A deep convolution neural network (CNN) is designed to detect keypoints of pig body part and associate the keypoints to identify individual pigs. After that, an efficient on-line tracking method is used to associate pigs across video frames. Finally, a novel spatial-aware temporal response filtering (STRF) method is proposed to predict the counts of pigs, which is effective to suppress false positives caused by pig or camera movements or tracking failures. The whole pipeline has been deployed in an edge computing device, and demonstrated the effectiveness.
翻訳日:2022-11-28 09:52:12 公開日:2020-05-27
# 衛星画像における航空機検出・識別のための同時分割・物体検出CNN

Concurrent Segmentation and Object Detection CNNs for Aircraft Detection and Identification in Satellite Images ( http://arxiv.org/abs/2005.13215v1 )

ライセンス: Link先を確認
Damien Grosgeorge (SAS), Maxime Arbelot (SAS), Alex Goupilleau (SAS), Tugdual Ceillier (SAS), Renaud Allioux (SAS)(参考訳) 衛星画像中の物体の検出と識別は、非常に難しい作業である: 興味のある物体は、しばしば非常に小さく、非常に高解像度の画像を使っても、特徴を認識するのが困難である。 ほとんどのアプリケーションでは、これはリコールと精度のトレードオフとなる。 本稿では,航空機を検出・識別する専用手法として,改良されたU-netアーキテクチャに基づくセグメンテーションモデルとRetinaNetアーキテクチャに基づく検出モデルを組み合わせた,非常に異なる2つの畳み込みニューラルネットワーク(CNN)を提案する。 その結果, この組み合わせは各ユニタリモデルよりも有意に優れ, 偽陰性率を大幅に低下させることがわかった。

Detecting and identifying objects in satellite images is a very challenging task: objects of interest are often very small and features can be difficult to recognize even using very high resolution imagery. For most applications, this translates into a trade-off between recall and precision. We present here a dedicated method to detect and identify aircraft, combining two very different convolutional neural networks (CNNs): a segmentation model, based on a modified U-net architecture, and a detection model, based on the RetinaNet architecture. The results we present show that this combination outperforms significantly each unitary model, reducing drastically the false negative rate.
翻訳日:2022-11-28 09:44:33 公開日:2020-05-27
# 深層学習における大変形問題に取り組む : 変位埋め込みを用いた医用画像登録

Tackling the Problem of Large Deformations in Deep Learning Based Medical Image Registration Using Displacement Embeddings ( http://arxiv.org/abs/2005.13338v1 )

ライセンス: Link先を確認
Lasse Hansen, Mattias P. Heinrich(参考訳) 深層学習に基づく医用画像の登録は現在、将来性のある進歩を見せ始めているが、多くの場合、登録精度の点で従来のフレームワークに劣っている。 これは特に、患者間腹部MRIの登録や吸入-吸入CT肺の登録など、大きな変形が存在するアプリケーションに当てはまる。 現在の作品のほとんどはu-netライクなアーキテクチャを使用して、異なる教師なし設定と教師なし設定の入力画像からの濃密な変位を予測している。 我々は、U-Netアーキテクチャ自体が大きな変形を予測する能力(マルチレベル戦略を用いても)を制限していると信じており、入力画像を変位空間にマッピングし、この埋め込みから最終的な登録を再構築する新しいアプローチを提案する。 inhale-to-exhale ct肺レジストレーション実験では,ネットワーク内の単一前方経路における大きな変形を予測できる(誤差が2mm以下となる)。

Though, deep learning based medical image registration is currently starting to show promising advances, often, it still fells behind conventional frameworks in terms of registration accuracy. This is especially true for applications where large deformations exist, such as registration of interpatient abdominal MRI or inhale-to-exhale CT lung registration. Most current works use U-Net-like architectures to predict dense displacement fields from the input images in different supervised and unsupervised settings. We believe that the U-Net architecture itself to some level limits the ability to predict large deformations (even when using multilevel strategies) and therefore propose a novel approach, where the input images are mapped into a displacement space and final registrations are reconstructed from this embedding. Experiments on inhale-to-exhale CT lung registration demonstrate the ability of our architecture to predict large deformations in a single forward path through our network (leading to errors below 2 mm).
翻訳日:2022-11-28 09:44:21 公開日:2020-05-27
# 平行ビームX線CT画像再構成におけるグラムフィルタリングとシングラム補間

Gram filtering and sinogram interpolation for pixel-basis in parallel-beam X-ray CT reconstruction ( http://arxiv.org/abs/2005.13471v1 )

ライセンス: Link先を確認
Ziyu Shu, Alireza Entezari(参考訳) 平行ビームX線CTの鍵となる側面は前方および後方投影であるが、その計算負担はアプリケーションにとって障害であり続けている。 本稿では,グラムフィルタを正確に計算し,シングラム信号を最適に補間することにより,関連するアルゴリズムの性能を向上させる手法を提案する。 また,検出器のぼかし効果を効率的にモデルに含めることができる。 解析ファントム画像と実CT画像の両方を用いて, 後方投射と反復再建の速度と品質の改善について検討した。

The key aspect of parallel-beam X-ray CT is forward and back projection, but its computational burden continues to be an obstacle for applications. We propose a method to improve the performance of related algorithms by calculating the Gram filter exactly and interpolating the sinogram signal optimally. In addition, the detector blur effect can be included in our model efficiently. The improvements in speed and quality for back projection and iterative reconstruction are shown in our experiments on both analytical phantoms and real CT images.
翻訳日:2022-11-28 09:44:02 公開日:2020-05-27
# 非拘束マルチビュービデオからの動的イベントの4次元可視化

4D Visualization of Dynamic Events from Unconstrained Multi-View Videos ( http://arxiv.org/abs/2005.13532v1 )

ライセンス: Link先を確認
Aayush Bansal, Minh Vo, Yaser Sheikh, Deva Ramanan, Srinivasa Narasimhan(参考訳) 本稿では,ハンドヘルドマルチカメラで撮影された映像から動的イベントを4次元時空可視化するデータ駆動手法を提案する。 我々のアプローチの鍵は、イベントの静的および動的側面を構成するためにシーン固有の自己教師型ニューラルネットワークを使用することである。 離散的な視点から捉えられるが、このモデルは連続的にイベントの時空を動き回ることができる。 このモデルにより, (1) 時間凍結と視点探索, (2) 視野凍結と時間移動, (3) 時間とビューの両方を同時に変化させる仮想カメラが作成できる。 ビデオの編集も可能で、他のビューに表示されていれば、任意のビューに対してオクルードされたオブジェクトを表示できます。 我々は,最大15台のモバイルカメラで撮影したWild内イベントに対するアプローチを検証する。

We present a data-driven approach for 4D space-time visualization of dynamic events from videos captured by hand-held multiple cameras. Key to our approach is the use of self-supervised neural networks specific to the scene to compose static and dynamic aspects of an event. Though captured from discrete viewpoints, this model enables us to move around the space-time of the event continuously. This model allows us to create virtual cameras that facilitate: (1) freezing the time and exploring views; (2) freezing a view and moving through time; and (3) simultaneously changing both time and view. We can also edit the videos and reveal occluded objects for a given view if it is visible in any of the other views. We validate our approach on challenging in-the-wild events captured using up to 15 mobile cameras.
翻訳日:2022-11-28 09:43:53 公開日:2020-05-27
# 離散長特徴系列マッチングを用いたグラフベース固有受容位置推定

Graph-based Proprioceptive Localization Using a Discrete Heading-Length Feature Sequence Matching Approach ( http://arxiv.org/abs/2005.13704v1 )

ライセンス: Link先を確認
Hsin-Min Cheng and Dezhen Song(参考訳) 原始受容的ローカライゼーション(Proprioceptive Localization)とは、外部のランドマークの認識や認識に依存しない、ロボット中心の新たなタイプのローカライゼーション手法である。 これらの方法は、悪天候、照明条件の悪さ、またはカメラやレーザーレンジャーファインダーのような過酷なセンサーを阻害するその他の極端な環境条件に自然に免疫する。 これらの方法は慣性測定単位(imus)や車輪エンコーダなどの固有受容センサに依存する。 磁気受容の支援により、センサは、事前の既知の地図を照会して位置を取得するために使用される車両軌道の基本的な推定を提供することができる。 グラフベースプロピロセプティブローカライゼーション (GBPL) として, 環境条件下でのローカライゼーションのための低コストなフォールバックソリューションを提供する。 ロボット/車両が走行する際には,軌道から直線区間の行長値列を抽出し,その列を既知の地図から抽象化した処理済みの行長グラフ(HLG)とマッチングして,グラフマッチング手法でロボットをローカライズする。 HLGからの情報を用いて、位置アライメントと検証モジュールは、軌道ドリフト、ホイールスリップ、タイヤインフレーションレベルを補償します。 我々はアルゴリズムを実装し、シミュレーションと物理実験の両方でテストした。 このアルゴリズムは、ロボットの位置を連続的に検出し、先行マップが許すレベル(10m未満)で正確な位置決めを実現する。

Proprioceptive localization refers to a new class of robot egocentric localization methods that do not rely on the perception and recognition of external landmarks. These methods are naturally immune to bad weather, poor lighting conditions, or other extreme environmental conditions that may hinder exteroceptive sensors such as a camera or a laser ranger finder. These methods depend on proprioceptive sensors such as inertial measurement units (IMUs) and/or wheel encoders. Assisted by magnetoreception, the sensors can provide a rudimentary estimation of vehicle trajectory which is used to query a prior known map to obtain location. Named as graph-based proprioceptive localization (GBPL), we provide a low cost fallback solution for localization under challenging environmental conditions. As a robot/vehicle travels, we extract a sequence of heading-length values for straight segments from the trajectory and match the sequence with a pre-processed heading-length graph (HLG) abstracted from the prior known map to localize the robot under a graph-matching approach. Using the information from HLG, our location alignment and verification module compensates for trajectory drift, wheel slip, or tire inflation level. We have implemented our algorithm and tested it in both simulated and physical experiments. The algorithm runs successfully in finding robot location continuously and achieves localization accurate at the level that the prior map allows (less than 10m).
翻訳日:2022-11-28 09:43:16 公開日:2020-05-27
# 暗黙的生成アンサンブル後処理による確率的多変量電力価格予測

Probabilistic multivariate electricity price forecasting using implicit generative ensemble post-processing ( http://arxiv.org/abs/2005.13417v1 )

ライセンス: Link先を確認
Tim Janke and Florian Steinke(参考訳) 予測の不確実性の信頼性はリスクに敏感な最適意思決定に不可欠である。 本稿では,多変量確率的電力価格予測の新しいフレームワークである暗黙的な生成後処理を提案する。 点予測モデルのアンサンブルに基づく確率自由暗黙的生成モデルを用いて,コヒーレントな依存性構造を持つ多変量電力価格シナリオを合同予測分布の表現として生成する。 提案手法は,確立されたモデル組合せベンチマークを上回っている。 これはドイツのday-ahead marketのデータセットで示されている。 我々の手法はドメイン固有のエキスパートモデルの集合の上で機能するため、他の予測タスクに容易にデプロイできる。

The reliable estimation of forecast uncertainties is crucial for risk-sensitive optimal decision making. In this paper, we propose implicit generative ensemble post-processing, a novel framework for multivariate probabilistic electricity price forecasting. We use a likelihood-free implicit generative model based on an ensemble of point forecasting models to generate multivariate electricity price scenarios with a coherent dependency structure as a representation of the joint predictive distribution. Our ensemble post-processing method outperforms well-established model combination benchmarks. This is demonstrated on a data set from the German day-ahead market. As our method works on top of an ensemble of domain-specific expert models, it can readily be deployed to other forecasting tasks.
翻訳日:2022-11-28 09:42:49 公開日:2020-05-27
# 機械学習による侵入攻撃の訓練のためのスペクトル認識損失メトリクスの検討

Investigating a Spectral Deception Loss Metric for Training Machine Learning-based Evasion Attacks ( http://arxiv.org/abs/2005.13124v1 )

ライセンス: Link先を確認
Matthew DelVecchio, Vanessa Arndorfer, William C. Headley(参考訳) 敵の回避攻撃は、幅広い機械学習アプリケーションでパフォーマンスの低下を引き起こすことに成功している。 そのような応用の1つは周波数スペクトルセンシングである。 この領域での回避攻撃は特に成功したが、彼らは信号の意図した目的を損なうことに成功している。 より具体的には、実世界の興味ある応用のために、盗聴者を避けるために送信された妨害信号は元の信号から遠く離れるべきではない。 著者らによる最近の研究は、回避とコミュニケーションの相反する目標間のインテリジェントなバランスを可能にする攻撃フレームワークを実証している。 しかし、これらの手法では、通信劣化を最小限に抑える対角信号の作成を検討する一方で、信号のスペクトル形状を犠牲にしてそれを行うことを示した。 これにより、敵の信号をフィルタリングなどの盗聴者の防御に開放し、攻撃の効果を損なう可能性がある。 これを改善するために、本研究では、トレーニングプロセス中にスペクトルの形状を元の信号とよりインラインにするよう強制するために実装可能な、新しいスペクトル偏差損失計量を導入する。 概念の最初の証明として、提案された損失の出発点を提供する様々な方法が提示される。 これらの手法は, 性能解析により, 逆信号の形状制御に有効であることが示された。

Adversarial evasion attacks have been very successful in causing poor performance in a wide variety of machine learning applications. One such application is radio frequency spectrum sensing. While evasion attacks have proven particularly successful in this area, they have done so at the detriment of the signal's intended purpose. More specifically, for real-world applications of interest, the resulting perturbed signal that is transmitted to evade an eavesdropper must not deviate far from the original signal, less the intended information is destroyed. Recent work by the authors and others has demonstrated an attack framework that allows for intelligent balancing between these conflicting goals of evasion and communication. However, while these methodologies consider creating adversarial signals that minimize communications degradation, they have been shown to do so at the expense of the spectral shape of the signal. This opens the adversarial signal up to defenses at the eavesdropper such as filtering, which could render the attack ineffective. To remedy this, this work introduces a new spectral deception loss metric that can be implemented during the training process to force the spectral shape to be more in-line with the original signal. As an initial proof of concept, a variety of methods are presented that provide a starting point for this proposed loss. Through performance analysis, it is shown that these techniques are effective in controlling the shape of the adversarial signal.
翻訳日:2022-11-28 09:42:38 公開日:2020-05-27
# ソフトウェア工学のための機械学習: 体系的マッピング

Machine Learning for Software Engineering: A Systematic Mapping ( http://arxiv.org/abs/2005.13299v1 )

ライセンス: Link先を確認
Saad Shafiq, Atif Mashkoor, Christoph Mayr-Dorn, Alexander Egyed(参考訳) コンテキスト: ソフトウェア開発業界は、現代のソフトウェアシステムを高度にインテリジェントで自己学習システムに移行するために、機械学習を急速に採用しています。 しかし、機械学習がソフトウェア工学のライフサイクルを改善できる可能性がまだ発見されていない、すなわち、機械学習がソフトウェア工学の労力と複雑さを減らし、ソフトウェアシステムの品質を向上させるのにどれだけの程度で役立つかである。 これまでのところ、ソフトウェア工学のライフサイクル段階における機械学習の採用に関する現在の最先端を探求する包括的な研究は存在していない。 目的:本稿では,前述の問題を取り上げ,ソフトウェア工学における機械学習の利用数の増加に関する最新技術を紹介する。 方法: 経験的ソフトウェア工学の標準ガイドラインと原則に従って, 機械学習をソフトウェア工学に適用するための体系的なマッピング研究を行う。 結果:本研究では,各種ソフトウェアエンジニアリングライフサイクル段階に適用性に応じて,最先端の機械学習手法を分類する機械学習・ソフトウェアエンジニアリング(MLSE)の分類を紹介した。 本研究の結果,227項目が厳選され,分析された。 結論: 選択した論文から,ソフトウェア工学プロジェクトにおいて機械学習技術を採用する可能性を理解する上で,学術者や実践者にも有用なさまざまな側面を考察する。

Context: The software development industry is rapidly adopting machine learning for transitioning modern day software systems towards highly intelligent and self-learning systems. However, the full potential of machine learning for improving the software engineering life cycle itself is yet to be discovered, i.e., up to what extent machine learning can help reducing the effort/complexity of software engineering and improving the quality of resulting software systems. To date, no comprehensive study exists that explores the current state-of-the-art on the adoption of machine learning across software engineering life cycle stages. Objective: This article addresses the aforementioned problem and aims to present a state-of-the-art on the growing number of uses of machine learning in software engineering. Method: We conduct a systematic mapping study on applications of machine learning to software engineering following the standard guidelines and principles of empirical software engineering. Results: This study introduces a machine learning for software engineering (MLSE) taxonomy classifying the state-of-the-art machine learning techniques according to their applicability to various software engineering life cycle stages. Overall, 227 articles were rigorously selected and analyzed as a result of this study. Conclusion: From the selected articles, we explore a variety of aspects that should be helpful to academics and practitioners alike in understanding the potential of adopting machine learning techniques during software engineering projects.
翻訳日:2022-11-28 09:41:56 公開日:2020-05-27
# 進化する'インテリジェント'なWebサービスに気をつけて! AIファーストコンポーネントを保護する統合アーキテクチャ戦略

Beware the evolving 'intelligent' web service! An integration architecture tactic to guard AI-first components ( http://arxiv.org/abs/2005.13186v1 )

ライセンス: Link先を確認
Alex Cummaudo, Scott Barnett, Rajesh Vasa, John Grundy, Mohamed Abdelrazek(参考訳) インテリジェントサービスは、単純なRESTful APIエンドポイントを通じて開発者にAIのパワーを提供し、機械学習の複雑さを抽象化する。 しかし、これらのインテリジェントなサービス(コンピュータビジョンなど)のほとんどは、時間とともに学習する。 抽象化された'ブラックボックス'の内部が隠れて進化すると、これらの進化するサービスに依存するアプリケーションの堅牢性に落とし穴が現れる。 開発者がインテリジェントなサービスに依存するプロジェクトの計画と構築の方法に適応しなければ、大きなギャップとリスクがプロジェクトの計画と開発の両方に繋がる。 したがって、ソフトウェアエンジニアはソフトウェア進化のリスクをいかに軽減し、自分たちのアプリケーションが品質を維持するかを保証するか? 当社の提案は、インテリジェントなサービス依存ソフトウェアロバスト性を改善するために設計されたアーキテクチャ戦術です。 この戦略では、インテリジェントなサービスに対してベースラインのアプリケーション固有のベンチマークデータセットを作成することで、進化的な振る舞いの変更を緩和する。 本アーキテクチャの実装に関する技術的評価は,サービスへの送信時に進化する331個の画像からなるデータセットを用いて,実質的な信頼進化の1,054ケースと応答ラベルセットに対する実質的な変化の2,461ケースを識別する方法を示す。

Intelligent services provide the power of AI to developers via simple RESTful API endpoints, abstracting away many complexities of machine learning. However, most of these intelligent services-such as computer vision-continually learn with time. When the internals within the abstracted 'black box' become hidden and evolve, pitfalls emerge in the robustness of applications that depend on these evolving services. Without adapting the way developers plan and construct projects reliant on intelligent services, significant gaps and risks result in both project planning and development. Therefore, how can software engineers best mitigate software evolution risk moving forward, thereby ensuring that their own applications maintain quality? Our proposal is an architectural tactic designed to improve intelligent service-dependent software robustness. The tactic involves creating an application-specific benchmark dataset baselined against an intelligent service, enabling evolutionary behaviour changes to be mitigated. A technical evaluation of our implementation of this architecture demonstrates how the tactic can identify 1,054 cases of substantial confidence evolution and 2,461 cases of substantial changes to response label sets using a dataset consisting of 331 images that evolve when sent to a service.
翻訳日:2022-11-28 09:35:46 公開日:2020-05-27
# BRENDA: フェイクニュース検出のためのブラウザ拡張

BRENDA: Browser Extension for Fake News Detection ( http://arxiv.org/abs/2005.13270v1 )

ライセンス: Link先を確認
Bjarte Botnevik, Eirik Sakariassen, and Vinay Setty(参考訳) 近年,偽ニュースなどの誤報が注目されている。 それは社会、政治、経済に深刻な影響を及ぼす。 これにより、snopesやpolitifactといった手作業によるファクトチェックwebサイトが台頭した。 しかし、誤情報の規模は検証能力に制限がある。 本稿では,偽クレームの信頼性評価のプロセス全体を自動化するためのブラウザ拡張であるbrendaを提案する。 BRENDAはテスト対象のディープニューラルネットワークアーキテクチャを使用して、事実チェックにふさわしいクレームを自動的に識別し、結果とエビデンスをユーザに提示する。 BRENDAはブラウザ拡張であるため、Webページを離れることなく、エンドユーザの高速なファクトチェック機能を備えている。

Misinformation such as fake news has drawn a lot of attention in recent years. It has serious consequences on society, politics and economy. This has lead to a rise of manually fact-checking websites such as Snopes and Politifact. However, the scale of misinformation limits their ability for verification. In this demonstration, we propose BRENDA a browser extension which can be used to automate the entire process of credibility assessments of false claims. Behind the scenes BRENDA uses a tested deep neural network architecture to automatically identify fact check worthy claims and classifies as well as presents the result along with evidence to the user. Since BRENDA is a browser extension, it facilities fast automated fact checking for the end user without having to leave the Webpage.
翻訳日:2022-11-28 09:35:21 公開日:2020-05-27
# この説明は誰のためですか。 eXplainable AIのためのヒューマンインテリジェンスと知識グラフ

Who is this Explanation for? Human Intelligence and Knowledge Graphs for eXplainable AI ( http://arxiv.org/abs/2005.13275v1 )

ライセンス: Link先を確認
Irene Celino(参考訳) eXplainable AIは、AIアルゴリズムの出力に関する説明をユーザに生成することに焦点を当てている。 このようなユーザは、マシンの結果を信頼するかを決めるために、aiシステムを解釈する必要があります。 したがって、この課題に取り組む際には、利用者のターゲットコミュニティが解釈可能な説明を作成するために適切な注意を払わなければならない。 この章では、人間の説明を構成するもの、すなわち人間の意思決定者によって解釈可能で行動可能な機械行動の正当化をよりよく調査する必要があると主張している。 特に、人工知能がeXplainable AIにもたらす貢献、特に知識グラフの活用に重点を置いている。 実際、私たちは、知識表現と推論、社会科学、人間計算、人間と機械の協調研究(すでに他のAIブランチで調査されている)のより良い相互作用を求め、ヒューマン・イン・ザ・ループアプローチを採用することで、eXplainable AIの目標をサポートする。

eXplainable AI focuses on generating explanations for the output of an AI algorithm to a user, usually a decision-maker. Such user needs to interpret the AI system in order to decide whether to trust the machine outcome. When addressing this challenge, therefore, proper attention should be given to produce explanations that are interpretable by the target community of users. In this chapter, we claim for the need to better investigate what constitutes a human explanation, i.e. a justification of the machine behaviour that is interpretable and actionable by the human decision makers. In particular, we focus on the contributions that Human Intelligence can bring to eXplainable AI, especially in conjunction with the exploitation of Knowledge Graphs. Indeed, we call for a better interplay between Knowledge Representation and Reasoning, Social Sciences, Human Computation and Human-Machine Cooperation research -- as already explored in other AI branches -- in order to support the goal of eXplainable AI with the adoption of a Human-in-the-Loop approach.
翻訳日:2022-11-28 09:35:03 公開日:2020-05-27
# 変動リカレントニューラルネットワークを用いた能動推論による移動エージェントのゴール指向計画

Goal-Directed Planning for Habituated Agents by Active Inference Using a Variational Recurrent Neural Network ( http://arxiv.org/abs/2005.14656v1 )

ライセンス: Link先を確認
Takazumi Matsumoto and Jun Tani(参考訳) 定性的感覚運動を通じて獲得した世界の部分モデルのみを用いて行動計画を作成することで、エージェントが目標を達成する方法について問うことが重要である。 多くの既存のロボティクス研究はフォワードモデルフレームワークを使用しているが、高度な自由度を持つ一般化問題が存在する。 本研究は,生成モデルを用いた予測符号化(pc)とアクティブ推論(aif)フレームワークが,よく習熟した知覚運動路から抽出された確率的構造を表す低次元潜在状態空間における事前分布を学習することにより,より良い一般化を実現できることを示す。 提案モデルでは, 最適潜在変数を推論し, 証拠を最大化するためのシナプス重みを推定する一方, 目標指向計画では, 推定下限を最大化するために潜在変数を推定することで学習を行う。 提案モデルは,単純なロボットタスクと複雑なロボットタスクの両方を用いてシミュレーションにより評価され,正規化係数の中間値を設定し,限られたトレーニングデータで学習する上で十分な一般化が得られた。 さらに, 提案モデルが, 慣性軌跡の範囲内での運動計画の探索を封じ込めた学習前において, 目標指向計画において従来のフォワードモデルよりも優れていることを示す。

It is crucial to ask how agents can achieve goals by generating action plans using only partial models of the world acquired through habituated sensory-motor experiences. Although many existing robotics studies use a forward model framework, there are generalization issues with high degrees of freedom. The current study shows that the predictive coding (PC) and active inference (AIF) frameworks, which employ a generative model, can develop better generalization by learning a prior distribution in a low dimensional latent state space representing probabilistic structures extracted from well habituated sensory-motor trajectories. In our proposed model, learning is carried out by inferring optimal latent variables as well as synaptic weights for maximizing the evidence lower bound, while goal-directed planning is accomplished by inferring latent variables for maximizing the estimated lower bound. Our proposed model was evaluated with both simple and complex robotic tasks in simulation, which demonstrated sufficient generalization in learning with limited training data by setting an intermediate value for a regularization coefficient. Furthermore, comparative simulation results show that the proposed model outperforms a conventional forward model in goal-directed planning, due to the learned prior confining the search of motor plans within the range of habituated trajectories.
翻訳日:2022-11-28 09:34:21 公開日:2020-05-27
# 電話機能による音声翻訳の改善

Phone Features Improve Speech Translation ( http://arxiv.org/abs/2005.13681v1 )

ライセンス: Link先を確認
Elizabeth Salesky and Alan W Black(参考訳) 音声翻訳(ST)のエンド・ツー・エンドモデルでは、従来のASRおよびMTモデルのカスケードよりも、より単純なモデルアーキテクチャとエラーの伝播を減らす可能性があり、より密にカップル音声認識(ASR)と機械翻訳(MT)が可能である。 彼らのパフォーマンスは、しばしば優れていると仮定されるが、多くの状況では、まだそうではない。 カスケードモデルとエンド・ツー・エンドモデルを高,中,低リソース条件で比較し,カスケードがより強いベースラインを維持していることを示す。 さらに,電話機能をstモデルに組み込む手法を2つ紹介する。 これらの機能は両方のアーキテクチャを改善し、エンド・ツー・エンドモデルとカスケードの間のギャップを狭め、低リソース設定で最大9 bleuで以前の学術研究を上回っています。

End-to-end models for speech translation (ST) more tightly couple speech recognition (ASR) and machine translation (MT) than a traditional cascade of separate ASR and MT models, with simpler model architectures and the potential for reduced error propagation. Their performance is often assumed to be superior, though in many conditions this is not yet the case. We compare cascaded and end-to-end models across high, medium, and low-resource conditions, and show that cascades remain stronger baselines. Further, we introduce two methods to incorporate phone features into ST models. We show that these features improve both architectures, closing the gap between end-to-end models and cascades, and outperforming previous academic work -- by up to 9 BLEU on our low-resource setting.
翻訳日:2022-11-28 09:33:58 公開日:2020-05-27
# ミスアライメントと部分ラベルからのセグメンテーションの学習

Learning to segment from misaligned and partial labels ( http://arxiv.org/abs/2005.13180v1 )

ライセンス: Link先を確認
Simone Fobi, Terence Conlon, Jayant Taneja, Vijay Modi(参考訳) 大規模に情報を抽出するため、研究者はリモートセンシング画像にセマンティックセグメンテーション技術を適用している。 完全な教師付き学習は正確なピクセル単位のセグメンテーションを可能にするが、必要な徹底的なデータセットのコンパイルは、しばしば非常に高価である。 その結果、多くの非都市環境は正確なセグメンテーションに必要な地平線を欠いている。 これらのリージョンの既存のオープンソースインフラストラクチャデータは、非現実的で、余分なものではない。 OpenStreetMaps (OSM)のようなオープンソースのインフラストラクチャアノテーションは、この問題を代表している: OSMラベルは、ロードやビルディングのフットプリントに対するグローバルな洞察を提供するが、ノイズや部分的なアノテーションは、それらから学ぶセグメンテーションアルゴリズムのパフォーマンスを制限する。 本稿では,不整合アノテーションと欠落アノテーションを併用した画素ワイド画像のセグメンテーションを改良した,新規で一般化可能な2段階フレームワークを提案する。 まず,不正に登録されたオープンソースラベルを訂正するためのアライメント補正ネットワークを提案する。 次に,アノテーションの欠如にもかかわらず,修正ラベルを使用してインフラストラクチャフットプリントを予測する,ポインタセグメンテーションネットワークと呼ばれるセグメンテーションモデルを示す。 我々はAIRSデータセット上で連続的な性能をテストし、平均交叉対合同スコア0.79を達成する。 本手法は,osmラベルにアライメント補正ネットワークを適用することで,品質データへの移動性を低下させるとともに,中分解能データからカリフォルニア州の農地境界予測におけるポインターセグメンテーションネットワークの精度を実証する。 全体として,本手法は,多量のトレーニングデータを有する複数のアプリケーションに対して頑健であり,ノイズの多い部分データから信頼できる情報を抽出する方法を提供する。

To extract information at scale, researchers increasingly apply semantic segmentation techniques to remotely-sensed imagery. While fully-supervised learning enables accurate pixel-wise segmentation, compiling the exhaustive datasets required is often prohibitively expensive. As a result, many non-urban settings lack the ground-truth needed for accurate segmentation. Existing open source infrastructure data for these regions can be inexact and non-exhaustive. Open source infrastructure annotations like OpenStreetMaps (OSM) are representative of this issue: while OSM labels provide global insights to road and building footprints, noisy and partial annotations limit the performance of segmentation algorithms that learn from them. In this paper, we present a novel and generalizable two-stage framework that enables improved pixel-wise image segmentation given misaligned and missing annotations. First, we introduce the Alignment Correction Network to rectify incorrectly registered open source labels. Next, we demonstrate a segmentation model -- the Pointer Segmentation Network -- that uses corrected labels to predict infrastructure footprints despite missing annotations. We test sequential performance on the AIRS dataset, achieving a mean intersection-over-union score of 0.79; more importantly, model performance remains stable as we decrease the fraction of annotations present. We demonstrate the transferability of our method to lower quality data, by applying the Alignment Correction Network to OSM labels to correct building footprints; we also demonstrate the accuracy of the Pointer Segmentation Network in predicting cropland boundaries in California from medium resolution data. Overall, our methodology is robust for multiple applications with varied amounts of training data present, thus offering a method to extract reliable information from noisy, partial data.
翻訳日:2022-11-28 09:33:23 公開日:2020-05-27
# 血管分別と動脈・静脈分類の術後処理による共同学習

Joint Learning of Vessel Segmentation and Artery/Vein Classification with Post-processing ( http://arxiv.org/abs/2005.13337v1 )

ライセンス: Link先を確認
Liangzhi Li, Manisha Verma, Yuta Nakashima, Ryo Kawasaki, Hajime Nagahara(参考訳) 網膜イメージングは様々な疾患の診断に有用なツールである。 しかし、経験豊富な専門家でさえ、網膜画像を読むことは困難で時間がかかります。 自動網膜画像解析への基本的なステップは血管のセグメンテーションと動脈/静脈の分類であり、潜在的な疾患に関する様々な情報を提供する。 網膜画像解析のための既存の自動化手法の性能向上のために,2段階の血管分類を提案する。 我々は、UNetベースのモデルSeqNetを採用し、背景から船舶を正確に分割し、船舶のタイプを予測する。 本モデルは,ラベル分布バイアスの問題を緩和し,学習を容易にするセグメンテーションと分類を逐次行う。 分類結果をさらに洗練するために, 船間構造情報を考慮した後処理を行い, 周囲の船舶に対する信頼性の高い予測を行う。 実験の結果,AUCを0.98に改善し,DRIVEデータセットの分類精度は0.92に向上した。

Retinal imaging serves as a valuable tool for diagnosis of various diseases. However, reading retinal images is a difficult and time-consuming task even for experienced specialists. The fundamental step towards automated retinal image analysis is vessel segmentation and artery/vein classification, which provide various information on potential disorders. To improve the performance of the existing automated methods for retinal image analysis, we propose a two-step vessel classification. We adopt a UNet-based model, SeqNet, to accurately segment vessels from the background and make prediction on the vessel type. Our model does segmentation and classification sequentially, which alleviates the problem of label distribution bias and facilitates training. To further refine classification results, we post-process them considering the structural information among vessels to propagate highly confident prediction to surrounding vessels. Our experiments show that our method improves AUC to 0.98 for segmentation and the accuracy to 0.92 in classification over DRIVE dataset.
翻訳日:2022-11-28 09:26:48 公開日:2020-05-27
# NDD20:粗くきめ細かい分類のための大規模数発のイルカデータセット

NDD20: A large-scale few-shot dolphin dataset for coarse and fine-grained categorisation ( http://arxiv.org/abs/2005.13359v1 )

ライセンス: Link先を確認
Cameron Trotter and Georgia Atkinson and Matt Sharpe and Kirsten Richardson and A. Stephen McGough and Nick Wright and Ben Burville and Per Berggren(参考訳) 粗い、きめ細かいインスタンスセグメンテーションと分類の両方にアノテートされた課題の画像データセットであるNorthumberland Dolphin Dataset 2020 (NDD20)を紹介した。 NDDの最初のリリースであるこのデータセットは、環境保護研究へのコンピュータビジョンの急速な拡張と、極度の環境条件に適合するフィールドデプロイ可能なシステム(オープンソースのデータセットがほとんどない領域)の生産に対応するために作成された。 NDD20は、伝統的に粗くきめ細かなセグメンテーションのために、2つの異なるイルカ種の上と下にある大量の水画像を含んでいる。 NDD20に含まれるすべてのデータは、イギリスのノーサンバーランド海岸線周辺の北海で手動で収集された。 NDD20を用いて学習した標準ディープラーニングネットワークアーキテクチャを用いて実験を行い,その結果を報告する。

We introduce the Northumberland Dolphin Dataset 2020 (NDD20), a challenging image dataset annotated for both coarse and fine-grained instance segmentation and categorisation. This dataset, the first release of the NDD, was created in response to the rapid expansion of computer vision into conservation research and the production of field-deployable systems suited to extreme environmental conditions -- an area with few open source datasets. NDD20 contains a large collection of above and below water images of two different dolphin species for traditional coarse and fine-grained segmentation. All data contained in NDD20 was obtained via manual collection in the North Sea around the Northumberland coastline, UK. We present experimentation using standard deep learning network architecture trained using NDD20 and report baselines results.
翻訳日:2022-11-28 09:26:31 公開日:2020-05-27
# 提案アノテーション付き雑音ラベルからの自己更新学習によるX線アンギオグラムの血管分割の弱化

Weakly Supervised Vessel Segmentation in X-ray Angiograms by Self-Paced Learning from Noisy Labels with Suggestive Annotation ( http://arxiv.org/abs/2005.13366v1 )

ライセンス: Link先を確認
Jingyang Zhang, Guotai Wang, Hongzhi Xie, Shuyang Zhang, Ning Huang, Shaoting Zhang, Lixu Gu(参考訳) 畳み込みニューラルネットワーク(CNN)によるX線アンギオグラムにおける冠状動脈のセグメンテーションは、多くの訓練画像にすべてのピクセルを正確にアノテートする必要があるため、特に複雑な冠状樹では非常に労働集約的である。 そこで本研究では,完全手動アノテーションにより得られる正確なラベルではなく,自動血管拡張により発生するノイズの多い擬似ラベルから学習する,弱教師付き学習フレームワークを提案する。 典型的なセルフペースト学習方式は、擬似ラベルの体系的バイアスに挑戦しながらラベルノイズに対してトレーニングプロセスを堅牢にするためであり、テスト時のCNNの性能低下につながる。 この問題を解決するために,提案するアノテーションを用いて潜在的な誤りを修正するためのアノテーション修正型セルフペースト学習フレームワーク(AR-SPL)を提案する。 また, トレーニング中のCNNだけでなく, 生データから直接抽出した冠状動脈の幾何学的特徴に基づいて, 提案アノテーションの最小アノテーションコストを最小化するために, 精巧なモデル・血管性不確実性推定法を提案する。 実験によると 提案するフレームワークは 1) 完全教師付き学習に匹敵する精度で、他の弱教師付き学習フレームワークを著しく上回っている。 2)アノテーションコストの大幅な削減、すなわち、アノテーション時間の75.18%が節約され、画像領域の3.46%のみが注釈付けが必要となる。 3) 効果的な介入プロセスにより,手作業によるインタラクションがさらに少なく,パフォーマンスが向上する。

The segmentation of coronary arteries in X-ray angiograms by convolutional neural networks (CNNs) is promising yet limited by the requirement of precisely annotating all pixels in a large number of training images, which is extremely labor-intensive especially for complex coronary trees. To alleviate the burden on the annotator, we propose a novel weakly supervised training framework that learns from noisy pseudo labels generated from automatic vessel enhancement, rather than accurate labels obtained by fully manual annotation. A typical self-paced learning scheme is used to make the training process robust against label noise while challenged by the systematic biases in pseudo labels, thus leading to the decreased performance of CNNs at test time. To solve this problem, we propose an annotation-refining self-paced learning framework (AR-SPL) to correct the potential errors using suggestive annotation. An elaborate model-vesselness uncertainty estimation is also proposed to enable the minimal annotation cost for suggestive annotation, based on not only the CNNs in training but also the geometric features of coronary arteries derived directly from raw data. Experiments show that our proposed framework achieves 1) comparable accuracy to fully supervised learning, which also significantly outperforms other weakly supervised learning frameworks; 2) largely reduced annotation cost, i.e., 75.18% of annotation time is saved, and only 3.46% of image regions are required to be annotated; and 3) an efficient intervention process, leading to superior performance with even fewer manual interactions.
翻訳日:2022-11-28 09:25:46 公開日:2020-05-27
# 解剖学的局所からの学習による骨年齢評価の改善

Improve bone age assessment by learning from anatomical local regions ( http://arxiv.org/abs/2005.13452v1 )

ライセンス: Link先を確認
Dong Wang, Kexin Zhang, Jia Ding and Liwei Wang(参考訳) 骨格骨年齢評価(BAA)は,ヒト骨の生物学的および構造的成熟を評価することを目的としている。 臨床的には、Tanner and Whitehouse (TW2) 法は放射線技師がBAAを行うために広く用いられる方法である。 TW2法は手を利害の領域(ROI)に分割し、解剖学的ROIを別々に分析して骨年齢を推定する。 局所的な情報の分析を考慮し,TW2法は実際に正確な結果を示す。 TW2の精神に続いて,解剖学的局所認識ネットワーク(ALA-Net)と呼ばれる骨年齢自動評価モデルを提案する。 ALA-Netでは、手の構造を学習し、局所情報を抽出するために解剖学的局所抽出モジュールが導入された。 さらに,訓練プロセス中に余分な正規化を提供するための解剖学的パッチ訓練戦略も設計する。 本モデルでは解剖学的roisを検知し,関節の骨年齢をエンドツーエンドで推定できる。 実験の結果,我々のALA-Netは,公開されているRSNAデータセット上での3.91の平均絶対誤差(MAE)という,最先端の単一モデルの性能を達成できた。 本モデルの設計はよく知られたTW2法とよく一致しているため,臨床応用には信頼性が高い。

Skeletal bone age assessment (BAA), as an essential imaging examination, aims at evaluating the biological and structural maturation of human bones. In the clinical practice, Tanner and Whitehouse (TW2) method is a widely-used method for radiologists to perform BAA. The TW2 method splits the hands into Region Of Interests (ROI) and analyzes each of the anatomical ROI separately to estimate the bone age. Because of considering the analysis of local information, the TW2 method shows accurate results in practice. Following the spirit of TW2, we propose a novel model called Anatomical Local-Aware Network (ALA-Net) for automatic bone age assessment. In ALA-Net, anatomical local extraction module is introduced to learn the hand structure and extract local information. Moreover, we design an anatomical patch training strategy to provide extra regularization during the training process. Our model can detect the anatomical ROIs and estimate bone age jointly in an end-to-end manner. The experimental results show that our ALA-Net achieves a new state-of-the-art single model performance of 3.91 mean absolute error (MAE) on the public available RSNA dataset. Since the design of our model is well consistent with the well recognized TW2 method, it is interpretable and reliable for clinical usage.
翻訳日:2022-11-28 09:25:16 公開日:2020-05-27
# 3次元オンコロジーイメージングにおける散乱分布・小・臨界重要な物体の検出

Detecting Scatteredly-Distributed, Small, andCritically Important Objects in 3D OncologyImaging via Decision Stratification ( http://arxiv.org/abs/2005.13705v1 )

ライセンス: Link先を確認
Zhuotun Zhu, Ke Yan, Dakai Jin, Jinzheng Cai, Tsung-Ying Ho, Adam P Harrison, Dazhou Guo, Chun-Hung Chao, Xianghua Ye, Jing Xiao, Alan Yuille, and Le Lu(参考訳) 3Dオンコロジー画像に散在する、小さく、重要で重要な物体を発見・特定するのは非常に難しい。 これまでに計算課題として研究されていない腫瘍・癌転移性リンパ節(osln)の検出と分節化に焦点をあてた。 外科的切除および放射線治療の下流ワークフローにおいて,OSLNsの拡散を決定・明らかにすることが,それに対応する領域の定義に不可欠である。 放射線治療を受けた患者に対しては、LNが転移するかどうかの高レベルな推論を含む経験的放射線腫瘍学者が実施する。 そこで本研究では,oslnを腫瘍近位領域と腫瘍異型領域に分けた分割決定階層化手法を提案する。 これは、各カテゴリが、外観、サイズ、その他の特性において、それぞれ異なる基底分布を持つという観察によって動機付けられたものである。 カテゴリーごとに2つの個別検出ネットワークを訓練し、融合する。 偽陽性(FP)をさらに軽減するために,高次病変特性と局所的な3D画像パッチから得られた特徴を組み合わせた新しいグローバルローカルネットワーク(GLNet)を提案する。 今回,PETおよびCTによる食道癌141例(過去最大)について検討した。 その結果,従来の最先端の方法と比較して,患者のリコール率は45ドルから67ドルに大幅に改善した。 OSLNの最高額である0.828ドルのリコールは臨床的に関連があり、価値のあるものである。

Finding and identifying scatteredly-distributed, small, and critically important objects in 3D oncology images is very challenging. We focus on the detection and segmentation of oncology-significant (or suspicious cancer metastasized) lymph nodes (OSLNs), which has not been studied before as a computational task. Determining and delineating the spread of OSLNs is essential in defining the corresponding resection/irradiating regions for the downstream workflows of surgical resection and radiotherapy of various cancers. For patients who are treated with radiotherapy, this task is performed by experienced radiation oncologists that involves high-level reasoning on whether LNs are metastasized, which is subject to high inter-observer variations. In this work, we propose a divide-and-conquer decision stratification approach that divides OSLNs into tumor-proximal and tumor-distal categories. This is motivated by the observation that each category has its own different underlying distributions in appearance, size and other characteristics. Two separate detection-by-segmentation networks are trained per category and fused. To further reduce false positives (FP), we present a novel global-local network (GLNet) that combines high-level lesion characteristics with features learned from localized 3D image patches. Our method is evaluated on a dataset of 141 esophageal cancer patients with PET and CT modalities (the largest to-date). Our results significantly improve the recall from $45\%$ to $67\%$ at $3$ FPs per patient as compared to previous state-of-the-art methods. The highest achieved OSLN recall of $0.828$ is clinically relevant and valuable.
翻訳日:2022-11-28 09:24:56 公開日:2020-05-27
# AFAT:ロバストなビジュアルオブジェクト追跡のための適応型障害対応トラッカー

AFAT: Adaptive Failure-Aware Tracker for Robust Visual Object Tracking ( http://arxiv.org/abs/2005.13708v1 )

ライセンス: Link先を確認
Tianyang Xu, Zhen-Hua Feng, Xiao-Jun Wu, Josef Kittler(参考訳) Siameseアプローチは近年、ビジュアルオブジェクト追跡において有望なパフォーマンスを実現している。 Siameseトラッカーの成功の鍵は、大規模ビデオデータセットのペアワイズオフライントレーニングを通じて、外観不変の機能埋め込み関数を学ぶことである。 しかし、シームズパラダイムはワンショット学習を用いてオンライン追跡タスクをモデル化し、トラッキングプロセスにおけるオンライン適応を妨げる。 さらに、オンライン追跡応答の不確実性は測定されず、潜在的な失敗を無視する問題につながる。 本稿では,追跡段階におけるオンライン適応を提唱する。 そこで本研究では,畳み込みモジュールとlstmモジュールを用いた品質予測ネットワーク (qpn) によって実現された障害検出システムを提案する。 具体的には、過去の逐次フレームおよび現在のフレームからの逐次応答マップを収集して追跡信頼度を予測し、決定レベルでの時空間融合を実現する。 さらに,最先端のsiameseトラッカをシステムと組み合わせることで,afat(adaptive failure-aware tracker)も提供します。 標準ベンチマークデータセットで得られた実験結果は,提案した故障認識システムの有効性とAFATトラッカーの利点を示し,精度と速度の両面で優れた,バランスの取れた性能を示した。

Siamese approaches have achieved promising performance in visual object tracking recently. The key to the success of Siamese trackers is to learn appearance-invariant feature embedding functions via pair-wise offline training on large-scale video datasets. However, the Siamese paradigm uses one-shot learning to model the online tracking task, which impedes online adaptation in the tracking process. Additionally, the uncertainty of an online tracking response is not measured, leading to the problem of ignoring potential failures. In this paper, we advocate online adaptation in the tracking stage. To this end, we propose a failure-aware system, realised by a Quality Prediction Network (QPN), based on convolutional and LSTM modules in the decision stage, enabling online reporting of potential tracking failures. Specifically, sequential response maps from previous successive frames as well as current frame are collected to predict the tracking confidence, realising spatio-temporal fusion in the decision level. In addition, we further provide an Adaptive Failure-Aware Tracker (AFAT) by combing the state-of-the-art Siamese trackers with our system. The experimental results obtained on standard benchmarking datasets demonstrate the effectiveness of the proposed failure-aware system and the merits of our AFAT tracker, with outstanding and balanced performance in both accuracy and speed.
翻訳日:2022-11-28 09:24:30 公開日:2020-05-27
# 法律情報のオープンなプラットフォームを目指して

Towards an Open Platform for Legal Information ( http://arxiv.org/abs/2005.13342v1 )

ライセンス: Link先を確認
Malte Ostendorff, Till Blume, Saskia Ostendorff(参考訳) 法的な情報システム分野の最近の進歩は、法的な文書の処理とアクセスをサポートすることを約束する様々なアプリケーションを生み出した。 残念ながら、これらのアプリケーションにはスコープや拡張性など、さまざまな制限がある。 さらに、他の分野、例えばコンピュータ科学の経済学において観察されているように、法律領域におけるデジタル図書館のオープンアクセスへの傾向を観察しない。 法律分野におけるオープンアクセスを改善するため,我々は,法定オープンデータに対して透過的に処理およびアクセスするためのオープンソースプラットフォームへのアプローチを提案する。 これにより、単一の技術スタックを提供することで、法務アプリケーションの持続可能な開発が可能になる。 さらに、このアプローチは、新しい技術の開発とデプロイを促進する。 概念実証として、6つの技術を実装し、25万以上のドイツの法律と裁判所の決定のためのメタデータを生成しました。 したがって、当社のプラットフォームのユーザには、法的文書へのアクセスだけでなく、含まれた情報も提供できます。

Recent advances in the area of legal information systems have led to a variety of applications that promise support in processing and accessing legal documents. Unfortunately, these applications have various limitations, e.g., regarding scope or extensibility. Furthermore, we do not observe a trend towards open access in digital libraries in the legal domain as we observe in other domains, e.g., economics of computer science. To improve open access in the legal domain, we present our approach for an open source platform to transparently process and access Legal Open Data. This enables the sustainable development of legal applications by offering a single technology stack. Moreover, the approach facilitates the development and deployment of new technologies. As proof of concept, we implemented six technologies and generated metadata for more than 250,000 German laws and court decisions. Thus, we can provide users of our platform not only access to legal documents, but also the contained information.
翻訳日:2022-11-28 09:23:52 公開日:2020-05-27
# Twitterにおけるオピニオン予測のためのニューラル時間オピニオンモデル

Neural Temporal Opinion Modelling for Opinion Prediction on Twitter ( http://arxiv.org/abs/2005.13486v1 )

ライセンス: Link先を確認
Lixing Zhu and Yulan He and Deyu Zhou(参考訳) twitterでの意見予測は、ツイートコンテンツの過渡的性質と近隣のコンテキストのために難しい。 本稿では,ユーザのツイート投稿行動を時間的視点のプロセスとしてモデル化し,ユーザの過去のツイートシーケンスと近隣のツイートが与えられた次のツイートの投稿時間とスタンスラベルを共同で予測する。 我々は,近隣環境における動的トピックシフトを捉えるために,トピック駆動型注意機構を設計する。 実験の結果,提案モデルでは,ポスト時間と将来のツイートのスタンスラベルを,競合するベースラインよりも正確に予測できることがわかった。

Opinion prediction on Twitter is challenging due to the transient nature of tweet content and neighbourhood context. In this paper, we model users' tweet posting behaviour as a temporal point process to jointly predict the posting time and the stance label of the next tweet given a user's historical tweet sequence and tweets posted by their neighbours. We design a topic-driven attention mechanism to capture the dynamic topic shifts in the neighbourhood context. Experimental results show that the proposed model predicts both the posting time and the stance labels of future tweets more accurately compared to a number of competitive baselines.
翻訳日:2022-11-28 09:23:42 公開日:2020-05-27
# Object-QA: 信頼性の高いオブジェクト品質評価を目指して

Object-QA: Towards High Reliable Object Quality Assessment ( http://arxiv.org/abs/2005.13116v1 )

ライセンス: Link先を確認
Jing Lu, Baorui Zou, Zhanzhan Cheng, Shiliang Pu, Shuigeng Zhou, Yi Niu, Fei Wu(参考訳) オブジェクト認識アプリケーションでは、オブジェクトイメージは通常、異なる品質レベルで現れる。 実際には、低品質のオブジェクトイメージフレームをフィルタリングして、堅牢なビデオオブジェクト認識結果を維持し、推論を高速化するなど、より良いアプリケーションパフォーマンスのためにオブジェクト画像の品質を示すことが非常に重要である。 しかし、この問題に対処するための先行研究は明示的に提案されていない。 本稿では,初めてオブジェクト品質評価の問題を定義し,オブジェクト画像の信頼性の高い品質スコアを評価するための効果的なアプローチであるobject-qaを提案する。 具体的には、オブジェクト画像と推定テンプレートの違いを参照してクラスレベルの品質スコアを学習する、よく設計された相対品質評価モジュールを最初に採用する。 そして、クラス間の品質スコア分布を整列させて最終品質スコアを生成する絶対品質評価モジュールを設計する。 さらに、Object-QAはオブジェクトレベルのアノテーションだけで実装でき、さまざまなオブジェクト認識タスクに簡単にデプロイできる。 われわれの知る限りでは、この問題の定義を推し進め、定量的評価を行う最初の研究である。 5つの異なるデータセットに対する検証は、Object-QAが人間の認識に応じて信頼性の高い品質スコアを評価するだけでなく、アプリケーションのパフォーマンスも改善できることを示している。

In object recognition applications, object images usually appear with different quality levels. Practically, it is very important to indicate object image qualities for better application performance, e.g. filtering out low-quality object image frames to maintain robust video object recognition results and speed up inference. However, no previous works are explicitly proposed for addressing the problem. In this paper, we define the problem of object quality assessment for the first time and propose an effective approach named Object-QA to assess high-reliable quality scores for object images. Concretely, Object-QA first employs a well-designed relative quality assessing module that learns the intra-class-level quality scores by referring to the difference between object images and their estimated templates. Then an absolute quality assessing module is designed to generate the final quality scores by aligning the quality score distributions in inter-class. Besides, Object-QA can be implemented with only object-level annotations, and is also easily deployed to a variety of object recognition tasks. To our best knowledge this is the first work to put forward the definition of this problem and conduct quantitative evaluations. Validations on 5 different datasets show that Object-QA can not only assess high-reliable quality scores according with human cognition, but also improve application performance.
翻訳日:2022-11-28 09:17:15 公開日:2020-05-27
# ビデオフレーム外挿のための外挿-補間サイクル一貫性学習

Extrapolative-Interpolative Cycle-Consistency Learning for Video Frame Extrapolation ( http://arxiv.org/abs/2005.13194v1 )

ライセンス: Link先を確認
Sangjin Lee, Hyeongmin Lee, Taeoh Kim and Sangyoun Lee(参考訳) ビデオフレームの補間は、過去のフレームが与えられたときに将来のフレームを予測するタスクである。 従来,モジュールの設計やネットワークの構築に重点を置いてきた研究とは違って,事前学習されたフレーム補間モジュールを用いた新しい外挿-補間サイクル(eic)損失を提案し,補間性能を向上させる。 サイクル一貫性損失は、多くの視覚的タスクにおいて2つの関数空間間の安定な予測に使われてきた。 このサイクル一貫性をフレーム外挿と補間という2つの写像関数を用いて定式化する。 対象のオクルージョンや運動の不確実性の観点から将来のフレームを予測するよりも中間フレームの予測が容易であるため、補間モジュールは外挿機能の訓練に効果的に誘導信号を与えることができる。 EIC損失は、既存の外挿アルゴリズムに適用でき、短期および長期のフレームにおいて一貫した予測を保証できる。 実験の結果,既存のベースラインにEIC損失を加えるだけで,UCF101データセットとKITTIデータセットの補間性能が向上することがわかった。

Video frame extrapolation is a task to predict future frames when the past frames are given. Unlike previous studies that usually have been focused on the design of modules or construction of networks, we propose a novel Extrapolative-Interpolative Cycle (EIC) loss using pre-trained frame interpolation module to improve extrapolation performance. Cycle-consistency loss has been used for stable prediction between two function spaces in many visual tasks. We formulate this cycle-consistency using two mapping functions; frame extrapolation and interpolation. Since it is easier to predict intermediate frames than to predict future frames in terms of the object occlusion and motion uncertainty, interpolation module can give guidance signal effectively for training the extrapolation function. EIC loss can be applied to any existing extrapolation algorithms and guarantee consistent prediction in the short future as well as long future frames. Experimental results show that simply adding EIC loss to the existing baseline increases extrapolation performance on both UCF101 and KITTI datasets.
翻訳日:2022-11-28 09:15:35 公開日:2020-05-27
# 人間中心のビデオの細部までズームインする

Zoom in to the details of human-centric videos ( http://arxiv.org/abs/2005.13222v1 )

ライセンス: Link先を確認
Guanghan Li, Yaping Zhao, Mengqi Ji, Xiaoyun Yuan, Lu Fang(参考訳) 人間の外観を高解像度(HR)で見せることは、人間中心のビデオにとって常に重要である。 しかし、現在の画像装置は、常にHRの詳細を把握できない。 既存の超解像アルゴリズムは、Im-ageパッチの普遍的および低レベルの先行性のみを考慮して、問題を緩和する。 対照的に、我々のアルゴリズムは、HR人間の外見によって定義された高レベルな事前定義を生かして、人体超解像に対するバイアスを受けている。 まず、動き解析モジュールは、HR基準ビデオから固有の動きパターンを抽出し、低分解能(LR)シーケンスのポーズ推定を洗練する。 さらに、人体再構成モジュールは、基準フレーム内のHRテクスチャを3Dメッシュモデルにマッピングする。 これにより、入力されたLRビデオは、元のLRビデオと少ないHR参照フレームに、超解決されたHRヒューマンシーケンスを生成する。 既存のデータセットとハイブリッドカメラで取得した実世界データを用いた実験により,従来の手法と比較して,人体の視覚品質が優れた結果が得られた。

Presenting high-resolution (HR) human appearance is always critical for the human-centric videos. However, current imagery equipment can hardly capture HR details all the time. Existing super-resolution algorithms barely mitigate the problem by only considering universal and low-level priors of im-age patches. In contrast, our algorithm is under bias towards the human body super-resolution by taking advantage of high-level prior defined by HR human appearance. Firstly, a motion analysis module extracts inherent motion pattern from the HR reference video to refine the pose estimation of the low-resolution (LR) sequence. Furthermore, a human body reconstruction module maps the HR texture in the reference frames onto a 3D mesh model. Consequently, the input LR videos get super-resolved HR human sequences are generated conditioned on the original LR videos as well as few HR reference frames. Experiments on an existing dataset and real-world data captured by hybrid cameras show that our approach generates superior visual quality of human body compared with the traditional method.
翻訳日:2022-11-28 09:15:17 公開日:2020-05-27
# 進化的多目的最適化を用いた産業制御システムの脆弱性同定

Identifying Vulnerabilities of Industrial Control Systems using Evolutionary Multiobjective Optimisation ( http://arxiv.org/abs/2005.13095v1 )

ライセンス: Link先を確認
Nilufer Tuptuk and Stephen Hailes(参考訳) 本稿では,2つの進化的多目的最適化(EMO)アルゴリズム,NSGA-II,SPEA2を用いて,実世界の複素異種産業制御システム(ICS)の脆弱性の同定を支援する手法を提案する。 本手法は,化学プラントシミュレータであるテネシー・イーストマン(TE)プロセスモデルを用いて評価した。 TEモデルの個々のコンポーネントの脆弱性を特定し,これらを用いて,システムの安全性を損なうための組合せ攻撃を発生させ,経済的損失を引き起こす。 その結果, 乱数攻撃との比較を行い, EMOアルゴリズムの性能を超体積, 拡散, 逆世代距離(IGD)測定値を用いて評価した。 多数の機械学習アルゴリズムを用いて,新たな侵入検知システムという形でこれらの攻撃に対する防御を開発した。 開発した検出手法に対して設計手法をさらに試験した。 その結果、EMOアルゴリズムはICSの最も脆弱なコンポーネントを識別する上で有望なツールであり、システムを保護するための既存の検出システムの弱点であることがわかった。 提案手法は、制御技術者とセキュリティエンジニアがセキュリティ意識制御を設計し、設計中とシステム操作後の両方でセキュリティメカニズムの有効性をテストするために利用できる。

In this paper we propose a novel methodology to assist in identifying vulnerabilities in a real-world complex heterogeneous industrial control systems (ICS) using two evolutionary multiobjective optimisation (EMO) algorithms, NSGA-II and SPEA2. Our approach is evaluated on a well known benchmark chemical plant simulator, the Tennessee Eastman (TE) process model. We identified vulnerabilities in individual components of the TE model and then made use of these to generate combinatorial attacks to damage the safety of the system, and to cause economic loss. Results were compared against random attacks, and the performance of the EMO algorithms were evaluated using hypervolume, spread and inverted generational distance (IGD) metrics. A defence against these attacks in the form of a novel intrusion detection system was developed, using a number of machine learning algorithms. Designed approach was further tested against the developed detection methods. Results demonstrate that EMO algorithms are a promising tool in the identification of the most vulnerable components of ICS, and weaknesses of any existing detection systems in place to protect the system. The proposed approach can be used by control and security engineers to design security aware control, and test the effectiveness of security mechanisms, both during design, and later during system operation.
翻訳日:2022-11-28 09:07:37 公開日:2020-05-27
# ミッション計算可能性モデルへの遺伝的最適化アルゴリズムの適用

Genetic optimization algorithms applied toward mission computability models ( http://arxiv.org/abs/2005.13105v1 )

ライセンス: Link先を確認
Mee Seong Im, Venkat R. Dasari(参考訳) 遺伝的アルゴリズムは、自然選択を用いて生き残る最良の種を選択する生物学的進化過程をモデル化する。 ヒューリスティックベースであり、計算コストが低い。 遺伝的アルゴリズムは選択、交叉、突然変異を用いて計算問題に対する実現可能な解を求める。 本稿では,遺伝的最適化アルゴリズムをミッションクリティカルかつ制約対応の計算問題に適用する。

Genetic algorithms are modeled after the biological evolutionary processes that use natural selection to select the best species to survive. They are heuristics based and low cost to compute. Genetic algorithms use selection, crossover, and mutation to obtain a feasible solution to computational problems. In this paper, we describe our genetic optimization algorithms to a mission-critical and constraints-aware computation problem.
翻訳日:2022-11-28 09:07:15 公開日:2020-05-27
# 不正確なTSP解の随時挙動と自動アルゴリズム選択の展望

Anytime Behavior of Inexact TSP Solvers and Perspectives for Automated Algorithm Selection ( http://arxiv.org/abs/2005.13289v1 )

ライセンス: Link先を確認
Jakob Bossek and Pascal Kerschke and Heike Trautmann(参考訳) travel-salesperson-problem (tsp) はnp-hard combinatorial optimizationの最もよく知られた問題の1つである。 2つの洗練されたヒューリスティック解法 LKH と EAX とそれぞれの(再起動)変種は、数千のノードを持つ大規模インスタンスに対しても、最適もしくは最適な解を計算する。 本研究では,経験的ランタイム分布に基づく不正確なtspソルバの時間的挙動に対処し,既存のベンチマーク研究を拡張することにより,ソルバの動作と問題の難易度との関係について理解を深める。 その結果,解法の性能ランキングは集中近似の品質に大きく依存していることが判明した。 性能の交差点点に関する洞察は、インスタンスの特徴に応じてハイブリダイズされたソルバを構築する大きな可能性をもたらす。 さらに、インスタンス機能とそれに対応するパフォーマンスインジケータは、解法の品質に関する包括的な情報を含むことによって、アルゴリズムの自動選択モデルを大幅に改善する。

The Traveling-Salesperson-Problem (TSP) is arguably one of the best-known NP-hard combinatorial optimization problems. The two sophisticated heuristic solvers LKH and EAX and respective (restart) variants manage to calculate close-to optimal or even optimal solutions, also for large instances with several thousand nodes in reasonable time. In this work we extend existing benchmarking studies by addressing anytime behaviour of inexact TSP solvers based on empirical runtime distributions leading to an increased understanding of solver behaviour and the respective relation to problem hardness. It turns out that performance ranking of solvers is highly dependent on the focused approximation quality. Insights on intersection points of performances offer huge potential for the construction of hybridized solvers depending on instance features. Moreover, instance features tailored to anytime performance and corresponding performance indicators will highly improve automated algorithm selection models by including comprehensive information on solver quality.
翻訳日:2022-11-28 09:06:54 公開日:2020-05-27
# SAT問題解決のためのニューラルヒューリスティックス

Neural heuristics for SAT solving ( http://arxiv.org/abs/2005.13406v1 )

ライセンス: Link先を確認
Sebastian Jaszczur, Micha{\l} {\L}uszczyk, Henryk Michalewski(参考訳) メッセージパッシングアーキテクチャと注意機構を備えたニューラルネットワークを用いて,2つのsat解決アルゴリズムの分岐ヒューリスティック性を向上させる。 学習神経ヒューリスティックは2つの標準的なヒューリスティックと比較して改善されている。

We use neural graph networks with a message-passing architecture and an attention mechanism to enhance the branching heuristic in two SAT-solving algorithms. We report improvements of learned neural heuristics compared with two standard human-designed heuristics.
翻訳日:2022-11-28 09:06:38 公開日:2020-05-27
# AIに基づく複雑なサイバー物理システムのモデリング・探索・運用のための逆レジリエンス学習アーキテクチャ

The Adversarial Resilience Learning Architecture for AI-based Modelling, Exploration, and Operation of Complex Cyber-Physical Systems ( http://arxiv.org/abs/2005.13601v1 )

ライセンス: Link先を確認
Eric MSP Veith, Nils Wenninghoff, and Emilie Frost(参考訳) 深層強化学習(Dep Reinforcement Learning, DRL)の領域における現代のアルゴリズムは、ATARIのビデオゲームからGoやStarCraft〜\textsc{II}リアルタイム戦略ゲームに至るまで、ゲームベースのシナリオで広く知られている。 しかし、様々なDRLアルゴリズムを利用するCPS(Cyber-Physical Systems)の領域での応用はほとんどない。 現代のCPSはますます複雑になり、従来のモデリングや分析の方法を超えて進化しています。 同時に、これらのCPSは、電力グリッドの揮発性エネルギー源から市場からの幅広いユーザー参加に至るまで、確率的な入力の増加に直面している。 人工知能(AI)分野の技術を用いたシステムモデリングのアプローチは、分析や運用に重点を置いていない。 本稿では,複雑な環境チェックとレジリエント操作に対する新たなアプローチを定式化した,arl(adversarial resilience learning)の概念について述べる。 ARLのクインテッサンスは、システムを探究し、ドメインの知識なしに互いに訓練するエージェントの両方にある。 本稿では,モデルフリーとモデルベースDRLに基づくアルゴリズムを多用するARLソフトウェアアーキテクチャを紹介し,具体的な実験結果の文書化を複雑な電力網上で行う。

Modern algorithms in the domain of Deep Reinforcement Learning (DRL) demonstrated remarkable successes; most widely known are those in game-based scenarios, from ATARI video games to Go and the StarCraft~\textsc{II} real-time strategy game. However, applications in the domain of modern Cyber-Physical Systems (CPS) that take advantage a vast variety of DRL algorithms are few. We assume that the benefits would be considerable: Modern CPS have become increasingly complex and evolved beyond traditional methods of modelling and analysis. At the same time, these CPS are confronted with an increasing amount of stochastic inputs, from volatile energy sources in power grids to broad user participation stemming from markets. Approaches of system modelling that use techniques from the domain of Artificial Intelligence (AI) do not focus on analysis and operation. In this paper, we describe the concept of Adversarial Resilience Learning (ARL) that formulates a new approach to complex environment checking and resilient operation: It defines two agent classes, attacker and defender agents. The quintessence of ARL lies in both agents exploring the system and training each other without any domain knowledge. Here, we introduce the ARL software architecture that allows to use a wide range of model-free as well as model-based DRL-based algorithms, and document results of concrete experiment runs on a complex power grid.
翻訳日:2022-11-28 09:06:34 公開日:2020-05-27
# 推薦システムにおける階層型ファジィシステムアプローチの探索的研究

An Exploratory Study of Hierarchical Fuzzy Systems Approach in Recommendation System ( http://arxiv.org/abs/2005.14026v1 )

ライセンス: Link先を確認
Tajul Rosli Razak, Iman Hazwam Abd Halim, Muhammad Nabil Fikri Jamaludin, Mohammad Hafiz Ismail, Shukor Sanim Mohd Fauzi(参考訳) レコメンデーションシステム(Recommendation system)またはレコメンデーションシステム(Recommendation system)は、ユーザが特定のジレンマを提案するのを助けるツールである。 このように、近年、多くの分野でレコメンデーションシステムの開発への関心が高まっている。 Fuzzy Logic System (FLSs) は、不確実性と不正確な情報を扱えるようにレコメンデーションシステムをモデル化するためのアプローチの1つである。 しかし、FLSの基本的な問題のひとつは、次元の呪いの問題である。 つまり、FLSのルール数は入力変数の数とともに指数関数的に増えている。 この問題を解決する効果的な方法は階層ファジィシステム(HFS)を使用することである。 本稿では,レコメンデーションシステムにおけるHFSの利用について検討する。 具体的には,4つの重要な基準(トポロジー,ルール数,ルール構造,解釈可能性)に基づいて,キャリアパス推薦システム(cprs)のhfsとflsを探索・比較することに関心がある。 これらの結果から,HFS は解釈可能性モデルの改善に FLS よりも優位性があることが示唆された。 本研究では,レコメンデーションシステムにおける解釈可能なHFSの開発に関する知見を提供する。

Recommendation system or also known as a recommender system is a tool to help the user in providing a suggestion of a specific dilemma. Thus, recently, the interest in developing a recommendation system in many fields has increased. Fuzzy Logic system (FLSs) is one of the approaches that can be used to model the recommendation systems as it can deal with uncertainty and imprecise information. However, one of the fundamental issues in FLS is the problem of the curse of dimensionality. That is, the number of rules in FLSs is increasing exponentially with the number of input variables. One effective way to overcome this problem is by using Hierarchical Fuzzy System (HFSs). This paper aims to explore the use of HFSs for Recommendation system. Specifically, we are interested in exploring and comparing the HFS and FLS for the Career path recommendation system (CPRS) based on four key criteria, namely topology, the number of rules, the rules structures and interpretability. The findings suggested that the HFS has advantages over FLS towards improving the interpretability models, in the context of a recommendation system example. This study contributes to providing an insight into the development of interpretable HFSs in the Recommendation systems.
翻訳日:2022-11-28 09:06:08 公開日:2020-05-27
# LWF連鎖グラフの学習 : 順序に依存しないアルゴリズム

Learning LWF Chain Graphs: an Order Independent Algorithm ( http://arxiv.org/abs/2005.14037v1 )

ライセンス: Link先を確認
Mohammad Ali Javidian, Marco Valtorta and Pooyan Jamshidi(参考訳) lwf連鎖グラフは有向非巡回グラフと無向グラフを組み合わせたものである。 本稿では,studeny (1997) による提案アルゴリズムのスケーラビリティ問題を解くために,忠実性仮定の下で連鎖グラフの構造を求めるpcライクなアルゴリズムを提案する。 我々は,PCライクなアルゴリズムが順序に依存することを証明し,その出力は変数が与えられる順序に依存する。 この順序依存は高次元の設定で非常に発音することができる。 そこで本研究では,この順序依存の一部を除去するPCライクなアルゴリズムの2つの修正を提案する。 各種条件下でのシミュレーション結果は,低次元設定でMaらによって提案された分解法であるLCDアルゴリズムと比較して,PCライクなアルゴリズムの競合性能を実証し,高次元設定での性能を改善した。

LWF chain graphs combine directed acyclic graphs and undirected graphs. We present a PC-like algorithm that finds the structure of chain graphs under the faithfulness assumption to resolve the problem of scalability of the proposed algorithm by Studeny (1997). We prove that our PC-like algorithm is order dependent, in the sense that the output can depend on the order in which the variables are given. This order dependence can be very pronounced in high-dimensional settings. We propose two modifications of the PC-like algorithm that remove part or all of this order dependence. Simulation results under a variety of settings demonstrate the competitive performance of the PC-like algorithms in comparison with the decomposition-based method, called LCD algorithm, proposed by Ma et al. (2008) in low-dimensional settings and improved performance in high-dimensional settings.
翻訳日:2022-11-28 09:05:47 公開日:2020-05-27
# 理解とユーザビリティを構築するための自動ダイアグラム生成

Automated Diagram Generation to Build Understanding and Usability ( http://arxiv.org/abs/2006.08343v1 )

ライセンス: Link先を確認
William Schoenberg(参考訳) 因果ループとストックおよびフロー図は、関係を整理し意味を伝えるのに役立つため、システムダイナミクスで広く使われている。 schoenberg氏(2019)による圧縮モデルに含まれるものを選択する分析作業を用いて、その情報を自動生成因果ループダイアグラムで明確に提示する方法を実証する。 図はグラフ理論に携わる人々が開発したツールを使って作成され、生成された図は明確で美学的に心地よいものです。 このアプローチは、ストックおよびフロー図を生成するために構築することもできる。 自動ストックおよびフロー図生成は、方程式や原点に関わらず、明確で分かりやすい方法で開発されたモデルを表現するための扉を開く。 モデルが大きくなりうるため、グラフ理論のために再び開発されたグループ化技法の応用は、結果として得られる図形を最も有用な形で構造化するのに役立つ。 本稿では,自動図生成のために開発されたアルゴリズムについて述べるとともに,大規模モデルでの利用例を紹介する。 これらの手法を既存の方程式ベースのモデルに適用することは、システムダイナミクスモデリングの知識基盤を広げるのに役立つ。 この技術は、図式情報を用いた既存モデルのレイアウト、あるいは一部を改善するためにも利用できる。

Causal loop and stock and flow diagrams are broadly used in System Dynamics because they help organize relationships and convey meaning. Using the analytical work of Schoenberg (2019) to select what to include in a compressed model, this paper demonstrates how that information can be clearly presented in an automatically generated causal loop diagram. The diagrams are generated using tools developed by people working in graph theory and the generated diagrams are clear and aesthetically pleasing. This approach can also be built upon to generate stock and flow diagrams. Automated stock and flow diagram generation opens the door to representing models developed using only equations, regardless or origin, in a clear and easy to understand way. Because models can be large, the application of grouping techniques, again developed for graph theory, can help structure the resulting diagrams in the most usable form. This paper describes the algorithms developed for automated diagram generation and shows a number of examples of their uses in large models. The application of these techniques to existing, but inaccessible, equation-based models can help broaden the knowledge base for System Dynamics modeling. The techniques can also be used to improve layout in all, or part, of existing models with diagrammatic informtion.
翻訳日:2022-11-28 09:05:33 公開日:2020-05-27
# 重要なループを見つける

Finding the Loops that Matter ( http://arxiv.org/abs/2006.08425v1 )

ライセンス: Link先を確認
Robert Eberlein, William Schoenberg(参考訳) モデルの振る舞いを理解するためのmatterメソッド(schoenberg et. al, 2019)は、モデル内のフィードバックループが各時点の振る舞いに寄与することを示すメトリクスを提供する。 これらのメトリクスを提供するには、それらを計算するためのループのセットを見つける必要がある。 本稿では,シミュレーションの異なる点において重要なループを含めることの必要性を示す。 これらの重要なループは互いに独立ではなく、モデル構造の静的解析から決定することはできない。 次に、徹底的なループ発見にはフィードバックが豊富すぎるモデルにおいて、最も重要なループを発見するために使用できるアルゴリズムを記述する。 我々は,このアルゴリズムを,最も説明可能なループを見つける能力と,大規模モデルに対する計算性能の観点から実証する。 このアプローチを用いることで、matterメソッドのループを任意のサイズや複雑さのモデルに適用することができる。

The Loops that Matter method (Schoenberg et. al, 2019) for understanding model behavior provides metrics showing the contribution of the feedback loops in a model to behavior at each point in time. To provide these metrics, it is necessary find the set of loops on which to compute them. We show in this paper the necessity of including loops that are important at different points in the simulation. These important loops may not be independent of one another and cannot be determined from static analysis of the model structure. We then describe an algorithm that can be used to discover the most important loops in models that are too feedback rich for exhaustive loop discovery. We demonstrate the use of this algorithm in terms of its ability to find the most explanatory loops, and its computational performance for large models. By using this approach, the Loops that Matter method can be applied to models of any size or complexity.
翻訳日:2022-11-28 09:05:15 公開日:2020-05-27
# mt対応データセット用データシート:テンプレートとリポジトリ

MT-Adapted Datasheets for Datasets: Template and Repository ( http://arxiv.org/abs/2005.13156v1 )

ライセンス: Link先を確認
Marta R. Costa-juss\`a, Roger Creus, Oriol Domingo, Albert Dom\'inguez, Miquel Escobar, Cayetana L\'opez, Marina Garcia and Margarita Geleta(参考訳) 本報告では、europarl(koehn, 2005)とnews-commentary(barrault et al., 2019)の一般的な機械翻訳データセットを文書化するためにgebru et al.(2018)によって提案された標準化モデルを採用する。 この文書化プロセスでは、機械翻訳領域内のデータコンシューマの特定のケースにオリジナルのデータシートを適用しました。 また,本研究領域における適応データシート収集のためのリポジトリも提案している。

In this report we are taking the standardized model proposed by Gebru et al. (2018) for documenting the popular machine translation datasets of the EuroParl (Koehn, 2005) and News-Commentary (Barrault et al., 2019). Within this documentation process, we have adapted the original datasheet to the particular case of data consumers within the Machine Translation area. We are also proposing a repository for collecting the adapted datasheets in this research area
翻訳日:2022-11-28 08:58:24 公開日:2020-05-27
# NLPのどの使用が適切か、そして何のベースに決めるべきなのか?

Give Me Convenience and Give Her Death: Who Should Decide What Uses of NLP are Appropriate, and on What Basis? ( http://arxiv.org/abs/2005.13213v1 )

ライセンス: Link先を確認
Kobi Leins and Jey Han Lau and Timothy Baldwin(参考訳) NLPの能力向上の一環として、NLP研究の倫理的側面の認識と合わせて、特定のデータセットやタスクがNLP研究の非限界と見なされるべきかどうかという疑問が提起されている。 本稿は,本論文の出版を許可すべきであったのか,誰がその決定に責任を負うべきなのか,そしてどのような根拠があるのかを問う,議論の源泉となったemnlp 2019からの法的自動送付に関する論文について検討する。 特に、倫理的評価研究におけるデータステートメントの役割に焦点を当て、また、二重利用の話題について議論し、他の科学分野における同様の議論の結果を検討する。

As part of growing NLP capabilities, coupled with an awareness of the ethical dimensions of research, questions have been raised about whether particular datasets and tasks should be deemed off-limits for NLP research. We examine this question with respect to a paper on automatic legal sentencing from EMNLP 2019 which was a source of some debate, in asking whether the paper should have been allowed to be published, who should have been charged with making such a decision, and on what basis. We focus in particular on the role of data statements in ethically assessing research, but also discuss the topic of dual use, and examine the outcomes of similar debates in other scientific disciplines.
翻訳日:2022-11-28 08:58:13 公開日:2020-05-27
# フランス語名前付きエンティティ認識のための新しい状態の確立

Establishing a New State-of-the-Art for French Named Entity Recognition ( http://arxiv.org/abs/2005.13236v1 )

ライセンス: Link先を確認
Pedro Javier Ortiz Su\'arez (ALMAnaCH, SU), Yoann Dupont (ALMAnaCH, SU), Benjamin Muller (ALMAnaCH, SU), Laurent Romary (ALMAnaCH), Beno\^it Sagot (ALMAnaCH)(参考訳) パリ7大学で開発されたフレンチツリーバンクは、フランス語のモルフォシンタクティックおよび構文アノテーションの主要な情報源である。 しかし、いくつかの自然言語処理タスクやアプリケーションにおいて最も有用な情報の一つである名前付きエンティティに関連する明示的な情報は含まない。 さらに、名前付きエンティティアノテーションを持つフランスの大規模なコーパスには参照情報が含まれておらず、参照するエンティティの表示とともに各言及のタイプとスパンを補完する。 自動前アノテーションステップの後に,フランスのツリーバンクにこのような情報を手作業で注釈付けしました。 基本となるアノテーションガイドラインをスケッチし、結果のアノテーションについていくつか図示します。

The French TreeBank developed at the University Paris 7 is the main source of morphosyntactic and syntactic annotations for French. However, it does not include explicit information related to named entities, which are among the most useful information for several natural language processing tasks and applications. Moreover, no large-scale French corpus with named entity annotations contain referential information, which complement the type and the span of each mention with an indication of the entity it refers to. We have manually annotated the French TreeBank with such information, after an automatic pre-annotation step. We sketch the underlying annotation guidelines and we provide a few figures about the resulting annotations.
翻訳日:2022-11-28 08:58:00 公開日:2020-05-27
# 新型コロナウイルスの危機に直面したドイツ語オンラインメディアの追跡, 探索, 分析: cowidplus analysis と cowidplus viewer

Tracking, exploring and analyzing recent developments in German-language online press in the face of the coronavirus crisis: cOWIDplus Analysis and cOWIDplus Viewer ( http://arxiv.org/abs/2005.13316v1 )

ライセンス: Link先を確認
Sascha Wolfer and Alexander Koplenig and Frank Michaelis and Carolin M\"uller-Spitzer(参考訳) 新型コロナウイルスのパンデミックは、世界が第二次世界大戦以来直面してきた最大の危機かもしれない。 私たちの主要なコミュニケーションツールとして言語に影響を与えているのも驚きではありません。 We present three inter-connected resources that are designed to capture and illustrate these effects on a subset of the German language: An RSS corpus of German-language newsfeeds (with freely available untruncated unigram frequency lists), a static but continuously updated HTML page tracking the diversity of the used vocabulary and a web application that enables other researchers and the broader public to explore these effects without any or with little knowledge of corpus representation/exploration or statistical analyses.

The coronavirus pandemic may be the largest crisis the world has had to face since World War II. It does not come as a surprise that it is also having an impact on language as our primary communication tool. We present three inter-connected resources that are designed to capture and illustrate these effects on a subset of the German language: An RSS corpus of German-language newsfeeds (with freely available untruncated unigram frequency lists), a static but continuously updated HTML page tracking the diversity of the used vocabulary and a web application that enables other researchers and the broader public to explore these effects without any or with little knowledge of corpus representation/exploration or statistical analyses.
翻訳日:2022-11-28 08:57:51 公開日:2020-05-27
# より高速なシーケンス対シーケンス構成解析のための高次線形化

Enriched In-Order Linearization for Faster Sequence-to-Sequence Constituent Parsing ( http://arxiv.org/abs/2005.13334v1 )

ライセンス: Link先を確認
Daniel Fern\'andez-Gonz\'alez and Carlos G\'omez-Rodr\'iguez(参考訳) シーケンス対シーケンス構成解析は、木をシーケンスとして表現するために線形化を必要とする。 ブラケットやシフト・リデュース・アクションをベースとしたトップダウンツリーの線形化は、これまでで最も正確である。 本稿では,これらの結果は,代わりに順番線形化を用いることで改善できることを示す。 この観測に基づいて、Vinyals et al. (2015) のアプローチにインスパイアされた高階シフト-リデュース線形化を実装し、完全な教師付き単一モデルシーケンス-シーケンス構成パーザの中で、英語 PTB データセット上で現在までの最高の精度を実現する。 最後に,最先端のトランジションベースパーサの速度に適合する決定論的アテンション機構を適用し,シーケンス・ツー・シーケンス・モデルが精度だけでなく,速度にも一致することを示す。

Sequence-to-sequence constituent parsing requires a linearization to represent trees as sequences. Top-down tree linearizations, which can be based on brackets or shift-reduce actions, have achieved the best accuracy to date. In this paper, we show that these results can be improved by using an in-order linearization instead. Based on this observation, we implement an enriched in-order shift-reduce linearization inspired by Vinyals et al. (2015)'s approach, achieving the best accuracy to date on the English PTB dataset among fully-supervised single-model sequence-to-sequence constituent parsers. Finally, we apply deterministic attention mechanisms to match the speed of state-of-the-art transition-based parsers, thus showing that sequence-to-sequence models can match them, not only in accuracy, but also in speed.
翻訳日:2022-11-28 08:57:40 公開日:2020-05-27
# 銀行を意味する30の必需品

Thirty Musts for Meaning Banking ( http://arxiv.org/abs/2005.13421v1 )

ライセンス: Link先を確認
Johan Bos, Lasha Abzianidze(参考訳) 意味的構文解析や生成のために意味論的注釈付きコーパスを作成するのは、難しい作業です。 複雑な意味表現を思いつくのは極めて単純であるが、多くの意味のニュアンスを捉える単純な意味表現を設計することは困難である。 本稿では,Groningen Meaning Bank(Bos et al., 2017)とParallel Meaning Bank(Abzianidze et al., 2017)の開発において,約10年間に学んだ意味アノテーションの教訓を紹介する。 明確な関係のある作業はなく、方法論のセクションもなく、結果もなく、議論もない(そして現在のスニペットは抽象的ではなく、実際には序文の序文である)。 その代わりに、その構造は Traum (2000) と Bender (2013) の影響を受けている。 リストは、既存の意味バンク(Section)の簡単な概要から始まる。 1)およびその他の項目は、コーパスコレクション(第2部及び第3部)、アノテーションメソッド(第4-11部)、意味表現の設計(第12-30部)の3つのグループに分けられる。 この概要は、将来の銀行の改善にインスピレーションとガイダンスを与えることを期待している。

Meaning banking--creating a semantically annotated corpus for the purpose of semantic parsing or generation--is a challenging task. It is quite simple to come up with a complex meaning representation, but it is hard to design a simple meaning representation that captures many nuances of meaning. This paper lists some lessons learned in nearly ten years of meaning annotation during the development of the Groningen Meaning Bank (Bos et al., 2017) and the Parallel Meaning Bank (Abzianidze et al., 2017). The paper's format is rather unconventional: there is no explicit related work, no methodology section, no results, and no discussion (and the current snippet is not an abstract but actually an introductory preface). Instead, its structure is inspired by work of Traum (2000) and Bender (2013). The list starts with a brief overview of the existing meaning banks (Section 1) and the rest of the items are roughly divided into three groups: corpus collection (Section 2 and 3, annotation methods (Section 4-11), and design of meaning representations (Section 12-30). We hope this overview will give inspiration and guidance in creating improved meaning banks in the future.
翻訳日:2022-11-28 08:57:07 公開日:2020-05-27
# PRPNを用いた教師なし構文解析のための自己学習

Self-Training for Unsupervised Parsing with PRPN ( http://arxiv.org/abs/2005.13455v1 )

ライセンス: Link先を確認
Anhad Mohananey, Katharina Kann, Samuel R. Bowman(参考訳) neural unsupervised parse (up)モデルは構文アノテーションにアクセスせずに解析を学習し、言語モデリングのような他のタスクに最適化される。 本研究では,ニューラルUPモデルの自己学習を提案し,将来的なコピーの監督として,モデルのコピーによって予測される集約アノテーションを活用する。 トレーニング中にモデルの予測を使用できるように、最近のニューラルネットワークアーキテクチャであるprpn(shen et al., 2018a)を拡張し、半教師ありの方法でトレーニングできるようにします。 そして、未ラベルのUPトレーニングデータに、モデルによって予測される構文の例を追加します。 我々の自己学習モデルはPRPNを8.1%F1で上回り、先行技術は1.6%F1で上回ります。 さらに,我々のアーキテクチャは,超低リソース環境における半教師付き解析にも有効であることを示す。

Neural unsupervised parsing (UP) models learn to parse without access to syntactic annotations, while being optimized for another task like language modeling. In this work, we propose self-training for neural UP models: we leverage aggregated annotations predicted by copies of our model as supervision for future copies. To be able to use our model's predictions during training, we extend a recent neural UP architecture, the PRPN (Shen et al., 2018a) such that it can be trained in a semi-supervised fashion. We then add examples with parses predicted by our model to our unlabeled UP training data. Our self-trained model outperforms the PRPN by 8.1% F1 and the previous state of the art by 1.6% F1. In addition, we show that our architecture can also be helpful for semi-supervised parsing in ultra-low-resource settings.
翻訳日:2022-11-28 08:56:43 公開日:2020-05-27
# 双方向エンコーダのための統語構造蒸留

Syntactic Structure Distillation Pretraining For Bidirectional Encoders ( http://arxiv.org/abs/2005.13482v1 )

ライセンス: Link先を確認
Adhiguna Kuncoro, Lingpeng Kong, Daniel Fried, Dani Yogatama, Laura Rimell, Chris Dyer, Phil Blunsom(参考訳) 大量のデータに基づいて訓練されたテキスト表現学習者は、下流のタスクにおいて顕著な成功を収めた。 この成功を考えると、BERTのようなスケーラブルな学習者は、データスケールだけで自然言語の構文に完全に習熟できるのか、それともより明示的な構文バイアスの恩恵を受けているのか、という疑問が残る。 そこで本研究では,階層型言語モデルの統語的情報的予測を蒸留することにより,BERT事前学習に統語バイアスを注入する知識蒸留手法を提案する。 bertモデルでは単語を双方向の文脈でマスキングするため,構文 lm から文脈内の単語に対する近似辺分布を蒸留する。 提案手法は階層型予測タスクで相対誤差を2-21%削減するが,glueベンチマークでは混合結果を得た。 本研究は,大量のデータを活用する表現学習者においても,構文バイアスの利点を実証し,構文バイアスが自然言語理解のベンチマークにおいて最も有用であることを示す。

Textual representation learners trained on large amounts of data have achieved notable success on downstream tasks; intriguingly, they have also performed well on challenging tests of syntactic competence. Given this success, it remains an open question whether scalable learners like BERT can become fully proficient in the syntax of natural language by virtue of data scale alone, or whether they still benefit from more explicit syntactic biases. To answer this question, we introduce a knowledge distillation strategy for injecting syntactic biases into BERT pretraining, by distilling the syntactically informative predictions of a hierarchical---albeit harder to scale---syntactic language model. Since BERT models masked words in bidirectional context, we propose to distill the approximate marginal distribution over words in context from the syntactic LM. Our approach reduces relative error by 2-21% on a diverse set of structured prediction tasks, although we obtain mixed results on the GLUE benchmark. Our findings demonstrate the benefits of syntactic biases, even in representation learners that exploit large amounts of data, and contribute to a better understanding of where syntactic biases are most helpful in benchmarks of natural language understanding.
翻訳日:2022-11-28 08:56:27 公開日:2020-05-27
# きめ細かい感情分類のための言語表現モデル

Language Representation Models for Fine-Grained Sentiment Classification ( http://arxiv.org/abs/2005.13619v1 )

ライセンス: Link先を確認
Brian Cheang, Bailey Wei, David Kogan, Howey Qiu, Masud Ahmed(参考訳) 知覚分類は、ほとんどあらゆる分野の応用で急速に進歩する研究分野である。 様々なモデルとデータセットはバイナリ分類のタスクにおいて高い精度を示しているが、きめ細かい感情分類のタスクは、依然として大幅な改善の余地のある領域である。 SST-5データセットの分析、Munikarらによる以前の研究(2019年)は、埋め込みツールBERTが単純なモデルで最先端の精度を達成できたことを示した。 この論文以降、いくつかのBERT代替案が出版され、主要なものはAlBERT (Lan et al., 2019)、DistilBERT (Sanh et al. 2019)、RoBERTa (Liu etal. 2019) である。 これらのモデルは、人気のあるベンチマークGLUE, SQuAD, RACEにおいてBERTよりもいくつかの改善が報告されているが、詳細な分類には適用されていない。 本稿では, 新たなタスクに適用した場合に, Munikar 等から BERT モデルを複製し, 埋め込み層を代替モデルに置き換えることにより, 改善が成立するかどうかを検討する。 実験の結果,AlBERTは他のタスクに比べて精度が著しく低下し,DistilBERTは他のタスクで報告した損失と同様の精度低下がみられ,RoBERTaはSST-5ルートレベル(60.2%)の予測に新たな最先端の精度に達した。

Sentiment classification is a quickly advancing field of study with applications in almost any field. While various models and datasets have shown high accuracy inthe task of binary classification, the task of fine-grained sentiment classification is still an area with room for significant improvement. Analyzing the SST-5 dataset,previous work by Munikar et al. (2019) showed that the embedding tool BERT allowed a simple model to achieve state-of-the-art accuracy. Since that paper, several BERT alternatives have been published, with three primary ones being AlBERT (Lan et al., 2019), DistilBERT (Sanh et al. 2019), and RoBERTa (Liu etal. 2019). While these models report some improvement over BERT on the popular benchmarks GLUE, SQuAD, and RACE, they have not been applied to the fine-grained classification task. In this paper, we examine whether the improvements hold true when applied to a novel task, by replicating the BERT model from Munikar et al., and swapping the embedding layer to the alternative models. Over the experiments, we found that AlBERT suffers significantly more accuracy loss than reported on other tasks, DistilBERT has accuracy loss similar to their reported loss on other tasks while being the fastest model to train, and RoBERTa reaches anew state-of-the-art accuracy for prediction on the SST-5 root level (60.2%).
翻訳日:2022-11-28 08:56:07 公開日:2020-05-27
# generative adversarial networks (gans):理論モデル、評価指標および最近の開発の概要

Generative Adversarial Networks (GANs): An Overview of Theoretical Model, Evaluation Metrics, and Recent Developments ( http://arxiv.org/abs/2005.13178v1 )

ライセンス: Link先を確認
Pegah Salehi, Abdolah Chalechale, Maryam Taghizadeh(参考訳) 統計信号処理と機械学習における最も重要な課題の1つは、画像や音声などの大規模データ分布のサンプルを生成できる生成モデルを得る方法である。 GAN(Generative Adversarial Network)は,この問題に対処する有効な手法である。 GANはラベル付きトレーニングデータを広く使用せずにディープ表現を学習する適切な方法を提供する。 このアプローチは、確率密度関数(pdf)を正確にモデル化することなく大量のデータを生成することができるため、コンピュータビジョンにおける多くの研究者の注目を集めている。 GANでは、ジェネレータと識別器のネットワークを同時にトレーニングする競合プロセスを通じて生成モデルを推定する。 ジェネレータは可塑性データを生成することを学習し、識別器はジェネレータが生成した偽データを実際のデータサンプルと区別する。 近年のGANの急速な成長と様々な分野への応用を考えると,これらのネットワークを正確に調査する必要がある。 本稿では, GANの主概念と理論を導入し, 2つの新しい深層生成モデルを比較し, GANの文献や課題に活用される評価指標についても解説する。 さらに、最も注目すべきGANアーキテクチャを分類し、議論する。 最後に,コンピュータビジョンにおける本質的応用について検討する。

One of the most significant challenges in statistical signal processing and machine learning is how to obtain a generative model that can produce samples of large-scale data distribution, such as images and speeches. Generative Adversarial Network (GAN) is an effective method to address this problem. The GANs provide an appropriate way to learn deep representations without widespread use of labeled training data. This approach has attracted the attention of many researchers in computer vision since it can generate a large amount of data without precise modeling of the probability density function (PDF). In GANs, the generative model is estimated via a competitive process where the generator and discriminator networks are trained simultaneously. The generator learns to generate plausible data, and the discriminator learns to distinguish fake data created by the generator from real data samples. Given the rapid growth of GANs over the last few years and their application in various fields, it is necessary to investigate these networks accurately. In this paper, after introducing the main concepts and the theory of GAN, two new deep generative models are compared, the evaluation metrics utilized in the literature and challenges of GANs are also explained. Moreover, the most remarkable GAN architectures are categorized and discussed. Finally, the essential applications in computer vision are examined.
翻訳日:2022-11-28 08:49:20 公開日:2020-05-27
# セグメンテーション損失オデッセイ

Segmentation Loss Odyssey ( http://arxiv.org/abs/2005.13449v1 )

ライセンス: Link先を確認
Jun Ma(参考訳) 損失関数は、深層学習に基づく医用画像分割法において重要な要素の1つである。 既存の文献では多くの損失関数が提案されているが、別々に研究されている。 本稿では,既存の損失関数を4つの意味カテゴリーに分類する系統分類法を提案する。 これはそれらの間のリンクや基本的な類似性を明らかにするのに役立つ。 さらに,従来の領域ベースと近年の境界ベース損失関数の関係について検討する。 これらの損失関数のPyTorch実装は、 \url{https://github.com/JunMa11/SegLoss} で公開されている。

Loss functions are one of the crucial ingredients in deep learning-based medical image segmentation methods. Many loss functions have been proposed in existing literature, but are studied separately or only investigated with few other losses. In this paper, we present a systematic taxonomy to sort existing loss functions into four meaningful categories. This helps to reveal links and fundamental similarities between them. Moreover, we explore the relationship between the traditional region-based and the more recent boundary-based loss functions. The PyTorch implementations of these loss functions are publicly available at \url{https://github.com/JunMa11/SegLoss}.
翻訳日:2022-11-28 08:48:24 公開日:2020-05-27
# D2D: Describe to Detect Approach によるキーポイント抽出

D2D: Keypoint Extraction with Describe to Detect Approach ( http://arxiv.org/abs/2005.13605v1 )

ライセンス: Link先を確認
Yurun Tian, Vassileios Balntas, Tony Ng, Axel Barroso-Laguna, Yiannis Demiris, Krystian Mikolajczyk(参考訳) 本稿では,ディスクリプタ空間内の情報を利用してキーポイントの位置を提案する新しい手法を提案する。 ローカルな記述子を抽出する典型的な2つの戦略を、検出、記述、共同で記述する。 対照的に,まずキーポイントの位置を記述・検出することで,このプロセスを反転させる手法を提案する。 % Describe-to-Detect(D2D)は、追加のトレーニングを必要とせずに、成功したディスクリプタモデルを活用する。 提案手法は,複数の独立演算子ではなく,記述子によって定義される情報量の高い有意な位置としてキーポイントを選択する。 画像マッチング,カメラローカライズ,3次元再構成など,複数のベンチマークで実験を行った。 その結果,提案手法は各種ディスクリプタのマッチング性能が向上し,メソッドやタスクにまたがる汎用性が得られた。

In this paper, we present a novel approach that exploits the information within the descriptor space to propose keypoint locations. Detect then describe, or detect and describe jointly are two typical strategies for extracting local descriptors. In contrast, we propose an approach that inverts this process by first describing and then detecting the keypoint locations. % Describe-to-Detect (D2D) leverages successful descriptor models without the need for any additional training. Our method selects keypoints as salient locations with high information content which is defined by the descriptors rather than some independent operators. We perform experiments on multiple benchmarks including image matching, camera localisation, and 3D reconstruction. The results indicate that our method improves the matching performance of various descriptors and that it generalises across methods and tasks.
翻訳日:2022-11-28 08:48:16 公開日:2020-05-27
# 2.5次元残像と励磁深層学習モデルに基づく後期ガドリニウム強調MRIにおける心筋の分画

Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on 2.5 D Residual Squeeze and Excitation Deep Learning Model ( http://arxiv.org/abs/2005.13643v1 )

ライセンス: Link先を確認
Abdul Qayyum, Alain Lalande, Thomas Decourselle, Thibaut Pommier, Alexandre Cochet, Fabrice Meriaudeau(参考訳) 造影剤(lge-mri)注入10分後に獲得した短軸mriより左心室(lv)の分画は、心筋梗塞などの心疾患の診断と診断を可能にする処理において必要なステップである。 しかし、このセグメンテーションは、被験者間の高いばらつきと構造間のコントラストの潜在的な欠如のために困難である。 そこで本研究の主な目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく,正確な自動セグメンテーション手法を開発することである。 この目的のために、特殊な畳み込みを伴うエンコーダ側の圧縮および励起ブロックと統合された2.5次元残差ニューラルネットワークが提案されている。 後期核融合は、異なるハイパーパラメータの集合から最も訓練されたモデルの出力をマージするために使われてきた。 合計320の試験(試験1回あたり平均6スライス)が訓練に、28の試験が試験に使用された。 基礎スライス法と中間スライス法で提案したアンサンブルモデルの性能解析は, オブザーバ内実験と同等であり, 先端スライス法ではやや低かった。 diceスコアは,intra observer studyで得られた83.22%に対して,提案手法では82.01%であった。 提案モデルは心筋境界の自動分節化に有用であり,no-reflow,心筋梗塞,心筋炎,肥大型心筋症等を正確に定量化するための重要なステップである。

Cardiac left ventricular (LV) segmentation from short-axis MRI acquired 10 minutes after the injection of a contrast agent (LGE-MRI) is a necessary step in the processing allowing the identification and diagnosis of cardiac diseases such as myocardial infarction. However, this segmentation is challenging due to high variability across subjects and the potential lack of contrast between structures. Then, the main objective of this work is to develop an accurate automatic segmentation method based on deep learning models for the myocardial borders on LGE-MRI. To this end, 2.5 D residual neural network integrated with a squeeze and excitation blocks in encoder side with specialized convolutional has been proposed. Late fusion has been used to merge the output of the best trained proposed models from a different set of hyperparameters. A total number of 320 exams (with a mean number of 6 slices per exam) were used for training and 28 exams used for testing. The performance analysis of the proposed ensemble model in the basal and middle slices was similar as compared to intra-observer study and slightly lower at apical slices. The overall Dice score was 82.01% by our proposed method as compared to Dice score of 83.22% obtained from the intra observer study. The proposed model could be used for the automatic segmentation of myocardial border that is a very important step for accurate quantification of no-reflow, myocardial infarction, myocarditis, and hypertrophic cardiomyopathy, among others.
翻訳日:2022-11-28 08:48:03 公開日:2020-05-27
# enasを用いた超音波画像を用いた乳癌認識のためのディープラーニングモデルの構築

An ENAS Based Approach for Constructing Deep Learning Models for Breast Cancer Recognition from Ultrasound Images ( http://arxiv.org/abs/2005.13695v1 )

ライセンス: Link先を確認
Mohammed Ahmed, Hongbo Du, Alaa AlZoubi(参考訳) Deep Convolutional Neural Networks (CNN)は、画像パターン認識のための"エンドツーエンド"ソリューションを提供する。 高性能CNNモデルの多くは手作りのネットワークアーキテクチャを使用しており、CNNの専門知識を必要とする。 本稿では,胸部病変を超音波(US)画像から分類するための最適なCNNアーキテクチャを見つけるために,ENAS(Efficient Neural Architecture Search)法を適用した。 524US画像のデータセットによる実証研究により、ENASを用いて生成された最適なモデルは平均89.3%の精度で、他の手作りの代替品よりも優れていることが示された。 さらに、モデルは複雑さがよりシンプルで、より効率的です。 本研究は,CNNモデル設計におけるENASアプローチが乳腺病変の超音波像の分類に有効であることを示す。

Deep Convolutional Neural Networks (CNN) provides an "end-to-end" solution for image pattern recognition with impressive performance in many areas of application including medical imaging. Most CNN models of high performance use hand-crafted network architectures that require expertise in CNNs to utilise their potentials. In this paper, we applied the Efficient Neural Architecture Search (ENAS) method to find optimal CNN architectures for classifying breast lesions from ultrasound (US) images. Our empirical study with a dataset of 524 US images shows that the optimal models generated by using ENAS achieve an average accuracy of 89.3%, surpassing other hand-crafted alternatives. Furthermore, the models are simpler in complexity and more efficient. Our study demonstrates that the ENAS approach to CNN model design is a promising direction for classifying ultrasound images of breast lesions.
翻訳日:2022-11-28 08:47:38 公開日:2020-05-27
# ProTuner: Monte Carlo Tree Searchを使ったチューニングプログラム

ProTuner: Tuning Programs with Monte Carlo Tree Search ( http://arxiv.org/abs/2005.13685v1 )

ライセンス: Link先を確認
Ameer Haj-Ali, Hasan Genc, Qijing Huang, William Moses, John Wawrzynek, Krste Asanovi\'c, Ion Stoica(参考訳) 我々はモンテカルロ木探索(MCTS)アルゴリズムを、高性能ディープラーニングと画像処理のためのプログラムのチューニングという非常に難しいタスクに適用することを検討する。 我々はHalide上にフレームワークを構築し、MCTSが最先端のビーム探索アルゴリズムより優れていることを示す。 部分的なスケジュールとあまり意味の無いスケジュールのグリーディーな中間性能比較によって導かれるビームサーチとは異なり、MCTSは完全なスケジュールを比較し、中間スケジューリング決定をする前に先を見ていく。 さらに,標準mctsアルゴリズムの修正や,実実行時間計測とコストモデルの組み合わせについても検討する。 その結果,mctsは16個の実際のベンチマークでビームサーチを上回ることができることがわかった。

We explore applying the Monte Carlo Tree Search (MCTS) algorithm in a notoriously difficult task: tuning programs for high-performance deep learning and image processing. We build our framework on top of Halide and show that MCTS can outperform the state-of-the-art beam-search algorithm. Unlike beam search, which is guided by greedy intermediate performance comparisons between partial and less meaningful schedules, MCTS compares complete schedules and looks ahead before making any intermediate scheduling decision. We further explore modifications to the standard MCTS algorithm as well as combining real execution time measurements with the cost model. Our results show that MCTS can outperform beam search on a suite of 16 real benchmarks.
翻訳日:2022-11-28 08:47:13 公開日:2020-05-27
# 平均場レジームにおける2層reLU-networksのグラディエントDescenceトレーニングの収束性について

On the Convergence of Gradient Descent Training for Two-layer ReLU-networks in the Mean Field Regime ( http://arxiv.org/abs/2005.13530v1 )

ライセンス: Link先を確認
Stephan Wojtowytsch(参考訳) 一方向初期パラメータ分布を持つ平均場状態における勾配勾配による2層ReLU-networksのトレーニングにおいて,ベイズリスクの最小化に必要な条件について述べる。 本稿では、chizat と bach の最近の結果を relu-activated network に適用し、正確に mbr を達成するパラメータが存在しない状況に適用する。 この条件はパラメータのイタライゼーションに依存しず、パラメータ分布ではなく、ニューラルネットワークの実現の弱い収束のみに関係している。

We describe a necessary and sufficient condition for the convergence to minimum Bayes risk when training two-layer ReLU-networks by gradient descent in the mean field regime with omni-directional initial parameter distribution. This article extends recent results of Chizat and Bach to ReLU-activated networks and to the situation in which there are no parameters which exactly achieve MBR. The condition does not depend on the initalization of parameters and concerns only the weak convergence of the realization of the neural network, not its parameter distribution.
翻訳日:2022-11-28 08:38:45 公開日:2020-05-27
# パフォーマンス駆動型会話面の改善のためのモダリティドロップアウト

Modality Dropout for Improved Performance-driven Talking Faces ( http://arxiv.org/abs/2005.13616v1 )

ライセンス: Link先を確認
Ahmed Hussen Abdelaziz and Barry-John Theobald and Paul Dixon and Reinhard Knothe and Nicholas Apostoloff and Sachin Kajareker(参考訳) 本稿では,音響情報と視覚情報の両方を用いてアニメーションを駆動する新しい深層学習手法について述べる。 特に音声視覚情報を用いて音声関連顔動きを生成し、視覚情報のみを使用して非音声顔動きを生成する。 我々のモデルはトレーニング中に両方のモダリティを活用できるように、オーディオのみ、ビデオのみ、オーディオ視覚入力機能を含むバッチを生成する。 モダリティを落とす確率は、モデルがトレーニング中にオーディオや視覚情報を利用する程度を制御できる。 トレーニングされたモデルは、リソース制限されたハードウェア(例えば、スマートフォン)でリアルタイムに動作し、ユーザ非依存であり、音声の潜在的なエラーを起こしやすい書き起こしに依存しない。 実証には主観的テストを使用します。 1)同等の映像のみのアプローチによるオーディオ視覚駆動型アニメーションの改善 2) モダリティ・ドロップアウト導入による音声関連顔の動きのアニメーションの改善 dropoutを導入する前に、視聴者はテストシーケンスの51%でオーディオビジュアルアニメーションを好み、ビデオ駆動では18%だった。 音声視覚駆動アニメーションのドロップアウトビューア選好は74%まで上昇するが、ビデオ専用では8%に低下する。

We describe our novel deep learning approach for driving animated faces using both acoustic and visual information. In particular, speech-related facial movements are generated using audiovisual information, and non-speech facial movements are generated using only visual information. To ensure that our model exploits both modalities during training, batches are generated that contain audio-only, video-only, and audiovisual input features. The probability of dropping a modality allows control over the degree to which the model exploits audio and visual information during training. Our trained model runs in real-time on resource limited hardware (e.g.\ a smart phone), it is user agnostic, and it is not dependent on a potentially error-prone transcription of the speech. We use subjective testing to demonstrate: 1) the improvement of audiovisual-driven animation over the equivalent video-only approach, and 2) the improvement in the animation of speech-related facial movements after introducing modality dropout. Before introducing dropout, viewers prefer audiovisual-driven animation in 51% of the test sequences compared with only 18% for video-driven. After introducing dropout viewer preference for audiovisual-driven animation increases to 74%, but decreases to 8% for video-only.
翻訳日:2022-11-28 08:38:35 公開日:2020-05-27
# 注意:ジャイアンツの肩に立つために

Attention: to Better Stand on the Shoulders of Giants ( http://arxiv.org/abs/2005.14256v1 )

ライセンス: Link先を確認
Sha Yuan, Zhou Shao, Yu Zhang, Xingxing Wei, Tong Xiao, Yifan Wang, Jie Tang(参考訳) サイエンス・オブ・サイエンス(英語: science of science, scisci)は、科学が大規模なデータセットを用いて科学の構造や進化を研究するために使われる新しい学問である。 学術的な成果に関するデジタルデータの増加は、SciSciを探索する前例のない機会を提供する。 科学の進歩において、これまで発見された知識は主として新しい科学思想を刺激し、引用は科学研究の累積的な性質を合理的に反映している。 潜在的に影響力のある参考文献を選択する研究は、新興の出版物に先行する。 ピアレビュープロセスは, 論文の将来的な影響を予測する上で, 信頼性の高い手法であるが, ビッグデータ時代の科学的影響分析において, 引用記録に基づく持続的影響を予測する能力はますます不可欠である。 本稿では, 長期科学的影響予測のための注意機構を開発し, 実大規模引用データセットに基づく手法を検証する。 結果は従来の思考を損なう。 オリジナルのパワーロー分布を正確にシミュレートする代わりに、限られた注意力を強調することで、巨人の肩に立つことができる。

Science of science (SciSci) is an emerging discipline wherein science is used to study the structure and evolution of science itself using large data sets. The increasing availability of digital data on scholarly outcomes offers unprecedented opportunities to explore SciSci. In the progress of science, the previously discovered knowledge principally inspires new scientific ideas, and citation is a reasonably good reflection of this cumulative nature of scientific research. The researches that choose potentially influential references will have a lead over the emerging publications. Although the peer review process is the mainly reliable way of predicting a paper's future impact, the ability to foresee the lasting impact based on citation records is increasingly essential in the scientific impact analysis in the era of big data. This paper develops an attention mechanism for the long-term scientific impact prediction and validates the method based on a real large-scale citation data set. The results break conventional thinking. Instead of accurately simulating the original power-law distribution, emphasizing the limited attention can better stand on the shoulders of giants.
翻訳日:2022-11-28 08:38:16 公開日:2020-05-27
# 動的シーンにおける複数のインテリジェントエージェントのロバスト軌道予測

Robust Trajectory Forecasting for Multiple Intelligent Agents in Dynamic Scene ( http://arxiv.org/abs/2005.13133v1 )

ライセンス: Link先を確認
Yanliang Zhu, Dongchun Ren, Mingyu Fan, Deheng Qian, Xin Li, Huaxia Xia(参考訳) 動的シーンにおける複数の相互作用エージェントの軌道予測(トラジェクティブ予測)は、ロボットシステムや自律運転など多くのアプリケーションにとって重要な問題である。 この問題は、エージェント間の複雑な相互作用と周囲のシーンとの相互作用のため、大きな課題である。 本稿では,動的シーンにおける複数の知的エージェントのロバストな軌道予測手法を提案する。 提案手法は3つの主要な相互関連成分からなる:グローバル時空間対話的特徴抽出のための相互作用ネット、動的シーン(すなわち、エージェントの周囲の道路トポロジー)をデコードする環境ネット、および、時空間特徴、シーン特徴、エージェントの過去の軌跡、エージェントのロバストな軌道予測のためのいくつかのランダムノイズを組み合わせた予測ネット。 歩行者歩行と車道不均質データセットを用いた実験により,提案手法が予測精度の面で最先端予測手法を上回っていることが示された。

Trajectory forecasting, or trajectory prediction, of multiple interacting agents in dynamic scenes, is an important problem for many applications, such as robotic systems and autonomous driving. The problem is a great challenge because of the complex interactions among the agents and their interactions with the surrounding scenes. In this paper, we present a novel method for the robust trajectory forecasting of multiple intelligent agents in dynamic scenes. The proposed method consists of three major interrelated components: an interaction net for global spatiotemporal interactive feature extraction, an environment net for decoding dynamic scenes (i.e., the surrounding road topology of an agent), and a prediction net that combines the spatiotemporal feature, the scene feature, the past trajectories of agents and some random noise for the robust trajectory prediction of agents. Experiments on pedestrian-walking and vehicle-pedestrian heterogeneous datasets demonstrate that the proposed method outperforms the state-of-the-art prediction methods in terms of prediction accuracy.
翻訳日:2022-11-28 08:38:00 公開日:2020-05-27
# ランゲヴィン・モンテカルロの収束について--タイル成長とスムースネスの相互作用

On the Convergence of Langevin Monte Carlo: The Interplay between Tail Growth and Smoothness ( http://arxiv.org/abs/2005.13097v1 )

ライセンス: Link先を確認
Murat A. Erdogdu, Rasa Hosseinzadeh(参考訳) 我々は,未調整のLangevin Monte Carlo (LMC)アルゴリズムを用いて,ターゲット分布の${\nu_* = e^{-f}}$からサンプリングする。 その尾が${\|x\|^\alpha}$ for ${\alpha \in [1,2]}$ であり、$\beta$-h\"older連続勾配を持つ任意のポテンシャル関数に対して、${\widetilde{\mathcal{o}} \big(d^{\frac{1}{\beta}+\frac{1+\beta}{\beta}(\frac{2}{\alpha}\boldsymbol{1}_{\{\alpha \neq 1\}})} \epsilon^{-\frac{1}{\beta}}\big)}$ステップは$\epsilon $-neighborhood of a $d$-dimensional target distribution $\nu_*$ in kl-divergence である。 この収束率は、$\epsilon$依存性という意味では、その成長が少なくとも線形である限り、ポテンシャル関数のテール成長率$\alpha$に直接影響されず、滑らかさの順序$\beta$のみに依存する。 この結果の顕著な結果の1つは、リプシッツ勾配を持つポテンシャル、すなわち$\beta=1$の場合、我々の速度は、$\epsilon$依存性の点で強い凸ポテンシャルに対して確立された最もよく知られた速度 ${\widetilde{\mathcal{O}}(d\epsilon^{-1})}$を回復するが、同じ速度は無限大の縮退したポテンシャルのより広いクラスに対して達成可能であることを示している。 成長率$\alpha$は、$d$が大きい高次元において確立された速度に影響を与え始め、さらに、ポテンシャルの尾成長が二次的であるときに最もよく知られた次元依存性、すなわち${\alpha = 2}$を現在の設定で回復する。 この枠組みは有限摂動と任意の平滑性の順序 ${\beta\in(0,1]}$ を許容するので、弱滑らかで少なくとも線形なテール成長を示す、幅広い非凸ポテンシャルのクラスに適用できる。

We study sampling from a target distribution ${\nu_* = e^{-f}}$ using the unadjusted Langevin Monte Carlo (LMC) algorithm. For any potential function $f$ whose tails behave like ${\|x\|^\alpha}$ for ${\alpha \in [1,2]}$, and has $\beta$-H\"older continuous gradient, we prove that ${\widetilde{\mathcal{O}} \Big(d^{\frac{1}{\beta}+\frac{1+\beta}{\beta}(\frac{2}{\alpha} - \boldsymbol{1}_{\{\alpha \neq 1\}})} \epsilon^{-\frac{1}{\beta}}\Big)}$ steps are sufficient to reach the $\epsilon $-neighborhood of a $d$-dimensional target distribution $\nu_*$ in KL-divergence. This convergence rate, in terms of $\epsilon$ dependency, is not directly influenced by the tail growth rate $\alpha$ of the potential function as long as its growth is at least linear, and it only relies on the order of smoothness $\beta$. One notable consequence of this result is that for potentials with Lipschitz gradient, i.e. $\beta=1$, our rate recovers the best known rate ${\widetilde{\mathcal{O}}(d\epsilon^{-1})}$ which was established for strongly convex potentials in terms of $\epsilon$ dependency, but we show that the same rate is achievable for a wider class of potentials that are degenerately convex at infinity. The growth rate $\alpha$ starts to have an effect on the established rate in high dimensions where $d$ is large; furthermore, it recovers the best-known dimension dependency when the tail growth of the potential is quadratic, i.e. ${\alpha = 2}$, in the current setup. Our framework allows for finite perturbations, and any order of smoothness ${\beta\in(0,1]}$; consequently, our results are applicable to a wide class of non-convex potentials that are weakly smooth and exhibit at least linear tail growth.
翻訳日:2022-11-28 08:32:15 公開日:2020-05-27
# safeml:統計差分法による機械学習分類器の安全性モニタリング

SafeML: Safety Monitoring of Machine Learning Classifiers through Statistical Difference Measure ( http://arxiv.org/abs/2005.13166v1 )

ライセンス: Link先を確認
Koorosh Aslansefat, Ioannis Sorokos, Declan Whiting, Ramin Tavakoli Kolagari, Yiannis Papadopoulos(参考訳) 機械学習(ML)の安全性と説明可能性を保証することは、データ駆動型アプリケーションが安全クリティカルなアプリケーションドメインに参入する際の関連性を高めるトピックである。 特に安全性とセキュリティの相互作用は、セキュリティ違反が安全を損なう可能性があるため、中心的な課題である。 mlシステムの運用中に適用可能な保護という1つの概念における安全性と安全性の両立に向けた本論文の貢献は、経験的累積分布関数(ecdf)の距離尺度に基づくデータ駆動システムの挙動と運用コンテキストのアクティブな監視である。 kolmogorov-smirnov, kuiper, anderson-darling, wasserstein, mixed wasserstein-anderson-darling などの分布シフト検出法を用いて,シミュレーションネットワークトラフィックの侵入検出のための抽象データセット(xor, spiral, circle)と現在のセキュリティ固有のデータセット(cicids2017)を調査した。 予備的な知見は,MLコンポーネントのアプリケーションコンテキストが安全性に有効であるかどうかを検知するための基盤となることを示唆している。 予備コードと結果はhttps://github.com/ISorokos/SafeML.comで公開されています。

Ensuring safety and explainability of machine learning (ML) is a topic of increasing relevance as data-driven applications venture into safety-critical application domains, traditionally committed to high safety standards that are not satisfied with an exclusive testing approach of otherwise inaccessible black-box systems. Especially the interaction between safety and security is a central challenge, as security violations can lead to compromised safety. The contribution of this paper to addressing both safety and security within a single concept of protection applicable during the operation of ML systems is active monitoring of the behaviour and the operational context of the data-driven system based on distance measures of the Empirical Cumulative Distribution Function (ECDF). We investigate abstract datasets (XOR, Spiral, Circle) and current security-specific datasets for intrusion detection (CICIDS2017) of simulated network traffic, using distributional shift detection measures including the Kolmogorov-Smirnov, Kuiper, Anderson-Darling, Wasserstein and mixed Wasserstein-Anderson-Darling measures. Our preliminary findings indicate that the approach can provide a basis for detecting whether the application context of an ML component is valid in the safety-security. Our preliminary code and results are available at https://github.com/ISorokos/SafeML.
翻訳日:2022-11-28 08:30:48 公開日:2020-05-27
# トランスファー可能な広告主による深層学習ネットワークのレジリエンス向上

Enhancing Resilience of Deep Learning Networks by Means of Transferable Adversaries ( http://arxiv.org/abs/2005.13293v1 )

ライセンス: Link先を確認
Moritz Seiler and Heike Trautmann and Pascal Kerschke(参考訳) 一般的なニューラルネットワークとディープラーニングネットワークは、自分たちをポピュラーで強力な機械学習アルゴリズムとして確立した。 これらのネットワークの膨大なサイズは複雑なタスクを解決する際に有益であることが多いが、その膨大な数のパラメータは、敵の摂動のような悪意ある行動に対して脆弱なネットワークも引き起こす。 これらの摂動はモデルの分類決定を変えることができる。 さらに、シングルステップの敵はネットワークからネットワークへ簡単に転送できるが、より強力なマルチステップの敵の移動は通常、かなり困難だった。 本稿では,異なるモデル間で容易に(かつ頻繁に)転送可能な強力なad-versaryを生成する手法を提案する。 この方法は、選択された防御方法の効果を実験的に評価した大量の敵を生成するために使用される。 最後に、ニューラルネットワークの敵に対するレジリエンスを高め、確立した防御手法に対してベンチマークする、新しい、シンプルで効果的なアプローチを紹介します。 すでに存在する手法とは対照的に、提案された防御アプローチは、同等のパフォーマンスを達成するために1つの追加のフォワードパスしか必要としないため、はるかに効率的です。

Artificial neural networks in general and deep learning networks in particular established themselves as popular and powerful machine learning algorithms. While the often tremendous sizes of these networks are beneficial when solving complex tasks, the tremendous number of parameters also causes such networks to be vulnerable to malicious behavior such as adversarial perturbations. These perturbations can change a model's classification decision. Moreover, while single-step adversaries can easily be transferred from network to network, the transfer of more powerful multi-step adversaries has - usually -- been rather difficult. In this work, we introduce a method for generating strong ad-versaries that can easily (and frequently) be transferred between different models. This method is then used to generate a large set of adversaries, based on which the effects of selected defense methods are experimentally assessed. At last, we introduce a novel, simple, yet effective approach to enhance the resilience of neural networks against adversaries and benchmark it against established defense methods. In contrast to the already existing methods, our proposed defense approach is much more efficient as it only requires a single additional forward-pass to achieve comparable performance results.
翻訳日:2022-11-28 08:28:37 公開日:2020-05-27
# モバイルアプリの利用状況に基づく汎用ユーザ埋め込み

General-Purpose User Embeddings based on Mobile App Usage ( http://arxiv.org/abs/2005.13303v1 )

ライセンス: Link先を確認
Junqi Zhang, Bing Bai, Ye Lin, Jian Liang, Kun Bai, Fei Wang(参考訳) 本稿では,モバイルアプリ利用に基づくユーザモデリングにおけるTencentの最近の実践について報告する。 保留、インストール、アンインストールを含むモバイルアプリの利用に関するユーザー行動は、ユーザの長期的な利益と短期的な利益の両方に良い指標となる。 たとえば、最近Snapseedをインストールしたユーザーは、写真撮影への関心が高まっているかもしれない。 このような情報は、広告やレコメンデーションなどを含む多くの下流アプリケーションにとって価値がある。 従来、モバイルアプリの使用によるユーザモデリングは、さまざまなダウンストリームアプリケーションに対して煩雑な人間作業を必要とする手作りの機能工学に大きく依存しており、ドメインの専門家がいなければ、サブ最適である可能性がある。 しかし,モバイルアプリの利用状況に基づく自動ユーザモデリングは,(1)保持,インストール,アンインストールは異種であるが,全体としてモデル化する必要があること,(2)ユーザ動作が時間とともに不均一に分散すること,(3)多くの長鎖アプリが深刻な間隔に悩まされていること,など,独特な課題に直面している。 本稿では,これらの課題を克服し,手作業の削減と性能向上という目標を達成するための,AutoEncoder-Coupled Transformer Network (AETN) を提案する。 私たちはtencentにモデルをデプロイし、ダウンストリームアプリケーションの複数のドメインによるオンライン/オフライン実験の両方で、出力ユーザ埋め込みの有効性を実証しました。

In this paper, we report our recent practice at Tencent for user modeling based on mobile app usage. User behaviors on mobile app usage, including retention, installation, and uninstallation, can be a good indicator for both long-term and short-term interests of users. For example, if a user installs Snapseed recently, she might have a growing interest in photographing. Such information is valuable for numerous downstream applications, including advertising, recommendations, etc. Traditionally, user modeling from mobile app usage heavily relies on handcrafted feature engineering, which requires onerous human work for different downstream applications, and could be sub-optimal without domain experts. However, automatic user modeling based on mobile app usage faces unique challenges, including (1) retention, installation, and uninstallation are heterogeneous but need to be modeled collectively, (2) user behaviors are distributed unevenly over time, and (3) many long-tailed apps suffer from serious sparsity. In this paper, we present a tailored AutoEncoder-coupled Transformer Network (AETN), by which we overcome these challenges and achieve the goals of reducing manual efforts and boosting performance. We have deployed the model at Tencent, and both online/offline experiments from multiple domains of downstream applications have demonstrated the effectiveness of the output user embeddings.
翻訳日:2022-11-28 08:22:12 公開日:2020-05-27
# Bitcoinデータ拡張のためのジェネレータネットワーク

Generative Adversarial Networks for Bitcoin Data Augmentation ( http://arxiv.org/abs/2005.13369v1 )

ライセンス: Link先を確認
Francesco Zola, Jan Lukas Bruse, Xabier Etxeberria Barrio, Mikel Galar, Raul Orduna Urrutia(参考訳) Bitcoinエンティティ分類では、特に教師付き機械学習アプローチを適用する場合、結果が基調データセットによって強く条件付けられます。 しかし、これらの真正なデータセットは、違法な活動(ミキサー、サービス)に関連するサービスよりも法的なサービス(交換、ギャンブル)に関する多くの情報を含んでいるため、重要なクラスの不均衡によってしばしば影響を受ける。 クラス不均衡は、機械学習技術を適用する複雑さを増大させ、特に表現不足のクラスにおいて、分類結果の品質を低下させる。 本稿では,GAN(Generative Adversarial Networks, GAN)を用いてビットコインのデータ拡張を行い, 画像分類における有望な結果を示した。 しかしながら、すべてのシナリオで機能する"オールフィット"のGANソリューションはありません。 実際、GANトレーニングパラメータの設定は簡単ではなく、生成した合成データの品質に大きく影響を与える。 したがって、最適化関数やデータセットのサイズ、選択されたバッチサイズなどのGANパラメータが、表現不足のエンティティクラス(マイニングプール)のGAN実装にどのように影響するかを評価し、合成されたBitcoinアドレスデータと実際のBitcoinアドレスデータとの高い類似性を実現する「良い」GAN構成が得られるかを示す。 我々の知る限りでは、Bitcoinエンティティ分類におけるデータ拡張のための合成アドレスデータを生成する有効なツールとして、GANを提示する最初の研究である。

In Bitcoin entity classification, results are strongly conditioned by the ground-truth dataset, especially when applying supervised machine learning approaches. However, these ground-truth datasets are frequently affected by significant class imbalance as generally they contain much more information regarding legal services (Exchange, Gambling), than regarding services that may be related to illicit activities (Mixer, Service). Class imbalance increases the complexity of applying machine learning techniques and reduces the quality of classification results, especially for underrepresented, but critical classes. In this paper, we propose to address this problem by using Generative Adversarial Networks (GANs) for Bitcoin data augmentation as GANs recently have shown promising results in the domain of image classification. However, there is no "one-fits-all" GAN solution that works for every scenario. In fact, setting GAN training parameters is non-trivial and heavily affects the quality of the generated synthetic data. We therefore evaluate how GAN parameters such as the optimization function, the size of the dataset and the chosen batch size affect GAN implementation for one underrepresented entity class (Mining Pool) and demonstrate how a "good" GAN configuration can be obtained that achieves high similarity between synthetically generated and real Bitcoin address data. To the best of our knowledge, this is the first study presenting GANs as a valid tool for generating synthetic address data for data augmentation in Bitcoin entity classification.
翻訳日:2022-11-28 08:21:50 公開日:2020-05-27
# 直交するモンテカルロのデミスティフィケーション

Demystifying Orthogonal Monte Carlo and Beyond ( http://arxiv.org/abs/2005.13590v1 )

ライセンス: Link先を確認
Han Lin, Haoxian Chen, Tianyi Zhang, Clement Laroche, and Krzysztof Choromanski(参考訳) 直交モンテカルロ(orthogonal monte carlo、omc)は、分散還元のためにサンプル上に構造幾何学的条件(orthogonality)を構成する非常に効果的なサンプリングアルゴリズムである。 クァジモンテカルロと比較して、その単純さと優れたパフォーマンスのため、OMCはスケーラブルなカーネルメソッドから予測リカレントニューラルネットワーク、生成モデル、強化学習に至るまで、幅広い機械学習アプリケーションで使用されている。 しかし、理論的な理解は非常に限られている。 本稿では, omcの背後にある理論原理に新たな光を当て, 負依存確率変数の理論を適用し, 新たな濃度結果を得る。 また,Near-Orthogonal Monte Carlo (NOMC) と呼ばれる数値理論手法と粒子アルゴリズムを利用した新しい拡張法を提案する。 我々は、カーネル法から確率的距離空間の近似まで、OMCを一貫して上回る最初のアルゴリズムであることを示す。

Orthogonal Monte Carlo (OMC) is a very effective sampling algorithm imposing structural geometric conditions (orthogonality) on samples for variance reduction. Due to its simplicity and superior performance as compared to its Quasi Monte Carlo counterparts, OMC is used in a wide spectrum of challenging machine learning applications ranging from scalable kernel methods to predictive recurrent neural networks, generative models and reinforcement learning. However theoretical understanding of the method remains very limited. In this paper we shed new light on the theoretical principles behind OMC, applying theory of negatively dependent random variables to obtain several new concentration results. We also propose a novel extensions of the method leveraging number theory techniques and particle algorithms, called Near-Orthogonal Monte Carlo (NOMC). We show that NOMC is the first algorithm consistently outperforming OMC in applications ranging from kernel methods to approximating distances in probabilistic metric spaces.
翻訳日:2022-11-28 08:20:54 公開日:2020-05-27
# オーバーフローアウェア量子化によるニューラルネットワークの高速化

Accelerating Neural Network Inference by Overflow Aware Quantization ( http://arxiv.org/abs/2005.13297v1 )

ライセンス: Link先を確認
Hongwei Xie, Shuo Zhang, Huanghao Ding, Yafei Song, Baitao Shao, Conggang Hu, Ling Cai and Mingyang Li(参考訳) ディープニューラルネットワークの本質的に重い計算は、その広範な応用を妨げる。 モデル推論を高速化するための広く用いられる方法は、固定点値を用いてネットワークの入力オペランドを置き換えることで量子化である。 その後、計算コストの大半は整数行列乗算の累積に集中する。 実際、高ビットアキュムレータは部分的に無駄な計算をし、低ビットアキュムレータは通常数値オーバーフローに悩まされる。 そこで本研究では,各入力テンソルに対するビット数を最適化し,計算中に数値オーバーフローを禁止し,学習可能な適応不動点表現を設計できるオーバーフロー対応量子化手法を提案する。 提案手法では,量子化損失を最小化するために計算能力を十分に活用し,最適化された推論性能を得ることができる。 提案手法の有効性を検証するため,ImageNet,Pascal VOC,COCOデータセット上で画像分類,オブジェクト検出,セマンティックセグメンテーションタスクを行う。 実験により,提案手法は推定過程を約2倍に加速しながら,最先端の量子化法と同等の性能を達成できることを示した。

The inherent heavy computation of deep neural networks prevents their widespread applications. A widely used method for accelerating model inference is quantization, by replacing the input operands of a network using fixed-point values. Then the majority of computation costs focus on the integer matrix multiplication accumulation. In fact, high-bit accumulator leads to partially wasted computation and low-bit one typically suffers from numerical overflow. To address this problem, we propose an overflow aware quantization method by designing trainable adaptive fixed-point representation, to optimize the number of bits for each input tensor while prohibiting numeric overflow during the computation. With the proposed method, we are able to fully utilize the computing power to minimize the quantization loss and obtain optimized inference performance. To verify the effectiveness of our method, we conduct image classification, object detection, and semantic segmentation tasks on ImageNet, Pascal VOC, and COCO datasets, respectively. Experimental results demonstrate that the proposed method can achieve comparable performance with state-of-the-art quantization methods while accelerating the inference process by about 2 times.
翻訳日:2022-11-28 08:20:23 公開日:2020-05-27
# Center3D:関節深度理解による中心型単眼物体検出

Center3D: Center-based Monocular 3D Object Detection with Joint Depth Understanding ( http://arxiv.org/abs/2005.13423v1 )

ライセンス: Link先を確認
Yunlei Tang, Sebastian Dorn and Chiragkumar Savani(参考訳) 3D空間における物体の局所化とそれに関連する3D特性の理解は、単眼のRGB画像のみを考えると困難である。 この状況は遠近投射中に深度情報を失うことで複雑になる。 単眼RGB画像のみを用いて3次元位置と深度を効率よく推定する1段アンカーフリーアプローチであるCenter3Dを提案する。 2Dセンターと3Dセンターの違いを利用して、常に深さを推定することができる。 center3dは分類と回帰の組み合わせを使って、隠れた奥行き情報を各メソッド単独よりもロバストに理解する。 提案手法は,(1) lid: 逐次線形増分離散化を用いた分類優位アプローチである。 2) DepJoint: 深度推定のための複数の固有変換を持つ回帰支配型アプローチ。 適度な対象に対するKITTIデータセットの評価により、Center3DはBEVのAPを29.7 %から42.8 %に改善し、3DのAPを18.6 %から39.1 %に改善した。 最先端の検出器と比較すると、center3dはリアルタイムモノクロ物体検出における最高速度精度のトレードオフを達成した。

Localizing objects in 3D space and understanding their associated 3D properties is challenging given only monocular RGB images. The situation is compounded by the loss of depth information during perspective projection. We present Center3D, a one-stage anchor-free approach, to efficiently estimate 3D location and depth using only monocular RGB images. By exploiting the difference between 2D and 3D centers, we are able to estimate depth consistently. Center3D uses a combination of classification and regression to understand the hidden depth information more robustly than each method alone. Our method employs two joint approaches: (1) LID: a classification-dominated approach with sequential Linear Increasing Discretization. (2) DepJoint: a regression-dominated approach with multiple Eigen's transformations for depth estimation. Evaluating on KITTI dataset for moderate objects, Center3D improved the AP in BEV from $29.7\%$ to $42.8\%$, and the AP in 3D from $18.6\%$ to $39.1\%$. Compared with state-of-the-art detectors, Center3D has achieved the best speed-accuracy trade-off in realtime monocular object detection.
翻訳日:2022-11-28 08:20:04 公開日:2020-05-27
# 少数・ゼロショットエゴセントリックな行動認識の統一

Unifying Few- and Zero-Shot Egocentric Action Recognition ( http://arxiv.org/abs/2006.11393v1 )

ライセンス: Link先を確認
Tyler R. Scott, Michael Shvartsman and Karl Ridgeway(参考訳) エゴセントリックな行動認識には重要な研究があるが、EPIC-KITCHENSを含むほとんどのメソッドやタスクは、一定の行動クラスを想定している。 固定セット分類はベンチマーク手法に有用であるが、アクションの構成性のため、実用的な設定では非現実的であり、機能的に無限カルジナリティラベル集合となる。 本研究では,クラスを開集合とする一般化について検討し,クラスとゼロショットの2つの一般的なアプローチを統一する(後者はクロスモーダルな数ショットの一般化として再編成する)。 オープンセット分類の評価を可能にするepic-kitchensデータセットから派生した新たな分割セットを提案し,これらの分割を用いて,従来のダイレクトアリゲーションベースラインにメートル法学習損失を加えることで,ゼロショット分類を最大10%向上できることを示す。

Although there has been significant research in egocentric action recognition, most methods and tasks, including EPIC-KITCHENS, suppose a fixed set of action classes. Fixed-set classification is useful for benchmarking methods, but is often unrealistic in practical settings due to the compositionality of actions, resulting in a functionally infinite-cardinality label set. In this work, we explore generalization with an open set of classes by unifying two popular approaches: few- and zero-shot generalization (the latter which we reframe as cross-modal few-shot generalization). We propose a new set of splits derived from the EPIC-KITCHENS dataset that allow evaluation of open-set classification, and use these splits to show that adding a metric-learning loss to the conventional direct-alignment baseline can improve zero-shot classification by as much as 10%, while not sacrificing few-shot performance.
翻訳日:2022-11-28 08:19:28 公開日:2020-05-27
# ロボット共生歩行における周期行動の予測モデル

Predictive Modeling of Periodic Behavior for Human-Robot Symbiotic Walking ( http://arxiv.org/abs/2005.13139v1 )

ライセンス: Link先を確認
Geoffrey Clark, Joseph Campbell, Seyed Mostafa Rezayat Sorkhabadi, Wenlong Zhang, Heni Ben Amor(参考訳) 本稿では,周期的行動のコンパクトなモデル学習に使用できる確率的フレームワークである周期的相互作用プリミティブを提案する。 我々のアプローチは、既存のインタラクションプリミティブの定式化を周期的な運動体制、すなわち歩行に拡張する。 このモデルは、データ駆動でカスタマイズされた人間の歩行のモデルを学ぶのに特に適しており、将来の状態を予測したり、潜在的な生体力学的変数を推測するのに使うことができる。 また、模倣学習アプローチを用いて、ロボット義肢のコントローラーを学習するために、同じフレームワークがいかに使用できるかを実証する。 実験の結果, 周期的相互作用プリミティブはロボット足関節の予測と足首角制御信号を効率的に生成し, 推定1回あたり2.21度で0.0008sであることがわかった。 ノイズやセンサーが外れた状態では、性能は優雅に低下する。 代替案と比較すると、このアルゴリズムは20倍高速に動作し、テスト対象者の4.5倍の精度で動作した。

We propose in this paper Periodic Interaction Primitives - a probabilistic framework that can be used to learn compact models of periodic behavior. Our approach extends existing formulations of Interaction Primitives to periodic movement regimes, i.e., walking. We show that this model is particularly well-suited for learning data-driven, customized models of human walking, which can then be used for generating predictions over future states or for inferring latent, biomechanical variables. We also demonstrate how the same framework can be used to learn controllers for a robotic prosthesis using an imitation learning approach. Results in experiments with human participants indicate that Periodic Interaction Primitives efficiently generate predictions and ankle angle control signals for a robotic prosthetic ankle, with MAE of 2.21 degrees in 0.0008s per inference. Performance degrades gracefully in the presence of noise or sensor fall outs. Compared to alternatives, this algorithm functions 20 times faster and performed 4.5 times more accurately on test subjects.
翻訳日:2022-11-28 08:19:09 公開日:2020-05-27
# アイソグルーセの探索--スラヴの歴史的音韻学における連続的および離散的な言語埋め込み

In search of isoglosses: continuous and discrete language embeddings in Slavic historical phonology ( http://arxiv.org/abs/2005.13575v1 )

ライセンス: Link先を確認
Chundra A. Cathcart, Florian Wandl(参考訳) 本稿では,多言語環境でのダイアクロニック音韻汎化を効果的に学習するニューラルネットワークアーキテクチャの能力について検討する。 3種類の言語埋め込み(dense, sigmoid, ストレートスルー)をモデルとして採用しています。 ストレートスルーモデルは、他の2つを精度で上回っているが、sgmoidモデルの埋め込みは、伝統的なスラヴ語のサブグループ化と最も強い一致を示している。 ストレートスルーモデルでは,音変化に関するコヒーレントで半解釈可能な情報と,今後の研究に向けた概説が得られた。

This paper investigates the ability of neural network architectures to effectively learn diachronic phonological generalizations in a multilingual setting. We employ models using three different types of language embedding (dense, sigmoid, and straight-through). We find that the Straight-Through model outperforms the other two in terms of accuracy, but the Sigmoid model's language embeddings show the strongest agreement with the traditional subgrouping of the Slavic languages. We find that the Straight-Through model has learned coherent, semi-interpretable information about sound change, and outline directions for future research.
翻訳日:2022-11-28 08:12:38 公開日:2020-05-27
# 自動運転車用低分解能lidar点雲上の道路区分

Road Segmentation on low resolution Lidar point clouds for autonomous vehicles ( http://arxiv.org/abs/2005.13102v1 )

ライセンス: Link先を確認
Leonardo Gigli, B Ravi Kiran, Thomas Paul, Andres Serna, Nagarjuna Vemuri, Beatriz Marcotegui, Santiago Velasco-Forero(参考訳) 自動運転のコンテキストにおける知覚タスクのためのポイントクラウドデータセットは、高分解能64層光検出およびレンジング(lidar)スキャナに依存することが多い。 通常16/32層LIDARを使用する現実の自律走行センサーアーキテクチャにデプロイする費用がかかる。 道路分割作業の精度に及ぼす高密度点雲のサブサンプリング画像による表現の影響を評価する。 実験では、低解像度の16/32層lidar point cloudを、64層データをサブサンプリングしてシミュレートし、その後、bird-eye-view (bev) および sphereview (sv) 表現内の特徴マップに変換した。 本稿では,lidarの球面座標を既存のlodnnアーキテクチャへの入力チャネルとして用いる局所正規ベクトルについて述べる。 この局所的特徴と古典的特徴の併用により, 完全解像度の点群における二分道路分割の性能が向上するだけでなく, 古典的特徴のみと比較して, 濃密な点群をサブサンプリングする場合の精度に負の影響を減少させることを示した。 提案手法は,kitti road-segmentation benchmarkと最近リリースされたsemantic kitti datasetの2つのデータセットについて,いくつかの実験により評価した。

Point cloud datasets for perception tasks in the context of autonomous driving often rely on high resolution 64-layer Light Detection and Ranging (LIDAR) scanners. They are expensive to deploy on real-world autonomous driving sensor architectures which usually employ 16/32 layer LIDARs. We evaluate the effect of subsampling image based representations of dense point clouds on the accuracy of the road segmentation task. In our experiments the low resolution 16/32 layer LIDAR point clouds are simulated by subsampling the original 64 layer data, for subsequent transformation in to a feature map in the Bird-Eye-View (BEV) and SphericalView (SV) representations of the point cloud. We introduce the usage of the local normal vector with the LIDAR's spherical coordinates as an input channel to existing LoDNN architectures. We demonstrate that this local normal feature in conjunction with classical features not only improves performance for binary road segmentation on full resolution point clouds, but it also reduces the negative impact on the accuracy when subsampling dense point clouds as compared to the usage of classical features alone. We assess our method with several experiments on two datasets: KITTI Road-segmentation benchmark and the recently released Semantic KITTI dataset.
翻訳日:2022-11-28 08:12:27 公開日:2020-05-27
# Synthetic Petri Dish: 高速アーキテクチャ検索のための新しいサロゲートモデル

Synthetic Petri Dish: A Novel Surrogate Model for Rapid Architecture Search ( http://arxiv.org/abs/2005.13092v1 )

ライセンス: Link先を確認
Aditya Rawal, Joel Lehman, Felipe Petroski Such, Jeff Clune, Kenneth O. Stanley(参考訳) neural architecture search (nas)は、アーキテクチャモチーフの大きな空間を探索する -- 計算集約的なプロセスであり、大きなネットワーク内でインスタンス化することで各モチーフの地上的評価を行い、数千のドメイン固有のデータサンプルでネットワークをトレーニングし、評価する。 本稿では, 自然環境から細胞などの生物学的モチーフを抽出し, 人工ペトリ料理設定において研究する方法について, 建築モチーフを評価するための合成ペトリディッシュモデルを提案する。 合成ペトリディッシュ(Synthetic Petri Dish)では、アーキテクチャモチーフは、非常に小さなネットワークでインスタンス化され、非常に少ない学習された合成データサンプルを用いて評価される。 合成ペトリ皿におけるモチーフの相対的なパフォーマンスは、その地味なパフォーマンスに代えて、nasの最も高価なステップを加速することができる。 モチーフの構造を解析してその性能を推定する他のニューラルネットワークベースの予測モデルとは異なり、合成ペトリ皿は、実際のモチーフを人工的な環境で訓練することでモチーフ性能を予測する。 そこで本研究では,合成ペトリ皿を用いた実験により,新しいモチーフの性能を極めて高い精度で予測できることを示す。 我々の望みは、この研究によって、モデル抽出されたコンポーネントの性能を代替的な制御環境で研究する新たな方向性がもたらされることである。

Neural Architecture Search (NAS) explores a large space of architectural motifs -- a compute-intensive process that often involves ground-truth evaluation of each motif by instantiating it within a large network, and training and evaluating the network with thousands of domain-specific data samples. Inspired by how biological motifs such as cells are sometimes extracted from their natural environment and studied in an artificial Petri dish setting, this paper proposes the Synthetic Petri Dish model for evaluating architectural motifs. In the Synthetic Petri Dish, architectural motifs are instantiated in very small networks and evaluated using very few learned synthetic data samples (to effectively approximate performance in the full problem). The relative performance of motifs in the Synthetic Petri Dish can substitute for their ground-truth performance, thus accelerating the most expensive step of NAS. Unlike other neural network-based prediction models that parse the structure of the motif to estimate its performance, the Synthetic Petri Dish predicts motif performance by training the actual motif in an artificial setting, thus deriving predictions from its true intrinsic properties. Experiments in this paper demonstrate that the Synthetic Petri Dish can therefore predict the performance of new motifs with significantly higher accuracy, especially when insufficient ground truth data is available. Our hope is that this work can inspire a new research direction in studying the performance of extracted components of models in an alternative controlled setting.
翻訳日:2022-11-28 08:12:05 公開日:2020-05-27
# 電子健康記録に基づく畳み込みニューラルネットワークによる急性腎障害の高精度予測

Precisely Predicting Acute Kidney Injury with Convolutional Neural Network Based on Electronic Health Record Data ( http://arxiv.org/abs/2005.13171v1 )

ライセンス: Link先を確認
Yu Wang, JunPeng Bao, JianQiang Du, YongFeng Li(参考訳) 急性腎障害(aki)の発症は、集中治療室(icu)患者、特に成人において一般的に起こり、これは短期および長期の死亡に影響する独立した危険因子である。 近年の研究者はAKIの早期予測を強調しているが、既存のモデルの性能は十分ではない。 本研究の目的は,電子健康記録(ehr)データを用いた畳み込みニューラルネットワークによるアキを正確に予測することである。 この研究で使用されるデータセットは、MIMIC-IIIとeICUデータベースの2つのパブリック電子健康記録(EHR)データベースである。 本研究では, コンボリューションニューラルネットワークモデルを用いてAKI予測器のトレーニングと試験を行い, 16個の血液ガスおよび人口統計学的特徴から, ICUの入院後, 特定の患者がAKIに罹患するかどうかを正確に予測する。 この研究は、AKI定義のKidney Disease Improving Global Outcomes(KDIGO)基準に基づいている。 我々の研究はAKI予測精度を大幅に向上させ、最高のAUROCはMIMIC-IIIデータセットで0.988、eICUデータセットで0.936であり、どちらも最先端の予測器より優れている。 そして、この予測器で使われる入力ベクトルの次元は他の既存の研究よりもはるかに少ない。 既存のAKI予測器と比較して、この研究の予測器は畳み込みニューラルネットワークアーキテクチャとより簡潔な入力ベクトルを用いて、AKIの早期予測の精度を大幅に向上する。 アキの早期かつ正確な予測は治療の決定に大きな利益をもたらすため、我々の研究は非常に有用な臨床応用であると考えられている。

The incidence of Acute Kidney Injury (AKI) commonly happens in the Intensive Care Unit (ICU) patients, especially in the adults, which is an independent risk factor affecting short-term and long-term mortality. Though researchers in recent years highlight the early prediction of AKI, the performance of existing models are not precise enough. The objective of this research is to precisely predict AKI by means of Convolutional Neural Network on Electronic Health Record (EHR) data. The data sets used in this research are two public Electronic Health Record (EHR) databases: MIMIC-III and eICU database. In this study, we take several Convolutional Neural Network models to train and test our AKI predictor, which can precisely predict whether a certain patient will suffer from AKI after admission in ICU according to the last measurements of the 16 blood gas and demographic features. The research is based on Kidney Disease Improving Global Outcomes (KDIGO) criteria for AKI definition. Our work greatly improves the AKI prediction precision, and the best AUROC is up to 0.988 on MIMIC-III data set and 0.936 on eICU data set, both of which outperform the state-of-art predictors. And the dimension of the input vector used in this predictor is much fewer than that used in other existing researches. Compared with the existing AKI predictors, the predictor in this work greatly improves the precision of early prediction of AKI by using the Convolutional Neural Network architecture and a more concise input vector. Early and precise prediction of AKI will bring much benefit to the decision of treatment, so it is believed that our work is a very helpful clinical application.
翻訳日:2022-11-28 08:11:20 公開日:2020-05-27
# TSML (Time Series Machine Learnng)

TSML (Time Series Machine Learnng) ( http://arxiv.org/abs/2005.13191v1 )

ライセンス: Link先を確認
Paulito Palmes, Joern Ploennigs, Niall Brady(参考訳) 過去数年間、産業部門は自動化によって多くのイノベーションをもたらしてきた。 この自動化の本質は、状態監視とデータ収集のためのセンサネットワークのインストールである。 これらのデータ豊富な環境における大きな課題の1つは、このような大量のデータから情報を取り出して異常を検知し、ダウンタイムと製造エラーを低減し、エネルギー使用量を減らし、故障/故障を予測し、メンテナンススケジュールを効果的に行う方法である。 これらの問題に対処するため,我々はTSMLを開発した。 同社の技術は、軽量フィルタのパイプラインをビルディングブロックとして使用して、大量の産業時系列データを並列に処理する。

Over the past years, the industrial sector has seen many innovations brought about by automation. Inherent in this automation is the installation of sensor networks for status monitoring and data collection. One of the major challenges in these data-rich environments is how to extract and exploit information from these large volume of data to detect anomalies, discover patterns to reduce downtimes and manufacturing errors, reduce energy usage, predict faults/failures, effective maintenance schedules, etc. To address these issues, we developed TSML. Its technology is based on using the pipeline of lightweight filters as building blocks to process huge amount of industrial time series data in parallel.
翻訳日:2022-11-28 08:10:51 公開日:2020-05-27
# Reweighted $\ell_1$-regularized Least Squares による非線形力学系のスパース同定

Sparse Identification of Nonlinear Dynamical Systems via Reweighted $\ell_1$-regularized Least Squares ( http://arxiv.org/abs/2005.13232v1 )

ライセンス: Link先を確認
Alexandre Cortiella, Kwang-Chun Park, and Alireza Doostan(参考訳) 本研究は,非線形力学系の制御方程式をノイズ状態測定から復元する繰り返しスパース規則化回帰法を提案する。 この方法は、状態変数は {\it a priori} として知られており、支配方程式は状態変数の(非線形)基底におけるスパース線形展開(英語版)(sparse linear expansions in a nonlinear)に自負する2つの主要な仮定に依存する、 {\it [Brunton et al., PNAS, 113 (15) (2016) 3932-3937]} のスパース非線形ダイナミクス(SINDy)アプローチにインスパイアされている。 本研究の目的は, 状態測定ノイズの存在下でのsindyの精度とロバスト性を改善することである。 これにより、再重み付けされた$\ell_1$-regularized least squaresソルバが開発され、パレート曲線のコーナーポイントから正規化パラメータが選択される。 標準の $\ell_1$-norm の代わりに、正規化に $\ell_1$-norm を重み付けした背景にある考え方は、支配方程式の回復における空間性の促進と、状態変数におけるノイズの影響の緩和である。 また,状態測定から単一物理的制約を回復する手法を提案する。 良く知られた非線形力学系のいくつかの例を通して、状態測定ノイズに関して再重み付けされた$\ell_1$-regularized least squares戦略の精度と頑健性を示す。

This work proposes an iterative sparse-regularized regression method to recover governing equations of nonlinear dynamical systems from noisy state measurements. The method is inspired by the Sparse Identification of Nonlinear Dynamics (SINDy) approach of {\it [Brunton et al., PNAS, 113 (15) (2016) 3932-3937]}, which relies on two main assumptions: the state variables are known {\it a priori} and the governing equations lend themselves to sparse, linear expansions in a (nonlinear) basis of the state variables. The aim of this work is to improve the accuracy and robustness of SINDy in the presence of state measurement noise. To this end, a reweighted $\ell_1$-regularized least squares solver is developed, wherein the regularization parameter is selected from the corner point of a Pareto curve. The idea behind using weighted $\ell_1$-norm for regularization -- instead of the standard $\ell_1$-norm -- is to better promote sparsity in the recovery of the governing equations and, in turn, mitigate the effect of noise in the state variables. We also present a method to recover single physical constraints from state measurements. Through several examples of well-known nonlinear dynamical systems, we demonstrate empirically the accuracy and robustness of the reweighted $\ell_1$-regularized least squares strategy with respect to state measurement noise, thus illustrating its viability for a wide range of potential applications.
翻訳日:2022-11-28 08:10:39 公開日:2020-05-27
# トヴェルスキーの類似性を学ぶ

Learning Tversky Similarity ( http://arxiv.org/abs/2006.11372v1 )

ライセンス: Link先を確認
Javad Rahnama and Eyke H\"ullermeier(参考訳) 本稿では,tverskyの比モデルを,意味的類似性に対する計算的アプローチ,すなわち意味的に意味のある方法で画像などのオブジェクトを比較するための適切な基盤として提案する。 本研究は,2つの対象が類似する傾向を示す適切な訓練データから,トベルスキー類似度尺度を学習する問題を考察する。 実験により,2つの画像データセットを用いた類似性学習へのアプローチを評価し,既存の手法と非常によく比較できることを示す。

In this paper, we advocate Tversky's ratio model as an appropriate basis for computational approaches to semantic similarity, that is, the comparison of objects such as images in a semantically meaningful way. We consider the problem of learning Tversky similarity measures from suitable training data indicating whether two objects tend to be similar or dissimilar. Experimentally, we evaluate our approach to similarity learning on two image datasets, showing that is performs very well compared to existing methods.
翻訳日:2022-11-28 08:02:47 公開日:2020-05-27
# ブレイマンの「2つの文化」の再考と再考

Breiman's "Two Cultures" Revisited and Reconciled ( http://arxiv.org/abs/2005.13596v1 )

ライセンス: Link先を確認
Subhadeep (DEEP) Mukhopadhyay and Kaijun Wang(参考訳) 2001年に発表された画期的な論文で、leo breiman氏はデータモデリングの2つの文化(パラメトリック統計とアルゴリズム機械学習)の緊張関係について説明した。 これら2つの統計的学習フレームワークの文化的な分割は、近年着実に成長している。 今後はどうなるのか? この"2つの文化"のギャップの拡大は、それらをコヒーレントな全体に統合する方法を見つけない限りは回避できない、と非難的に明らかになっています。 本稿では,この2つの文化のリンクを確立することで解決する。 実例を通じて,この新しい統合的統計的思考の課題と可能性について述べる。

In a landmark paper published in 2001, Leo Breiman described the tense standoff between two cultures of data modeling: parametric statistical and algorithmic machine learning. The cultural division between these two statistical learning frameworks has been growing at a steady pace in recent years. What is the way forward? It has become blatantly obvious that this widening gap between "the two cultures" cannot be averted unless we find a way to blend them into a coherent whole. This article presents a solution by establishing a link between the two cultures. Through examples, we describe the challenges and potential gains of this new integrated statistical thinking.
翻訳日:2022-11-28 08:02:38 公開日:2020-05-27
# 予想されるチャット:ブラックボックスニューラル対話モデルを操作する学習

Chat as Expected: Learning to Manipulate Black-box Neural Dialogue Models ( http://arxiv.org/abs/2005.13170v1 )

ライセンス: Link先を確認
Haochen Liu, Zhiwei Wang, Tyler Derr and Jiliang Tang(参考訳) 近年,我々のデジタル化社会では,ニューラルネットワークに基づく対話システムが普及している。 しかし、その固有の不透明さから、最近、神経モデルの使用に関する懸念が真剣に取り込まれ始めている。 実際、意図的あるいは意図的でない行動は、不適切な応答を生成する対話システムにつながる可能性がある。 そこで本研究では,ブラックボックス型ニューラルダイアログモデルを用いて,その出力に対象語を含ませたり,ターゲット文にマッチさせたりすることで,入力文を作成できるかどうかを考察する。 そこで,このような入力を自動的に生成できる強化学習モデルを提案する。 一般的な訓練済みのニューラルダイアログモデルに対する広範囲な実験により,本手法は目的の出力に繋がる所望のインプットをある程度のケースで見つけ出すことができた。 その結果,本研究は,神経対話モデルが操作される可能性を明らかにし,それらを守るための戦略開発への扉を開く。

Recently, neural network based dialogue systems have become ubiquitous in our increasingly digitalized society. However, due to their inherent opaqueness, some recently raised concerns about using neural models are starting to be taken seriously. In fact, intentional or unintentional behaviors could lead to a dialogue system to generate inappropriate responses. Thus, in this paper, we investigate whether we can learn to craft input sentences that result in a black-box neural dialogue model being manipulated into having its outputs contain target words or match target sentences. We propose a reinforcement learning based model that can generate such desired inputs automatically. Extensive experiments on a popular well-trained state-of-the-art neural dialogue model show that our method can successfully seek out desired inputs that lead to the target outputs in a considerable portion of cases. Consequently, our work reveals the potential of neural dialogue models to be manipulated, which inspires and opens the door towards developing strategies to defend them.
翻訳日:2022-11-28 08:01:34 公開日:2020-05-27
# 転校学習を満たした反事実検出

Counterfactual Detection meets Transfer Learning ( http://arxiv.org/abs/2005.13125v1 )

ライセンス: Link先を確認
Kelechi Nwaike and Licheng Jiao(参考訳) 本稿では,対話構造と意味論の領域である自然言語理解の中核領域に属するものと考えることができるが,本論文では,反事実検出の解決へのアプローチと,先行者の索引付けについて紹介する。 Transfer LearningはすでにいくつかのNLPタスクに適用されているが、新しいタスクに優れた特徴がある。 本稿では,既存のモデルに最小限の適応で実装可能な直感的なバイナリ分類タスクについて,十分な注釈付きトレーニングデータセットによって検証し,エンティティ認識タスクとして先行者や後続者を処理するための新たなエンドツーエンドパイプラインを導入し,それらをトークン分類に適用することを示す。

We can consider Counterfactuals as belonging in the domain of Discourse structure and semantics, A core area in Natural Language Understanding and in this paper, we introduce an approach to resolving counterfactual detection as well as the indexing of the antecedents and consequents of Counterfactual statements. While Transfer learning is already being applied to several NLP tasks, It has the characteristics to excel in a novel number of tasks. We show that detecting Counterfactuals is a straightforward Binary Classification Task that can be implemented with minimal adaptation on already existing model Architectures, thanks to a well annotated training data set,and we introduce a new end to end pipeline to process antecedents and consequents as an entity recognition task, thus adapting them into Token Classification.
翻訳日:2022-11-28 08:00:47 公開日:2020-05-27
# 談話表現構造のパースに関する最初の共有タスク

The First Shared Task on Discourse Representation Structure Parsing ( http://arxiv.org/abs/2005.13399v1 )

ライセンス: Link先を確認
Lasha Abzianidze, Rik van Noord, Hessel Haagsma and Johan Bos(参考訳) 本論文は、英語文のための言論表現構造(DRS)の作成を目標とする意味解析に関するIWCS 2019共有タスクを提示する。 DRSは言論表現論から派生し、否定、モダル、定量化、前提命題の意味を捉えた範囲的意味表現を表す。 さらに、DRSの概念とイベント参加者は、WordNetシンセセットとVerbNetのテーマロールで記述される。 2つの DRS の類似性を測定するために、それらは接尾辞形式、すなわちタプルの集合として表される。 参加者システムは、このクローズルな形でDSSを生成することが期待された。 リッチな語彙情報、明示的なスコープマーキング、節間の共有変数の多さ、有効なDSSの高度に制約されたフォーマットを考慮すると、DSS解析は難しいNLPタスクになる。 共有タスクの結果は、既存の最先端パーサよりも改善された。

The paper presents the IWCS 2019 shared task on semantic parsing where the goal is to produce Discourse Representation Structures (DRSs) for English sentences. DRSs originate from Discourse Representation Theory and represent scoped meaning representations that capture the semantics of negation, modals, quantification, and presupposition triggers. Additionally, concepts and event-participants in DRSs are described with WordNet synsets and the thematic roles from VerbNet. To measure similarity between two DRSs, they are represented in a clausal form, i.e. as a set of tuples. Participant systems were expected to produce DRSs in this clausal form. Taking into account the rich lexical information, explicit scope marking, a high number of shared variables among clauses, and highly-constrained format of valid DRSs, all these makes the DRS parsing a challenging NLP task. The results of the shared task displayed improvements over the existing state-of-the-art parser.
翻訳日:2022-11-28 07:54:47 公開日:2020-05-27
# テキストマッチングの合理化:最適移動によるスパースアライメントの学習

Rationalizing Text Matching: Learning Sparse Alignments via Optimal Transport ( http://arxiv.org/abs/2005.13111v1 )

ライセンス: Link先を確認
Kyle Swanson, Lili Yu, Tao Lei(参考訳) トップ関係の入力特徴の選択は、自己説明型モデルを構築する一般的な方法となっている。 本研究では,この選択的合理化アプローチをテキストマッチングに拡張し,トークンや文などのテキストピースを,下流予測の正当化として共同で選択・調整することを目的としている。 我々のアプローチでは、入力間の最小コストアライメントを見つけるために最適なトランスポート(OT)を採用している。 しかし、直接 OT を適用すると、しばしば密度が高く解釈不能なアライメントが生じる。 この制限を克服するために、制御可能な間隔と高度にスパースなアライメントをもたらすOT問題の制約付き変種を導入する。 私たちのモデルはotのspinhornアルゴリズムを使ってエンドツーエンドで微分可能で、アライメントアノテーションなしでトレーニングできます。 我々はstackexchange、multinews、e-snli、multircデータセットでモデルを評価する。 本モデルでは,強い注意ベースラインモデルと比較して予測精度を保ちながら,高い忠実度で極めてスパースな合理的選択を実現する。

Selecting input features of top relevance has become a popular method for building self-explaining models. In this work, we extend this selective rationalization approach to text matching, where the goal is to jointly select and align text pieces, such as tokens or sentences, as a justification for the downstream prediction. Our approach employs optimal transport (OT) to find a minimal cost alignment between the inputs. However, directly applying OT often produces dense and therefore uninterpretable alignments. To overcome this limitation, we introduce novel constrained variants of the OT problem that result in highly sparse alignments with controllable sparsity. Our model is end-to-end differentiable using the Sinkhorn algorithm for OT and can be trained without any alignment annotations. We evaluate our model on the StackExchange, MultiNews, e-SNLI, and MultiRC datasets. Our model achieves very sparse rationale selections with high fidelity while preserving prediction accuracy compared to strong attention baseline models.
翻訳日:2022-11-28 07:54:09 公開日:2020-05-27
# pythonのパターン分析と機械学習のためのkernel methodsライブラリ

Kernel methods library for pattern analysis and machine learning in python ( http://arxiv.org/abs/2005.13483v1 )

ライセンス: Link先を確認
Pradeep Reddy Raamana(参考訳) カーネルメソッドは、さまざまなドメインにおけるパターン分析と機械学習(ml)のための強力な技術であることが証明されている。 しかし、オリジナルの実装や先進的な実装の多くはmatlabに残っている。 MLとデータサイエンスの世界におけるPythonの驚異的な増加と採用により、人気のあるカーネルの使用だけでなく、カスタマイズされたカーネルをさまざまなアプリケーションで簡単に定義できる、明確に定義されたライブラリの必要性も明らかになりました。 kernelmethodsライブラリは、ドメインに依存しない方法で、python MLエコシステムにおける重要な空白を埋めます。 さらに、このライブラリは、さまざまなカーネルベースのオペレーション(大規模データセット)、モジュール(ドメイン適応の容易性)、相互運用可能な(異なるエコシステム全体)を効率的にするための、明確に定義された多くのクラスを提供する。 ライブラリはhttps://github.com/raamana/kernelmethodsで入手できる。

Kernel methods have proven to be powerful techniques for pattern analysis and machine learning (ML) in a variety of domains. However, many of their original or advanced implementations remain in Matlab. With the incredible rise and adoption of Python in the ML and data science world, there is a clear need for a well-defined library that enables not only the use of popular kernels, but also allows easy definition of customized kernels to fine-tune them for diverse applications. The kernelmethods library fills that important void in the python ML ecosystem in a domain-agnostic fashion, allowing the sample data type to be anything from numerical, categorical, graphs or a combination of them. In addition, this library provides a number of well-defined classes to make various kernel-based operations efficient (for large scale datasets), modular (for ease of domain adaptation), and inter-operable (across different ecosystems). The library is available at https://github.com/raamana/kernelmethods.
翻訳日:2022-11-28 07:52:32 公開日:2020-05-27