このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200403となっている論文です。

PDF登録状況(公開日: 20200403)

TitleAuthorsAbstract論文公表日・翻訳日
# 匿名のコロケーション発見:コロナウイルスを阻止するプライバシー

Anonymous Collocation Discovery: Harnessing Privacy to Tame the Coronavirus ( http://arxiv.org/abs/2003.13670v4 )

ライセンス: Link先を確認
Ran Canetti, Ari Trachtenberg, and Mayank Varia(参考訳) コロナウイルスのパンデミックの封じ込めは、感染した個体に近づいた人物を迅速かつ確実に特定する能力に頼っている。 既存のツールは、長期にわたる個人の正確な位置情報の収集に頼っており、この情報を他の個人情報と組み合わせている。 全国規模の個人プライバシに対するこの前例のない侵入は、これらのツールに対する抗議と拒否のリスクを生み出した。 我々は、感染した人の近くにいたユーザーに、きめ細かな、タイムリーなアラートを提供するための非常にシンプルなスキームを提案する。 これは、すべての個人の匿名性を維持しつつも、個人情報や位置履歴を収集したり保存したりすることなく行われる。 当社のアプローチは、bluetoothなどの短距離通信機構をベースとし、現代の携帯電話すべてで利用可能です。 極めて少ないインフラストラクチャでデプロイでき、他のコロケーションメソッドと比較して、比較的低い偽陽性率を発生させる。 また、いくつかの拡張やトレードオフについても説明します。 我々は、このスキームによって提供されるプライバシー保証が、迅速かつ広範囲に採用を促進すると信じている。 十分なテスト能力と既存の医療専門家のベストプラクティスを組み合わせることで、感染率を大幅に削減できることを期待しています。

Successful containment of the Coronavirus pandemic rests on the ability to quickly and reliably identify those who have been in close proximity to a contagious individual. Existing tools for doing so rely on the collection of exact location information of individuals over lengthy time periods, and combining this information with other personal information. This unprecedented encroachment on individual privacy at national scales has created an outcry and risks rejection of these tools. We propose an alternative: an extremely simple scheme for providing fine-grained and timely alerts to users who have been in the close vicinity of an infected individual. Crucially, this is done while preserving the anonymity of all individuals, and without collecting or storing any personal information or location history. Our approach is based on using short-range communication mechanisms, like Bluetooth, that are available in all modern cell phones. It can be deployed with very little infrastructure, and incurs a relatively low false-positive rate compared to other collocation methods. We also describe a number of extensions and tradeoffs. We believe that the privacy guarantees provided by the scheme will encourage quick and broad voluntary adoption. When combined with sufficient testing capacity and existing best practices from healthcare professionals, we hope that this may significantly reduce the infection rate.
翻訳日:2023-05-27 12:02:20 公開日:2020-04-03
# ギャンブラーのルイン問題と量子計測

The Gambler's Ruin Problem and Quantum Measurement ( http://arxiv.org/abs/2004.01335v1 )

ライセンス: Link先を確認
Fabrice Debbasch (Sorbonne Universite)(参考訳) マクロ環境と相互作用する単一顕微鏡またはメソスコピック非量子系の力学は一般に確率的である。 同様に、マクロ環境と相互作用する単一の量子系の還元密度作用素は、前もって確率変数であり、デコヒーレンスは、ゆらぎではなく、この変数の平均ダイナミクスのみを記述する。 一般の偏りのない量子測定は、ゲームがマーチンゲールであるギャンブラーの破滅問題として再計算可能であることが示されている。 ボルンの規則は、マルティンガレの任意の停止定理の直接的な結果として現れる。 明示的な計算は、特定の単純な例で詳細に作成されます。

The dynamics of a single microscopic or mesoscopic non quantum system interacting with a macroscopic environment is generally stochastic. In the same way, the reduced density operator of a single quantum system interacting with a macroscopic environment is a priori a stochastic variable, and decoherence describes only the average dynamics of this variable, not its fluctuations. It is shown that a general unbiased quantum measurement can be reformulated as a gambler's ruin problem where the game is a martingale. Born's rule then appears as a direct consequence of the optional stopping theorem for martingales. Explicit computations are worked out in detail on a specific simple example.
翻訳日:2023-05-27 01:14:31 公開日:2020-04-03
# 開放量子ウォーク実装のための一般化量子光学スキーム

A Generalized Quantum Optical Scheme for Implementing Open Quantum Walks ( http://arxiv.org/abs/2004.01334v1 )

ライセンス: Link先を確認
Ayanda Romanis Zungu (Centre for Space Research North-West University Mahikeng), IIya Sinayskiy (Quantum Research Group, School of Chemistry and Physics University of KwaZulu-Natal Durban), Francesco Petruccione (Quantum Research Group, School of Chemistry and Physics University of KwaZulu-Natal Durban)(参考訳) open quantum walk (oqws) は、外部環境との散逸的相互作用によって完全に駆動され、グラフ上の完全な正のトレース保存マップとして定式化される、新しいタイプの量子ウォークである。 環境の非零温度を含むOQWを実装するための一般化量子光学スキームを提案する。 提案された量子光学スキームでは、2段階の原子が「ウォーカー」の役割を演じ、キャビティモードのフォック状態は「ウォーカー」の格子部位に対応する。 小さなユニタリ回転のアプローチを用いて、システムの効果的なダイナミクスはoqwであることが示される。 選択されたパラメータ集合に対して、環境温度の上昇は、環境温度がゼロである以前のスキームと比較して、システムが漸近分布に達するのをはるかに速くする。 この場合、漸近分布は定常ガウス分布によって与えられる。

Open quantum walks (OQWs) are a new type of quantum walks which are entirely driven by the dissipative interaction with external environments and are formulated as completely positive trace-preserving maps on graphs. A generalized quantum optical scheme for implementing OQWs that includes non-zero temperature of the environment is suggested. In the proposed quantum optical scheme, a two-level atom plays the role of the "walker", and the Fock states of the cavity mode correspond to the lattice sites for the "walker". Using the small unitary rotations approach the effective dynamics of the system is shown to be an OQW. For the chosen set of parameters, an increase in the temperature of the environment causes the system to reach the asymptotic distribution much faster compared to the scheme proposed earlier where the temperature of the environment is zero. For this case the asymptotic distribution is given by a steady Gaussian distribution.
翻訳日:2023-05-27 01:14:22 公開日:2020-04-03
# 時変コインを用いた量子ウォークの理論的研究

Theoretical Studies on Quantum Walks with a Time-varying Coin ( http://arxiv.org/abs/2004.01333v1 )

ライセンス: Link先を確認
Haruna Katayama (Hiroshima University), Noriyuki Hatakenaka (Hiroshima University), Toshiyuki Fujii (Asahikawa Medical University)(参考訳) 量子ウォーク(quantum walk)は量子計算のための量子アルゴリズムを再構築することができる。 本稿では,そのランダムな性質を保ちながら,量子ウォークの制御性を検討するために,周期的に変化するコインを数値的にも解析的にも検討する。

Quantum walks can reconstruct quantum algorithms for quantum computation, where the precise controls of quantum state transfers between arbitrary distant sites are required. Here, we investigate quantum walks using a periodically time-varying coin both numerically and analytically, in order to explore the controllability of quantum walks while preserving its random nature.
翻訳日:2023-05-27 01:14:07 公開日:2020-04-03
# 離散時間量子ウォークの投影理論

Projection Theorem for Discrete-Time Quantum Walks ( http://arxiv.org/abs/2004.01332v1 )

ライセンス: Link先を確認
V\'aclav Poto\v{c}ek (Faculty of Nuclear Sciences and Physical Engineering, Czech Technical University in Prague)(参考訳) 本研究では,離散時間量子ウォークの確率振幅の和がステップ演算子と整合するウォークグラフの分割を越え,量子ウォークである還元グラフ上のユニタリ進化をもたらすという観測を一般化する。 投影されたウォークの効果的なウォーキンググラフは元々よりも必ずしも単純ではないため、ユークリッド格子のような徹底的に研究されたケースの既知の結果を用いて、ある種の量子ウォークのダイナミクスに新たな洞察をもたらす可能性がある。 提案文の一般化を目的として,歩行空間と歩行者の変位の抽象的処理を行った。 このアプローチを用いることで、プロジェクションマッピングが故障するいくつかの病理症例も特定できる。 格子上のウォークの場合、この演算は通常超次元のコイン空間を持つ量子ウォークとなる。 このような歩行は、逆に、到達不能でより大きな空間上の歩行の投影と見なすことができ、その性質は親の歩行から推測することができる。 これは遅延量子ウォーク、大きなコヒーレントジャンプを伴うウォーク、ねじれた境界条件を持つ円上のウォークの場合である。 また、この理論と量子ウォークの時間多重光実装との関係についても論じる。 さらに、この明らかに不可逆な操作は、場合によっては小さな調整で取り除かれ、その射影の集合から量子ウォークを再構成することができる。

We make and generalize the observation that summing of probability amplitudes of a discrete-time quantum walk over partitions of the walking graph consistent with the step operator results in a unitary evolution on the reduced graph which is also a quantum walk. Since the effective walking graph of the projected walk is not necessarily simpler than the original, this may bring new insights into the dynamics of some kinds of quantum walks using known results from thoroughly studied cases like Euclidean lattices. We use abstract treatment of the walking space and walker displacements in aim for a generality of the presented statements. Using this approach we also identify some pathological cases in which the projection mapping breaks down. For walks on lattices, the operation typically results in quantum walks with hyper-dimensional coin spaces. Such walks can, conversely, be viewed as projections of walks on inaccessible, larger spaces, and their properties can be inferred from the parental walk. We show that this is is the case for a lazy quantum walk, a walk with large coherent jumps and a walk on a circle with a twisted boundary condition. We also discuss the relation of this theory to the time-multiplexing optical implementations of quantum walks. Moreover, this manifestly irreversible operation can, in some cases and with a minor adjustment, be undone, and a quantum walk can be reconstructed from a set of its projections.
翻訳日:2023-05-27 01:14:01 公開日:2020-04-03
# 量子規則によるランダムグラフの成長

Growing Random Graphs with Quantum Rules ( http://arxiv.org/abs/2004.01331v1 )

ライセンス: Link先を確認
Hamza Jnane (T\'el\'ecom Paris, LTCI, Palaiseau, France), Giuseppe Di Molfetta (Universit\'e publique, CNRS, LIS, Marseille, France, and Quantum Computing Center, Keio University), Filippo M. Miatto (T\'el\'ecom Paris, LTCI, Palaiseau, France)(参考訳) ランダムグラフは、インターネット、脳、社会経済現象などの複雑な力学ネットワークの研究の中心的な要素である。 ランダムグラフを生成する新しい方法は、新しいアプリケーションを生み出し、より確立された技術に対する洞察を与える。 グラフ上の連続時間量子ウォークに基づいてランダムなグラフと木を成長させるモデルの2つのバリエーションを提案する。 ランダムな特性時間後、歩行者の位置を測定し、歩行者が倒れたノードに新しいノードをアタッチする。 このような力学系は、量子力学における自然崩壊理論のクラスを思い起こさせる。 個々の量子ウォーカーと2つの非相互作用ウォーカーの自発的崩壊速度について検討した。 モデルがスケールフリーであることを予想する(そしていくつかの数値的な証拠を報告する)。

Random graphs are a central element of the study of complex dynamical networks such as the internet, the brain, or socioeconomic phenomena. New methods to generate random graphs can spawn new applications and give insights into more established techniques. We propose two variations of a model to grow random graphs and trees, based on continuous-time quantum walks on the graphs. After a random characteristic time, the position of the walker(s) is measured and new nodes are attached to the nodes where the walkers collapsed. Such dynamical systems are reminiscent of the class of spontaneous collapse theories in quantum mechanics. We investigate several rates of this spontaneous collapse for an individual quantum walker and for two non-interacting walkers. We conjecture (and report some numerical evidence) that the models are scale-free.
翻訳日:2023-05-27 01:13:40 公開日:2020-04-03
# 量子ランダム数生成による時間相関の検出

Detecting Temporal Correlation via Quantum Random Number Generation ( http://arxiv.org/abs/2004.01330v1 )

ライセンス: Link先を確認
Yutaka Shikano (Quantum Computing Center, Keio University & Institute for Quantum Stuides, Chapman University), Kentaro Tamura (Department of Applied Physics and Physico-Informatics, Keio University), Rudy Raymond (IBM Research -- Tokyo & Quantum Computing Center, Keio University)(参考訳) 量子コンピュータを含む全ての計算装置は、与えられた入力に対して、プログラムに従って出力を生成する必要がある。 しかし、これらの要求を満たす量子コンピュータによって生成される出力は時間的に相関しない。 超伝導量子ビットなどの固体量子ビットからなる量子計算装置において、量子ビットを初期状態に残す操作は実用的問題に直面する。 最も単純な乱数生成法を用いて,20量子ビットの超伝導量子ビット量子コンピュータから出力される乱数集合に統計的解析を適用した。 解析は、20キュービットから得られたいくつかのシーケンスの出力における時間的相関を示す。 この時間相関は、各キュービットの緩和時間とは関係がない。 この相関は系統的誤りの結果である可能性があると結論づけた。

All computing devices, including quantum computers, must exhibit that for a given input, an output is produced in accordance with the program. The outputs generated by quantum computers that fulfill these requirements are not temporally correlated, however. In a quantum-computing device comprising solid-state qubits such as superconducting qubits, any operation to rest the qubits to their initial state faces a practical problem. We applied a statistical analysis to a collection of random numbers output from a 20-qubit superconducting-qubit cloud quantum computer using the simplest random number generation scheme. The analysis indicates temporal correlation in the output of some sequences obtained from the 20 qubits. This temporal correlation is not related to the relaxation time of each qubit. We conclude that the correlation could be a result of a systematic error.
翻訳日:2023-05-27 01:13:31 公開日:2020-04-03
# 量子ウォークを使って計算する方法

How to Compute Using Quantum Walks ( http://arxiv.org/abs/2004.01329v1 )

ライセンス: Link先を確認
Viv Kendon (Durham University)(参考訳) 量子ウォークは様々な物理過程のモデル化に広く成功している。 これによりモデルが計算され、それらの特性が探索される。 量子ウォークは量子コンピューティングに普遍的であることも示されている。 これは、シングルウォーカーの場合の量子コンピュータで実行される計算や、マルチウォーカーケース(量子セルオートマトン)で物理的な量子ウォーキングに適用されるため、しばしば評価されるよりも微妙な結果である。 それでも、量子ウォークは、正しく適用されたときに量子コンピューティングの強力なツールである。 本稿では,モデルとしての量子ウォークと計算ツールとしての量子ウォークの関係を説明し,両文脈における応用例を示す。

Quantum walks are widely and successfully used to model diverse physical processes. This leads to computation of the models, to explore their properties. Quantum walks have also been shown to be universal for quantum computing. This is a more subtle result than is often appreciated, since it applies to computations run on qubit-based quantum computers in the single walker case, and physical quantum walks in the multi-walker case (quantum cellular automata). Nonetheless, quantum walks are powerful tools for quantum computing when correctly applied. In this paper, I explain the relationship between quantum walks as models and quantum walks as computational tools, and give some examples of their application in both contexts.
翻訳日:2023-05-27 01:13:21 公開日:2020-04-03
# 高精度IP測位への道について:自己最適化モデル

On the Path to High Precise IP Geolocation: A Self-Optimizing Model ( http://arxiv.org/abs/2004.01531v1 )

ライセンス: Link先を確認
Peter Hillmann, Lars Stiemert, Gabi Dreo, Oliver Rose(参考訳) IPジオロケーション(IP Geolocation)は、将来のインターネットにおいて、アプリケーションサービスのための地理的位置情報を提供するための重要な手段である。 例えば、このデータはコンテンツ配信ネットワークによってユーザをミラーサーバに割り当てるために使用され、それによってトラフィック管理が強化される。 正確な位置情報を得るのは依然として困難な作業であり、適切な結果は能動的レイテンシの測定によってのみ達成される。 本稿では, 位置決定のための高精度・自己最適化モデルに対して, 探索に用いる最適ランドマーク位置の同定を含む先進的手法を提案する。 さらに、相関データと推定対象位置の選択には、正しい位置を特定するための高度な戦略が必要である。 道路網を用いて、通常未知の TIER インフラストラクチャのネットワーク距離を改良した近似法を提案する。 我々の概念はヨーロッパに焦点を当てた実環境下で評価される。

IP Geolocation is a key enabler for the Future Internet to provide geographical location information for application services. For example, this data is used by Content Delivery Networks to assign users to mirror servers, which are close by, hence providing enhanced traffic management. It is still a challenging task to obtain precise and stable location information, whereas proper results are only achieved by the use of active latency measurements. This paper presents an advanced approach for an accurate and self-optimizing model for location determination, including identification of optimized Landmark positions, which are used for probing. Moreover, the selection of correlated data and the estimated target location requires a sophisticated strategy to identify the correct position. We present an improved approximation of network distances of usually unknown TIER infrastructures using the road network. Our concept is evaluated under real-world conditions focusing Europe.
翻訳日:2023-05-27 01:04:27 公開日:2020-04-03
# 原子核とパルス光波の場におけるガンマ量子による超相対論的電子-陽電子対の共鳴効果

Resonant effect at the ultrarelativistic electron-positron pairs production by gamma quanta in the field of a nucleus and a pulsed light wave ( http://arxiv.org/abs/2004.01530v1 )

ライセンス: Link先を確認
Sergei P. Roshchupkin, Nikita R. Larin, and Victor V. Dubov(参考訳) 原子核における高エネルギーガンマ量子と準単色レーザーによる共鳴電子-陽電子対の生成を理論的に研究した。 共鳴条件下では、レーザー場の中間仮想電子(ポジトロン)が実粒子となる。 レーザー場における微細構造定数における第2次過程の初期過程は、レーザー刺激によるブライト・ウィーラー過程と、核による中間電子(陽電子)散乱のレーザーアシスト過程の2つの連続過程に効果的に還元される。 初期ガンマ量子にはしきい値エネルギーが存在することが示され、これは波の吸収光子数に大きく依存する。 共鳴状態において、電子-陽電子対エネルギーは、最初のガンマ量子運動量に対する陽電子(チャネルA)または電子(チャネルB)の出角によって決定される。 陽電子または電子のエネルギーと出射角を同時登録した最初の数個の共鳴に対する差分断値を得た。 最初のガンマ量子エネルギー ${\omega_i} = 125\;{\rm{GeV}}$ 第一3共鳴の場合の電子-陽電子対の共鳴エネルギーは、微分断面の非常に高い大きさで測定できる: $ \sim {10^{13}}$ 第一共鳴の場合$ \sim {10^8}$ (第三共鳴の場合は$\alpha {Z^2}r_e^2$)。

Resonant electron-positron pair production by a high-energy gamma quantum in the field of a nucleus and a quasi-monochromatic laser wave was theoretically studied. Under the resonant condition an intermediate virtual electron (positron) in the laser field becomes a real particle. Due to that fact the initial process of the second order in the fine structure constant in a laser field effectively reduces into two successive processes of the first order: the laser-stimulated Breit-Wheeler process and the laser-assisted process of an intermediate electron (positron) scattering by a nucleus. It is shown that there is a threshold energy for the initial gamma quantum, which significantly depends on the number of absorbed photons of a wave. In the resonant condition the electron-positron pair energy is determined by the outgoing angle of a positron (for the channel A) or an electron (for the channel B) relative to the initial gamma quantum momentum. The differential cross sections for the first few resonances with simultaneous registration of the energy and the outgoing angle of a positron or an electron were obtained. For the initial gamma quantum energy ${\omega_i} = 125\;{\rm{GeV}}$ the resonant energies of an electron-positron pair for the case of first three resonances can be measured with a very high magnitude of the differential cross section: from $ \sim {10^{13}}$ for the first resonance to $ \sim {10^8}$ (in the units of $\alpha {Z^2}r_e^2$) for the third resonance.
翻訳日:2023-05-27 01:04:15 公開日:2020-04-03
# 呼吸器感染症のポータブル健康診断装置

Portable Health Screening Device of Respiratory Infections ( http://arxiv.org/abs/2004.01479v1 )

ライセンス: Link先を確認
Zheng Jiang, Menghan Hu, Guangtao Zhai(参考訳) 新型コロナウイルスの感染拡大は、2020年1月30日にWHOが国際的に懸念する公衆衛生上の緊急事態に指定した。 感染拡大を抑えるため、多くの公共施設は体温をチェックするために熱画像装置を備えていた。 しかし、covid-19肺炎は症状を隠蔽しており、最初の症状は発熱ではなく、呼吸が短い可能性がある。 疫病予防のため、多くの人がマスクを着用している。 そこで本稿では,マスク着用者を対象とした携帯型非接触健康スクリーニングシステムを提案する。 本システムは,熱画像収集モジュール,健康指標算出モジュール,健康評価モジュールの3つのモジュールから構成される。 このシステムでは、まず、携帯型サーマルイメージングカメラで人間の顔の熱映像を撮影する。 そして、この映像から体温と呼吸状態を抽出し、以下の健康評価モジュールにインポートする。 最後に、スクリーニング結果を得ることができる。 予備実験の結果は、15秒以内に正確なスクリーニング結果が得られることを示している。 このシステムは、コミュニティやキャンパスなど、多くの応用シナリオに適用できる。

The COVID-19 epidemic was listed as a public health emergency of international concern by the WHO on January 30, 2020. To curb the secondary spread of the epidemic, many public places were equipped with thermal imagers to check the body temperature. However, the COVID-19 pneumonia has concealed symptoms: the first symptom may not be fever, and can be shortness of breath. During epidemic prevention, many people tend to wear masks. Therefore, in this demo paper, we proposed a portable non-contact healthy screening system for people wearing masks, which can simultaneously obtain body temperature and respiration state. This system consists of three modules viz. thermal image collection module, health indicator calculation module and health assessment module. In this system, the thermal video of human faces is first captured through a portable thermal imaging camera. Then, body temperature and respiration state are extracted from the video and are imported into the following health assessment module. Finally, the screening result can be obtained. The results of preliminary experiments show that this syetem can give an accurate screening result within 15 seconds. This system can be applied to many application scenarios such as community and campus.
翻訳日:2023-05-27 01:03:41 公開日:2020-04-03
# 非可換コヒーレンスと量子位相推定アルゴリズム

Noncommutative coherence and quantum phase estimation algorithm ( http://arxiv.org/abs/2004.01419v1 )

ライセンス: Link先を確認
Shubhalakshmi S, Ujjwal Sen(参考訳) 量子力学における作用素の非可換性の概念を用いて量子コヒーレンスの尺度を示す。 我々は、この非可換コヒーレンスの挙動を分析し、その類似性と従来の量子コヒーレンス尺度との相違を強調する。 最大非可換コヒーレント状態は、従来の最大コヒーレント状態から遠く離れていることが判明した。 量子位相推定アルゴリズムの効率は、ショア因数分解アルゴリズムにおいて重要な問題であり、非可換コヒーレンスの測定と潜在的に関連していると論じる。

We present a measure of quantum coherence by employing the concept of noncommutativity of operators in quantum mechanics. We analyse the behaviour of this noncommutative coherence and underline its similarities and differences with the conventional measures of quantum coherence. The maximally noncommutative coherent states turn out to be far removed from the conventionally considered maximally coherent states. We argue that the efficiency of the quantum phase estimation algorithm, an important rung in the Shor factorisation algorithm, is potentially related to the measure of noncommutative coherence.
翻訳日:2023-05-27 01:03:08 公開日:2020-04-03
# 3モードキャビティ光機械系の非線形相互作用効果

Nonlinear interaction effects in a three-mode cavity optomechanical system ( http://arxiv.org/abs/2004.01413v1 )

ライセンス: Link先を確認
Jing Qiu, Li-Jing Jin, Stefano Chesi and Ying-Dan Wang(参考訳) 2つの機械振動子を持つ3モードキャビティ光学系における非線形相互作用の共鳴強調について検討した。 ケルディシュ・グリーンの関数法を用いて、2つの音波分極子の共振散乱により、状態の空洞密度に対する非線形効果が大幅に向上することを示した。 達成可能な着衣カップリング上の上限を考慮し, 非線形効果を求める最適点を求め, 比較的小さな値の$g/\kappa$に対しても, この3モード系は顕著な非線形特性を示すことを示す。

We investigate the resonant enhancement of nonlinear interactions in a three-mode cavity optomechanical system with two mechanical oscillators. By using the Keldysh Green's function technique we find that nonlinear effects on the cavity density of states can be greatly enhanced by the resonant scattering of two phononic polaritons, due to their small effective dissipation. In the large detuning limit and taking into account an upper bound on the achievable dressed coupling, the optimal point for probing the nonlinear effect is obtained, showing that such three-mode system can exhibit prominent nonlinear features also for relatively small values of $g/\kappa$.
翻訳日:2023-05-27 01:02:56 公開日:2020-04-03
# モバイルソーシャルメディアの利用と学業成績

Mobile social media usage and academic performance ( http://arxiv.org/abs/2004.01392v1 )

ライセンス: Link先を確認
Fausto Giunchiglia, Mattia Zeni, Elisa Gobbi, Enrico Bignotti, Ivano Bison(参考訳) 一般住民の中で、学生はソーシャルメディアやスマートフォンに特に敏感である。 いくつかの研究では、ソーシャルメディアと学術的パフォーマンスの間に負の相関関係があることが示されている。 しかし、これらの研究はスマートフォンやソーシャルメディア中毒に焦点を合わせているか、調査に頼っている。 我々はこのギャップを埋めることを提案する 一 ソーシャルメディアの利用状況及び学業成績のパラメトリクス 二 ユーザの活動及びスマートフォンのインタラクションを追跡するために、スマートフォン及び時刻日記を組み合わせること。 本稿では,SmartUnitnプロジェクトに参加する72名の学生を対象に,学生の時間管理と学業成績を調査する。 学生のスマートフォン上のソーシャルメディアアプリのログを分析し,学生のクレジットや成績と比較することで,負の相関関係と正の相関関係を定量的に定性的に評価できる。 以上の結果から,学術活動におけるソーシャルメディアのさまざまな影響パターンの識別や,学術的環境におけるスマートフォンの利用制御の必要性が示唆された。

Among the general population, students are especially sensitive to social media and smartphones because of their pervasiveness. Several studies have shown that there is a negative correlation between social media and academic performance since they can lead to behaviors that hurt students' careers, e.g., addictedness. However, these studies either focus on smartphones and social media addictedness or rely on surveys, which only provide approximate estimates. We propose to bridge this gap by i) parametrizing social media usage and academic performance, and ii) combining smartphones and time diaries to keep track of users' activities and their smartphone interaction. We apply our solution on the 72 students participating in the SmartUnitn project, which investigates students' time management and their academic performance. By analyzing the logs of social media apps on students' smartphones and by comparing them to students' credits and grades, we can provide a quantitative and qualitative estimate of negative and positive correlations. Our results show the negative impact of social media usage, distinguishing different influence patterns of social media on academic activities and also underline the need to control the smartphone usage in academic settings.
翻訳日:2023-05-27 01:02:43 公開日:2020-04-03
# 量子ゼノ反ゼノ効果の統一とパリティ時対称性の遷移

Unification of quantum Zeno-anti Zeno effects and parity-time symmetry breaking transitions ( http://arxiv.org/abs/2004.01364v1 )

ライセンス: Link先を確認
Jiaming Li, Tishuo Wang, Le Luo, Sreya Vemuri and Yogesh N Joglekar(参考訳) 不安定な量子状態の崩壊は、量子ゼノ効果(qze)または反ゼノ効果(qaze)として知られる注意深く調整された測定によって抑制または増強することができる。 現在ではqze(qaze)遷移の研究は様々なシステム環境結合にまで拡大しており、時間発展は射影的測定だけでなく散逸過程によって抑制(促進)されている。 しかし、任意の発散強度と周期性にまで拡張できる一般的な基準はいまだに欠落している。 本稿では、QZE-QAZE効果とパリティ時間(PT)対称性の遷移を統一する一般的な枠組みを示し、測定効果に関連する散逸性ハミルトンをPT対称非エルミートハミルトンにマッピングすることにより、QZE(QAZE)とそれらの交叉挙動を区別するためにPT対称性の遷移を適用する。 具体的な例として, 消散環境に周期的に結合された2レベルシステムにおいて, QZEはPT対称(PTS)相とPT対称性(PTB)相を分離する例外点(EP)から始まり, 最大PT対称性破壊の共振点(RP)で終了する。 これらの結果は、非エルミート量子力学におけるQZE-QAZEとPTB相の隠れた関係を示す。

The decay of any unstable quantum state can be inhibited or enhanced by carefully tailored measurements, known as the quantum Zeno effect (QZE) or anti-Zeno effect (QAZE). To date, studies of QZE (QAZE) transitions have since expanded to various system-environment coupling, in which the time evolution can be suppressed (enhanced) not only by projective measurement but also through dissipation processes. However, a general criterion, which could extend to arbitrary dissipation strength and periodicity, is still lacking. In this letter, we show a general framework to unify QZE-QAZE effects and parity-time (PT) symmetry breaking transitions, in which the dissipative Hamiltonian associated to the measurement effect is mapped onto a PT-symmetric non- Hermitian Hamiltonian, thus applying the PT symmetry transitions to distinguish QZE (QAZE) and their crossover behavior. As a concrete example, we show that, in a two-level system periodically coupled to a dissipative environment, QZE starts at an exceptional point (EP), which separates the PT-symmetric (PTS) phase and PT-symmetry broken (PTB) phase, and ends at the resonance point (RP) of the maximum PT-symmetry breaking; while QAZE extends the rest of PTB phase and remains the whole PTS phase. Such findings reveal a hidden relation between QZE-QAZE and PTS-PTB phases in non-Hermitian quantum dynamics.
翻訳日:2023-05-27 01:02:04 公開日:2020-04-03
# 利得と損失のバランスをとる電気回路における2つのpt遷移の観測

Observation of two PT transitions in an electric circuit with balanced gain and loss ( http://arxiv.org/abs/2004.01362v1 )

ライセンス: Link先を確認
Tishuo Wang, Jianxiong Fang, Zhongyi Xie, Nenghao Dong, Yogesh N Joglekar, Zixin Wang, Jiaming Li, and Le Luo(参考訳) 2つのLC発振器と1つの損失と2つの利得からなる二量体におけるPT対称性の破壊遷移について検討した。 この4モードモデルの電気エネルギーは、2つのLC回路と、各LC回路内の容量と誘導エネルギーの間で振動する。 その力学は、2つの例外点で3つの異なる位相を持つ非エルミート対称ハミルトニアンによって記述される。 我々は,利得損失強度の関数として,三つの領域を横断するエネルギー力学の固有度を体系的に測定する。 2つのLC回路の振動に対するよく研究されたPT遷移の観察に加えて、高利得損失強度では、各LC回路内の遷移も観察される。 その異常なチューニング能力により、PT対称電子は非エルミート系の古典的シミュレーションに理想的に適合する

We investigate PT -symmetry breaking transitions in a dimer comprising two LC oscillators, one with loss and the second with gain. The electric energy of this four-mode model oscillates between the two LC circuits, and between capacitive and inductive energy within each LC circuit. Its dynamics are described by a non-Hermitian, PT -symmetric Hamiltonian with three different phases separated by two exceptional points. We systematically measure the eigenfrequencies of energy dynamics across the three regions as a function of gain-loss strength. In addition to observe the well-studied PT transition for oscillations across the two LC circuits, at higher gain-loss strength, transition within each LC circuit is also observed. With their extraordinary tuning ability, PT -symmetric electronics are ideally suited for classical simulations of non-Hermitian systems
翻訳日:2023-05-27 01:01:35 公開日:2020-04-03
# 新型コロナ社会科学研究のためのオープンアクセス機関とニュースメディアのツイートデータセット

Open access institutional and news media tweet dataset for COVID-19 social science research ( http://arxiv.org/abs/2004.01791v1 )

ライセンス: Link先を確認
Jingyuan Yu(参考訳) 新型コロナウイルス(COVID-19)が世界的な危機の1つとなり、学術研究におけるデータ需要も増加している。 現在、オープンアクセスのtwitterデータセットはいくつかありますが、いずれも機関やニュースメディアのtwitterデータ収集に関するものではありません。この空白を埋めるため、69の機関/ニュースメディアのtwitterアカウントからデータを取得しました。 オープンアクセスデータは、研究者が社会科学の研究をもっと行えるようにできると信じています。

As COVID-19 quickly became one of the most concerned global crisis, the demand for data in academic research is also increasing. Currently, there are several open access Twitter datasets, but none of them is dedicated to the institutional and news media Twitter data collection, to fill this blank, we retrieved data from 69 institutional/news media Twitter accounts, 17 of them were related to government and international organizations, 52 of them were news media across North America, Europe and Asia. We believe our open access data can provide researchers more availability to conduct social science research.
翻訳日:2023-05-27 00:54:52 公開日:2020-04-03
# 絶対距離測定のためのエネルギー時間エンタングル光子を用いた自己共役光低コヒーレンス反射法

Self-calibrating Optical Low-Coherence Reflectometry with Energy-Time Entangled Photons for Absolute Distance Measurements ( http://arxiv.org/abs/2004.01772v1 )

ライセンス: Link先を確認
Manuel Untern\"ahrer, Andr\'e Stefanov(参考訳) 光学的低コヒーレンス反射計は、試料中の積み重ねた部分反射層の位置を明瞭に測定することができる。 光源の低コヒーレンスに依存し、メカニカルモータステージの位置読みから絶対距離を求める。 エネルギー時間エンタングル光子対のコヒーレンス特性と低コヒーレンス特性を同時に活用し、基準レーザー波長のolcrスキャンの位置スケールを直接調整する方法を示す。 実験では、1.6\,nmの精度と良好な線形性を示す。

Optical low-coherence reflectometry is capable of unambiguously measuring positions of stacked, partially reflective layers in a sample object. It relies on the low coherence of the light source and the absolute distances are obtained from the position reading of a mechanical motor stage. We show how to exploit the simultaneous high and low coherence properties of energy-time entangled photon pairs to directly calibrates the position scale of an OLCR scan with a reference laser wavelength. In experiment, a precision of 1.6\,nm and good linearity is demonstrated.
翻訳日:2023-05-27 00:54:40 公開日:2020-04-03
# 量子センサ用ダイヤモンド中の窒素空隙アンサンブルの生成:cvdプロセスの最適化とスケーラビリティ

Generation of nitrogen-vacancy ensembles in diamond for quantum sensors: Optimization and scalability of CVD processes ( http://arxiv.org/abs/2004.01746v1 )

ライセンス: Link先を確認
Andrew M. Edmonds, Connor A. Hart, Matthew J. Turner, Pierre-Olivier Colard, Jennifer M. Schloss, Kevin Olsson, Raisa Trubko, Matthew L. Markham, Adam Rathmill, Ben Horne-Smith, Wilbur Lew, Arul Manickam, Scott Bruce, Peter G. Kaup, Jon C. Russo, Michael J. DiMario, Joseph T. South, Jay T. Hansen, Daniel J. Twitchen, Ronald L. Walsworth(参考訳) ダイヤモンド中の窒素空孔(NV)中心のアンサンブルは、実用的な量子センサーのための主要なプラットフォームである。 所望の特性を持つNVアンサンブルの再現可能でスケーラブルな製造が重要である。 本研究は, ターゲットNV密度に対するNVアンサンブル特性を改善したダイヤモンド材料を大規模に製造するための化学気相沈着(CVD)合成プロセスを開発することで, これらの課題に対処する。 この研究で報告された材料は、現在のデバイスに対する即時感度改善を可能にする。 さらに、CVD合成プロセスの異なる段階における材料・センサ特性評価のための技術は、他のNV密度やサンプルジオメトリをターゲットにした将来の取り組みのための指標を提供する。

Ensembles of nitrogen-vacancy (NV) centers in diamond are a leading platform for practical quantum sensors. Reproducible and scalable fabrication of NV-ensembles with desired properties is crucial. This work addresses these challenges by developing a chemical vapor deposition (CVD) synthesis process to produce diamond material at scale with improved NV-ensemble properties for a target NV density. The material reported in this work enables immediate sensitivity improvements for current devices. In addition, techniques established in this work for material and sensor characterization at different stages of the CVD synthesis process provide metrics for future efforts targeting other NV densities or sample geometries.
翻訳日:2023-05-27 00:54:28 公開日:2020-04-03
# 有限不整形スピン鎖のエルゴディディディティ破壊遷移

Ergodicity Breaking Transition in Finite Disordered Spin Chains ( http://arxiv.org/abs/2004.01719v1 )

ライセンス: Link先を確認
Jan \v{S}untajs, Janez Bon\v{c}a, Toma\v{z} Prosen, Lev Vidmar(参考訳) 相互作用するスピン1/2鎖の高エネルギー固有状態における乱れによるエルゴディシティ崩壊遷移の研究を行った。 正確な対角化を用いて、固有状態遷移の異なるシナリオを定量的に比較するためのコスト関数アプローチを導入する。 固有状態エンタングルメントエントロピーやスペクトルレベルスペーシング比などのエルゴディディティ指標について検討し、有限次遷移と比較して(無限次)コステリッツ-チューレス遷移が低いコスト関数をもたらすことを一貫して見出した。 興味深いことに、有限系における遷移点は、ほぼ熱的性質、すなわち遷移におけるエルゴディシティ指標がランダム行列理論の予測に近いことを観測する。

We study disorder-induced ergodicity breaking transition in high-energy eigenstates of interacting spin-1/2 chains. Using exact diagonalization we introduce a cost function approach to quantitatively compare different scenarios for the eigenstate transition. We study ergodicity indicators such as the eigenstate entanglement entropy and the spectral level spacing ratio, and we consistently find that an (infinite-order) Kosterlitz-Thouless transition yields a lower cost function when compared to a finite-order transition. Interestingly, we observe that the transition point in finite systems exhibits nearly thermal properties, i.e., ergodicity indicators at the transition are close to the random matrix theory predictions.
翻訳日:2023-05-27 00:54:01 公開日:2020-04-03
# メタゲノミクスによるハロミチーズ細菌群集の同定

Characterizing Halloumi cheese bacterial communities through metagenomic analysis ( http://arxiv.org/abs/2004.01710v1 )

ライセンス: Link先を確認
Eleni Kamilari, Dimitrios A. Anagnostopoulos, Photis Papademas, Andreas Kamilaris, Dimitris Tsaltas(参考訳) ハロミはキプロスで何世紀にもわたって生産される半硬質チーズであり、近年は人気が高まっている。 本研究では,Cyprus Halloumi細菌の多様性を特徴付けるために高スループットシークエンシング(HTS)を適用した。 異なる乳混合物から採取した18種類の試料を解析し,ハロウミの微生物は主に乳酸菌(lactobacillus,leuconostoc,pediococcusなど)と,marinilactibacillus,halomonasなどの好塩性細菌が主成分であることを明らかにした。 また, 胞子形成菌や腐朽菌も検出された。 従来の製法で生産されるハロミは、工業法で生産されるハロミに比べて細菌多様性が著しく高かった。 細菌群落間で検出された変異は, 乳中に存在する初期微生物叢の寄与と, 保身製造条件に関連する因子が最終微生物組成形成に寄与することを明らかにする。 halloumi microbiomeの同定とキャラクタリゼーションは、その特徴を特徴付け、おそらく市場に現れる可能性のある詐欺製品から保護するための、追加的で有用なツールを提供する。 また、生産者が品質をさらに向上し、消費者の安全を保証できるように支援する。

Halloumi is a semi hard cheese produced in Cyprus for centuries and its popularity has significantly risen over the past years. High throughput sequencing (HTS) was applied in the present research to characterize traditional Cyprus Halloumi bacterial diversity. Eighteen samples made by different milk mixtures and produced in different areas of the country were analyzed, to reveal that Halloumi microbiome was mainly comprised by lactic acid bacteria (LAB), including Lactobacillus, Leuconostoc, and Pediococcus, as well as halophilic bacteria, such as Marinilactibacillus and Halomonas. Additionally, spore forming bacteria and spoilage bacteria, were also detected. Halloumi produced with the traditional method, had significantly richer bacterial diversity compared to Halloumi produced with the industrial method. Variations detected among the bacterial communities highlight the contribution of the initial microbiome that existed in milk and survived pasteurization, as well as factors associated with Halloumi manufacturing conditions, in the final microbiota composition shaping. Identification and characterization of Halloumi microbiome provides an additional, useful tool to characterize its typicity and probably safeguard it from fraud products that may appear in the market. Also, it may assist producers to further improve its quality and guarantee consumers safety.
翻訳日:2023-05-27 00:53:46 公開日:2020-04-03
# 高温アルカリ原子中の非縮退4波混合過程に基づく光パラメトリック発振器の量子ノイズ相関

Quantum noise correlations of an optical parametric oscillator based on a non-degenerate four wave mixing process in hot alkali atoms ( http://arxiv.org/abs/2004.01590v1 )

ライセンス: Link先を確認
A. Monta\~na Guerrero, P. Nussenzveig, M. Martinelli, A. M. Marino, H. M. Florez(参考訳) 本研究では,2重共振光パラメータ発振器 (opo) による2つのビーム間の2モードスクイーズについて,rubidium $^{85}$rbを用いた非縮退4波混合によるパラメトリック増幅に基づく最初の測定を行った。 Rb原子のD1線近傍で285mWのポンプパワーと12mWの出力パワーを持つ-2.7dB(損失に対して補正された-3,5dB)の最大強度差を観測した。 オープンキャビティと高利得媒体を組み合わせることで、高いレベルのノイズ圧縮が可能となり、結晶ベースのoposでは探索できない新しい操作方式へのアクセスが可能になる。 圧縮光のスペクトル帯域幅はキャビティダイナミクスによって拡大され、スクイーズレベルは強いポンプパワーに対して頑健である。 安定動作はしきい値の最大4倍まで得られた。 さらに、アルカリ原子の原子共鳴に近い動作により、量子記憶などの構造を含む量子ネットワークへの自然な統合が可能となる。

We present the first measurement of two-mode squeezing between the twin beams produced by a doubly resonant optical parameter oscillator (OPO) in above threshold operation, based on parametric amplification by non degenerate four wave mixing with rubidium $^{85}$Rb. We demonstrate a maximum intensity difference squeezing of -2.7 dB (-3,5 dB corrected for losses) with a pump power of 285 mW and an output power of 12 mW for each beam, operating close to the D1 line of Rb atoms. The possibility to use open cavities combined with the high gain media can provide a strong level of noise compression, and the access to new operation regimes that could not be explored by crystal based OPOs. The spectral bandwidth of the squeezed light is broadened by the cavity dynamics, and the squeezing level is robust for strong pump powers. Stable operation was obtained up to four times above the threshold. Moreover, its operation close to the atomic resonances of alkali atoms allows a natural integration into quantum networks including structures such as quantum memories.
翻訳日:2023-05-27 00:53:01 公開日:2020-04-03
# 完全状態と準ヴェルナー状態の比較

Comparison of Perfect and Quasi Werner States ( http://arxiv.org/abs/2004.03380v1 )

ライセンス: Link先を確認
Fatima-Zahra Siyouri (Mohammed V University), Fatima El Azzouzi (Sidi Mohamed Ben Abdellah University)(参考訳) 本稿では,2つの二分的絡み合った状態に基づいて,ワーナー状態に対する量子不協和と共起の挙動を比較検討する。 最大エンタングルド状態は完全ワーナー状態と見なされ、非最大エンタングルド状態は準ワーナー状態と呼ばれる。 量子相関の挙動は、これらの2種類の状態に対して変化しないことを示す。 しかし、完全ワーナー状態にある量子相関量は準ワーナー状態にあるものよりも非常に高い。 さらに,スクイーズドパラメータの値が大きい場合には,準ワーナー状態が定性的かつ定量的に完全ワーナー状態に近づくことを示した。

In this paper, we investigate comparatively the behaviors of quantum discord and concurrence for Werner states based on two bipartite entangled squeezed states. The maximally entangled squeezed states are regarded as a perfect-Werner states, while the non-maximally entangled squeezed states are called quasi-Werner states. We show that, the behavior of the quantum correlations keep unchanged for these two types of states. However, the quantum correlations amount presents in perfect-Werner states is very higher than that presents in quasi-Werner ones. Furthermore, we show that for large values of squeezed parameter the quasi-Werner states approaches the perfect-Werner states qualitatively and quantitatively.
翻訳日:2023-05-27 00:42:45 公開日:2020-04-03
# 知覚損失を伴う画像オートエンコーダ埋め込みの改善

Improving Image Autoencoder Embeddings with Perceptual Loss ( http://arxiv.org/abs/2001.03444v2 )

ライセンス: Link先を確認
Gustav Grund Pihlgren (1), Fredrik Sandin (1), Marcus Liwicki (1) ((1) Lule\r{a} University of Technology)(参考訳) オートエンコーダは一般に要素損失を用いて訓練される。 しかし、要素の損失は画像の高レベル構造を無視し、それらを無視した埋め込みにつながる可能性がある。 この問題を緩和するオートエンコーダの最近の改善は、知覚的損失の使用である。 本研究はエンコーダの埋め込みの観点から知覚的損失を考察する。 オートエンコーダは、3つの異なるコンピュータビジョンデータセットから画像を埋め込むように訓練され、事前訓練されたモデルに基づく知覚的損失とピクセル単位の損失を使用する。 さまざまな予測器のホストがトレーニングされ、埋め込みイメージを入力として与えられたデータセットのオブジェクトの位置決めと分類が行われる。 2種類の損失は、異なる訓練されたオートエンコーダの埋め込みによる予測器の実行方法を比較することによって評価される。 その結果、画像領域において知覚損失で訓練されたオートエンコーダによって生成された埋め込みは、要素損失で訓練されたものよりも正確な予測が可能となる。 さらに,小型特徴の物体位置決め作業においては,知覚的損失が第10因子によって改善できることが示唆された。 実験的なセットアップはオンラインで公開されている。 https://github.com/guspih/Perceptual-Autoencoders

Autoencoders are commonly trained using element-wise loss. However, element-wise loss disregards high-level structures in the image which can lead to embeddings that disregard them as well. A recent improvement to autoencoders that helps alleviate this problem is the use of perceptual loss. This work investigates perceptual loss from the perspective of encoder embeddings themselves. Autoencoders are trained to embed images from three different computer vision datasets using perceptual loss based on a pretrained model as well as pixel-wise loss. A host of different predictors are trained to perform object positioning and classification on the datasets given the embedded images as input. The two kinds of losses are evaluated by comparing how the predictors performed with embeddings from the differently trained autoencoders. The results show that, in the image domain, the embeddings generated by autoencoders trained with perceptual loss enable more accurate predictions than those trained with element-wise loss. Furthermore, the results show that, on the task of object positioning of a small-scale feature, perceptual loss can improve the results by a factor 10. The experimental setup is available online: https://github.com/guspih/Perceptual-Autoencoders
翻訳日:2023-01-12 23:15:08 公開日:2020-04-03
# 核磁気共鳴分光法における深層学習の現状と展望

Review and Prospect: Deep Learning in Nuclear Magnetic Resonance Spectroscopy ( http://arxiv.org/abs/2001.04813v2 )

ライセンス: Link先を確認
Dicheng Chen, Zi Wang, Di Guo, Vladislav Orekhov, Xiaobo Qu(参考訳) 2006年に「Deep Learning(DL)」という概念が正式に提案されて以来、学術研究と産業に大きな影響を与えた。 今日、dlはコンピュータビジョン、医用画像、自然言語処理などの素晴らしい結果を示すデータを分析および処理する前例のない方法を提供する。 このミニレビューでは、核磁気共鳴(NMR)分光におけるDLの応用を要約し、NMR分光を化学や生命科学においてより効率的で強力な技術に転換する可能性のある全く新しいアプローチとしてのDLの展望を概説する。

Since the concept of Deep Learning (DL) was formally proposed in 2006, it had a major impact on academic research and industry. Nowadays, DL provides an unprecedented way to analyze and process data with demonstrated great results in computer vision, medical imaging, natural language processing, etc. In this Minireview, we summarize applications of DL in Nuclear Magnetic Resonance (NMR) spectroscopy and outline a perspective for DL as entirely new approaches that are likely to transform NMR spectroscopy into a much more efficient and powerful technique in chemistry and life science.
翻訳日:2023-01-12 00:17:15 公開日:2020-04-03
# 配向グラフ上の離散時間量子ウォーク

Discrete-Time Quantum Walks on Oriented Graphs ( http://arxiv.org/abs/2001.04814v2 )

ライセンス: Link先を確認
Bruno Chagas (Universidade Federal de Minas Gerais), Renato Portugal (National Laboratory of Scientific Computing - LNCC)(参考訳) 量子ウォークへの関心は過去20年間で着実に高まっている。 実用的応用や新しい物理的な振る舞いを見出すことのできる新しい形の量子ウォークを提示する価値がある。 本研究では,任意の向きのグラフ上の離散時間量子ウォークを,頂点集合を覆う不連続なクランクの集合であるテッセレーションに分割することにより定義する。 テッセレーションに付随する隣接行列を用いることで、局所ユニタリ作用素を定義し、その積は量子ウォークモデルの進化作用素である。 配向の量を定量化するパラメータであるαを導入する。 パラメータαは、向き付けられたグラフ上の量子ウォークベースの輸送量を増やすために調整可能であることを示す。

The interest in quantum walks has been steadily increasing during the last two decades. It is still worth to present new forms of quantum walks that might find practical applications and new physical behaviors. In this work, we define discrete-time quantum walks on arbitrary oriented graphs by partitioning a graph into tessellations, which is a collection of disjoint cliques that cover the vertex set. By using the adjacency matrices associated with the tessellations, we define local unitary operators, whose product is the evolution operator of our quantum walk model. We introduce a parameter, called alpha, that quantifies the amount of orientation. We show that the parameter alpha can be tuned in order to increase the amount of quantum walk-based transport on oriented graphs.
翻訳日:2023-01-12 00:09:52 公開日:2020-04-03
# RoutedFusion: リアルタイム深度マップの融合学習

RoutedFusion: Learning Real-time Depth Map Fusion ( http://arxiv.org/abs/2001.04388v2 )

ライセンス: Link先を確認
Silvan Weder, Johannes L. Sch\"onberger, Marc Pollefeys, Martin R. Oswald(参考訳) 深度マップの効率的な融合は、最先端の3d再構成法の主要な部分である。 高い精度を必要とするだけでなく、これらの深度融合法はスケーラブルでリアルタイムに実行可能である必要がある。 そこで本研究では,新しいリアルタイム機械学習による深層地図融合手法を提案する。 curlessとlevoyによるseminal depth map fusionアプローチと同様に、リアルタイム機能を保証するためにvoxelのローカルグループのみを更新する。 深度情報の単純な線形融合の代わりに、通常の融合エラーを考慮に入れた非線形更新を予測するニューラルネットワークを提案する。 本ネットワークは,センサ固有のノイズや異常を効率的に処理する2次元深度ルーティングネットワークと3次元深度融合ネットワークで構成されている。 これは、もともとのアプローチがアーティファクトの厚みに苦しむ表面縁や薄い物体に特に有用である。 本手法は,合成データと実データの両方において,従来の融合手法と関連する学習手法に勝る。 本手法は,様々な場面におけるノイズや異常値から,微細な幾何学的詳細を再構成する性能を示す。

The efficient fusion of depth maps is a key part of most state-of-the-art 3D reconstruction methods. Besides requiring high accuracy, these depth fusion methods need to be scalable and real-time capable. To this end, we present a novel real-time capable machine learning-based method for depth map fusion. Similar to the seminal depth map fusion approach by Curless and Levoy, we only update a local group of voxels to ensure real-time capability. Instead of a simple linear fusion of depth information, we propose a neural network that predicts non-linear updates to better account for typical fusion errors. Our network is composed of a 2D depth routing network and a 3D depth fusion network which efficiently handle sensor-specific noise and outliers. This is especially useful for surface edges and thin objects for which the original approach suffers from thickening artifacts. Our method outperforms the traditional fusion approach and related learned approaches on both synthetic and real data. We demonstrate the performance of our method in reconstructing fine geometric details from noise and outlier contaminated data on various scenes.
翻訳日:2023-01-11 23:23:57 公開日:2020-04-03
# 転校学習に適応したツリーブースティング

Adapted tree boosting for Transfer Learning ( http://arxiv.org/abs/2002.11982v2 )

ライセンス: Link先を確認
Wenjing Fang, Chaochao Chen, Bowen Song, Li Wang, Jun Zhou, Kenny Q. Zhu(参考訳) セキュアなオンライントランザクションは、eコマースプラットフォームにとって必須のタスクである。 世界でも有数のキャッシュレス決済プラットフォームであるalipayは、マーチャントと個人顧客の両方に支払いサービスを提供する。 不正検出モデルは顧客を保護するために構築されているが、トレーニングデータやラベルに欠ける新たなシーンによって強い需要がもたらされる。 提案モデルでは,類似した古いシーンのデータを活用し,新たなシーンのデータを対象領域として扱うことにより,異なる効果が得られる。 Alipayのこの実例に触発されて、我々はこの問題を伝達学習問題とみなし、ツリーモデルを強化する勾配の枠組みの下で、ソースドメインモデルをターゲットドメインに転送するための一連の修正戦略を設計する。 この作業は、コールドスタートとデータ共有の問題にオプションを提供する。

Secure online transaction is an essential task for e-commerce platforms. Alipay, one of the world's leading cashless payment platform, provides the payment service to both merchants and individual customers. The fraud detection models are built to protect the customers, but stronger demands are raised by the new scenes, which are lacking in training data and labels. The proposed model makes a difference by utilizing the data under similar old scenes and the data under a new scene is treated as the target domain to be promoted. Inspired by this real case in Alipay, we view the problem as a transfer learning problem and design a set of revise strategies to transfer the source domain models to the target domain under the framework of gradient boosting tree models. This work provides an option for the cold-starting and data-sharing problems.
翻訳日:2022-12-28 07:38:23 公開日:2020-04-03
# 二重未熟症における二重障害 : 遅延レジームにおけるバイアスと変動

Double Trouble in Double Descent : Bias and Variance(s) in the Lazy Regime ( http://arxiv.org/abs/2003.01054v2 )

ライセンス: Link先を確認
St\'ephane d'Ascoli, Maria Refinetti, Giulio Biroli, Florent Krzakala(参考訳) ディープニューラルネットワークは、トレーニングデータを完璧に補間しながら、驚くべき一般化性能を達成できる。 バイアス分散トレードオフを象徴するu曲線ではなく、そのテストエラーはしばしば「二重降下」と呼ばれる過剰パラメータ化の有益な役割を示すマークに従う。 本研究では,ランダム特徴量回帰を用いた高次元関数の学習問題を考慮し,ニューラルネットワークの遅延学習環境におけるこの現象の定量的理論を考案する。 テスト誤差のバイアス分散分解に対する正確な漸近的表現を得るとともに、バイアスが補間しきい値で位相遷移を示し、それ以外は一定であることを示す。 我々は、データセットのサンプリングから生じるばらつき、ラベルを劣化させる付加ノイズ、および重みの初期化から引き起こされるばらつきを解消する。 geiger et al. 2019 に続き、後者の2つの貢献は二重降下のcruxであり、それらは補間しきい値におけるオーバーフィッティングピークと、オーバーパラメトリゼーション時にテストエラーが崩壊することを示している。 次に、K の出力を独立に初期化推定器で平均化することにより、それらがどのように抑制されるかを定量化する。 K が無限大に送られるとき、テスト誤差は補間しきい値を超えて一定である。 さらに, 過パラメータ化, センス化, 正規化の効果を比較検討した。 最後に,古典的なディープラーニングシステムに関する数値実験を行い,現実的な遅延学習シナリオにおいて,結果が定性的に成り立つことを示す。

Deep neural networks can achieve remarkable generalization performances while interpolating the training data perfectly. Rather than the U-curve emblematic of the bias-variance trade-off, their test error often follows a "double descent" - a mark of the beneficial role of overparametrization. In this work, we develop a quantitative theory for this phenomenon in the so-called lazy learning regime of neural networks, by considering the problem of learning a high-dimensional function with random features regression. We obtain a precise asymptotic expression for the bias-variance decomposition of the test error, and show that the bias displays a phase transition at the interpolation threshold, beyond which it remains constant. We disentangle the variances stemming from the sampling of the dataset, from the additive noise corrupting the labels, and from the initialization of the weights. Following up on Geiger et al. 2019, we first show that the latter two contributions are the crux of the double descent: they lead to the overfitting peak at the interpolation threshold and to the decay of the test error upon overparametrization. We then quantify how they are suppressed by ensemble averaging the outputs of K independently initialized estimators. When K is sent to infinity, the test error remains constant beyond the interpolation threshold. We further compare the effects of overparametrizing, ensembling and regularizing. Finally, we present numerical experiments on classic deep learning setups to show that our results hold qualitatively in realistic lazy learning scenarios.
翻訳日:2022-12-27 04:50:06 公開日:2020-04-03
# PDGM: 経路依存部分微分方程式を解くニューラルネットワークアプローチ

PDGM: a Neural Network Approach to Solve Path-Dependent Partial Differential Equations ( http://arxiv.org/abs/2003.02035v2 )

ライセンス: Link先を確認
Yuri F. Saporito and Zhaoyu Zhang(参考訳) 本稿では,経路依存部分微分方程式(PPDE)の新たな数値計算法を提案する。 これらの方程式は、道依存の金融デリバティブ契約を扱うために関数型 It\^o 計算を開発した Dupire [2009] のセミナルな研究で最初に現れた。 より具体的には、これらの方程式を扱うために、Sirignano と Spiliopoulos [2018] のDeep Galerking Method (DGM) を一般化する。 Path-Dependent DGM (PDGM) と呼ばれるこの手法は、PPDEのソリューションをモデル化するために、フィードフォワードとロング短期記憶アーキテクチャを組み合わせて構成する。 次に,金融数学の文献から得られたいくつかの数値例を解析し,異なる状況下での手法の能力を示す。

In this paper, we propose a novel numerical method for Path-Dependent Partial Differential Equations (PPDEs). These equations firstly appeared in the seminal work of Dupire [2009], where the functional It\^o calculus was developed to deal with path-dependent financial derivatives contracts. More specificaly, we generalize the Deep Galerking Method (DGM) of Sirignano and Spiliopoulos [2018] to deal with these equations. The method, which we call Path-Dependent DGM (PDGM), consists of using a combination of feed-forward and Long Short-Term Memory architectures to model the solution of the PPDE. We then analyze several numerical examples, many from the Financial Mathematics literature, that show the capabilities of the method under very different situations.
翻訳日:2022-12-26 13:26:24 公開日:2020-04-03
# ストリーミングにおける時系列分類のためのディープラーニングモデルの性能について

On the performance of deep learning models for time series classification in streaming ( http://arxiv.org/abs/2003.02544v2 )

ライセンス: Link先を確認
Pedro Lara-Ben\'itez, Manuel Carranza-Garc\'ia, Francisco Mart\'inez-\'Alvarez and Jos\'e C. Riquelme(参考訳) 高速に到達したデータストリームを処理するには、高速で正確な予測を提供するモデルの開発が必要だ。 ディープニューラルネットワークは多くの機械学習タスクの最先端技術であるが、リアルタイムデータストリーミングシナリオのパフォーマンスは、まだ完全に対処されていない研究領域である。 それでも、処理速度を下げることで、複雑なディープラーニングモデルをストリーミングタスクに適応させる取り組みが近年行われている。 非同期のデュアルパイプラインディープラーニングフレームワークの設計により、入ってくるインスタンスを予測し、2つの別々のレイヤを使って同時にモデルを更新することができる。 本研究の目的は、このフレームワークを用いてデータストリーミング分類のための様々なタイプのディープアーキテクチャの性能を評価することである。 ストリームとしてシミュレーションされた複数の時系列データセット上で,多層パーセプトロン,リカレント,畳み込み,時間畳み込みニューラルネットワークなどのモデルを評価する。 その結果,畳み込み型アーキテクチャは精度と効率の面で高い性能が得られることがわかった。

Processing data streams arriving at high speed requires the development of models that can provide fast and accurate predictions. Although deep neural networks are the state-of-the-art for many machine learning tasks, their performance in real-time data streaming scenarios is a research area that has not yet been fully addressed. Nevertheless, there have been recent efforts to adapt complex deep learning models for streaming tasks by reducing their processing rate. The design of the asynchronous dual-pipeline deep learning framework allows to predict over incoming instances and update the model simultaneously using two separate layers. The aim of this work is to assess the performance of different types of deep architectures for data streaming classification using this framework. We evaluate models such as multi-layer perceptrons, recurrent, convolutional and temporal convolutional neural networks over several time-series datasets that are simulated as streams. The obtained results indicate that convolutional architectures achieve a higher performance in terms of accuracy and efficiency.
翻訳日:2022-12-26 06:22:51 公開日:2020-04-03
# 都市景観のリアルタイム高性能セマンティック画像分割

Real-Time High-Performance Semantic Image Segmentation of Urban Street Scenes ( http://arxiv.org/abs/2003.08736v2 )

ライセンス: Link先を確認
Genshun Dong, Yan Yan, Chunhua Shen and Hanzi Wang(参考訳) 深層畳み込みニューラルネットワーク(DCNN)は近年,セマンティックイメージセグメンテーションにおいて優れた性能を示している。 しかし、最先端のdcnnベースのセマンティクスセグメンテーション手法は通常、複雑なネットワークアーキテクチャを使用するため、高い計算複雑性に苦しむ。 これにより、リアルタイム処理を必要とする現実世界のシナリオでのアプリケーションを大幅に制限します。 本稿では,都市街路シーンのロバストな意味セグメンテーションのためのリアルタイム高性能dcnnに基づく手法を提案する。 具体的には,Atrous convolution and Attention (LBN-AA) を用いた軽量ベースラインネットワークをベースラインネットワークとして利用し,高密度特徴写像を効率的に取得する。 次に、異なる大きさのプーリング操作を利用して、リッチで特徴的な意味情報をエンコードする識別的アトラス空間ピラミッドプーリング(daspp)を開発し、複数のスケールで物体を検出する。 一方、浅い畳み込み層を有する空間詳細保存ネットワーク(SPN)は、詳細な空間情報を保持する高解像度の特徴マップを生成するように設計されている。 最後に,意味枝(DASPP)と空間枝(SPN)の浅部特徴と深部特徴を効果的に組み合わせるために,簡易だが実用的な特徴融合ネットワーク(FFN)を用いる。 広範な実験結果から、提案手法は、挑戦的な都市景観とcamvidテストデータセット(nvidia titan xカード1枚のみを使用して)において、51.0 fpsと39.3 fpsの推論速度で、それぞれ73.6%の精度と68.0%の平均交点(miou)を達成した。 提案手法は,都市街路シーンのセマンティックセグメンテーションにおいて,リアルタイムに優れた性能を示すことを示す。

Deep Convolutional Neural Networks (DCNNs) have recently shown outstanding performance in semantic image segmentation. However, state-of-the-art DCNN-based semantic segmentation methods usually suffer from high computational complexity due to the use of complex network architectures. This greatly limits their applications in the real-world scenarios that require real-time processing. In this paper, we propose a real-time high-performance DCNN-based method for robust semantic segmentation of urban street scenes, which achieves a good trade-off between accuracy and speed. Specifically, a Lightweight Baseline Network with Atrous convolution and Attention (LBN-AA) is firstly used as our baseline network to efficiently obtain dense feature maps. Then, the Distinctive Atrous Spatial Pyramid Pooling (DASPP), which exploits the different sizes of pooling operations to encode the rich and distinctive semantic information, is developed to detect objects at multiple scales. Meanwhile, a Spatial detail-Preserving Network (SPN) with shallow convolutional layers is designed to generate high-resolution feature maps preserving the detailed spatial information. Finally, a simple but practical Feature Fusion Network (FFN) is used to effectively combine both shallow and deep features from the semantic branch (DASPP) and the spatial branch (SPN), respectively. Extensive experimental results show that the proposed method respectively achieves the accuracy of 73.6% and 68.0% mean Intersection over Union (mIoU) with the inference speed of 51.0 fps and 39.3 fps on the challenging Cityscapes and CamVid test datasets (by only using a single NVIDIA TITAN X card). This demonstrates that the proposed method offers excellent performance at the real-time speed for semantic segmentation of urban street scenes.
翻訳日:2022-12-24 15:16:46 公開日:2020-04-03
# 早期感染のダイナミクスからCOVID-19の現象を学習する

Machine Learning the Phenomenology of COVID-19 From Early Infection Dynamics ( http://arxiv.org/abs/2003.07602v3 )

ライセンス: Link先を確認
Malik Magdon-Ismail(参考訳) 我々は、新型コロナウイルスのパンデミックに関するロバストなデータ駆動機械学習分析を、その初期感染動態、特に感染数から示す。 目標は、行動可能な公衆衛生の洞察を抽出することである。 これらの洞察には、感染力、軽度の感染率の深刻化、無症候性感染症の推定、新しい感染の予測などが含まれる。 私たちは2020年1月20日に確認された最初の感染から始まる米国のデータに注目します。 以上の結果から,無症候性(潜伏)感染症の発症期間は約10日であり,軽度感染から重篤感染への移行が0.14%程度であることが明らかとなった。 我々の方法は効率的で堅牢で、特定のウイルスに非依存であり、異なる集団やコホートに適用できる。

We present a robust data-driven machine learning analysis of the COVID-19 pandemic from its early infection dynamics, specifically infection counts over time. The goal is to extract actionable public health insights. These insights include the infectious force, the rate of a mild infection becoming serious, estimates for asymtomatic infections and predictions of new infections over time. We focus on USA data starting from the first confirmed infection on January 20 2020. Our methods reveal significant asymptomatic (hidden) infection, a lag of about 10 days, and we quantitatively confirm that the infectious force is strong with about a 0.14% transition from mild to serious infection. Our methods are efficient, robust and general, being agnostic to the specific virus and applicable to different populations or cohorts.
翻訳日:2022-12-22 20:54:26 公開日:2020-04-03
# 固有成分分析:線形最大可分成分を求めるための機械学習手法を組み込んだ量子理論

Eigen component analysis: A quantum theory incorporated machine learning technique to find linearly maximum separable components ( http://arxiv.org/abs/2003.10199v3 )

ライセンス: Link先を確認
Chen Miao, Shaohua Ma(参考訳) 線形系では、刺激に対する反応は、しばしば他の分解された刺激に対する反応によって重ね合わされる。 量子力学において、状態は複数の固有状態の重ね合わせである。 本稿では,量子力学の原理を特徴抽出,分類,辞書,深層学習,逆生成などのアルゴリズム設計に取り入れた,解釈可能な線形学習モデルである固有成分分析(eca)を提案する。 古典的コンピュータ上の測定可能な$class\text{-}label$$\mathcal{H}$を持つECAのシミュレーションは、既存の古典的線形モデルより優れている。 連結ECAモデルのネットワークである固有成分分析ネットワーク(ECAN)は、ECAを強化し、非線形モデルと統合される可能性を得るとともに、データセットを量子状態の記録としてアナログ化することで、ディープニューラルネットワークが量子コンピュータ上で実装するインターフェースも提供する。 そのため、ECAとECANは、量子機械学習の戦略を採用して、重非線形モデルを簡潔な線形演算に置き換えることで、線形学習モデルの実現可能性を高めることを約束する。

For a linear system, the response to a stimulus is often superposed by its responses to other decomposed stimuli. In quantum mechanics, a state is the superposition of multiple eigenstates. Here, by taking advantage of the phase difference, a common feature as we identified in data sets, we propose eigen component analysis (ECA), an interpretable linear learning model that incorporates the principle of quantum mechanics into the design of algorithm design for feature extraction, classification, dictionary and deep learning, and adversarial generation, etc. The simulation of ECA, possessing a measurable $class\text{-}label$ $\mathcal{H}$, on a classical computer outperforms the existing classical linear models. Eigen component analysis network (ECAN), a network of concatenated ECA models, enhances ECA and gains the potential to be not only integrated with nonlinear models, but also an interface for deep neural networks to implement on a quantum computer, by analogizing a data set as recordings of quantum states. Therefore, ECA and ECAN promise to expand the feasibility of linear learning models, by adopting the strategy of quantum machine learning to replace heavy nonlinear models with succinct linear operations in tackling complexity.
翻訳日:2022-12-20 23:50:41 公開日:2020-04-03
# オンライン多物体追跡のための統一物体運動と親和性モデル

A Unified Object Motion and Affinity Model for Online Multi-Object Tracking ( http://arxiv.org/abs/2003.11291v2 )

ライセンス: Link先を確認
Junbo Yin, Wenguan Wang, Qinghao Meng, Ruigang Yang, Jianbing Shen(参考訳) 現在のオンラインマルチオブジェクト追跡(MOT)ソリューションは、オブジェクトの動きをキャプチャするために単一のオブジェクトトラッカー(SOT)を適用している。 これにより、SOTと親和性計算の反復的特徴抽出による計算オーバーヘッドが増大する。 一方、洗練された親和性ネットワークのモデルサイズは通常非自明である。 本稿では,オブジェクトの動きと親和性尺度の両方に対して識別可能なコンパクトな特徴を学習するために,オブジェクトの動きと親和性モデルを単一のネットワークに統一する新しいmotフレームワークumaを提案する。 特に、UMAはマルチタスク学習を用いて、単一のオブジェクト追跡とメトリック学習を統合三重項ネットワークに統合する。 このような設計は、計算効率の向上、低メモリ要求、簡単な訓練手順の利点をもたらす。 さらに、我々は、タスク認識機能学習の促進に使用されるタスク固有のアテンションモジュールをモデルに装備する。 提案されたUMAは、エンドツーエンドで簡単にトレーニングでき、エレガントである。 実験の結果,複数のmotチャレンジベンチマークで有望な性能が得られた。

Current popular online multi-object tracking (MOT) solutions apply single object trackers (SOTs) to capture object motions, while often requiring an extra affinity network to associate objects, especially for the occluded ones. This brings extra computational overhead due to repetitive feature extraction for SOT and affinity computation. Meanwhile, the model size of the sophisticated affinity network is usually non-trivial. In this paper, we propose a novel MOT framework that unifies object motion and affinity model into a single network, named UMA, in order to learn a compact feature that is discriminative for both object motion and affinity measure. In particular, UMA integrates single object tracking and metric learning into a unified triplet network by means of multi-task learning. Such design brings advantages of improved computation efficiency, low memory requirement and simplified training procedure. In addition, we equip our model with a task-specific attention module, which is used to boost task-aware feature learning. The proposed UMA can be easily trained end-to-end, and is elegant - requiring only one training stage. Experimental results show that it achieves promising performance on several MOT Challenge benchmarks.
翻訳日:2022-12-20 03:22:59 公開日:2020-04-03
# 単発学習におけるインスタンス信頼度推定

Instance Credibility Inference for Few-Shot Learning ( http://arxiv.org/abs/2003.11853v2 )

ライセンス: Link先を確認
Yikai Wang, Chengming Xu, Chen Liu, Li Zhang, Yanwei Fu(参考訳) FSL(Few-shot Learning)は、各カテゴリの訓練データを極めて限定した新しいオブジェクトを認識することを目的としている。 これまでの取り組みは、メタラーニングパラダイムを活用するか、データ拡張における新しい原則を利用して、この極端なデータ収集問題を緩和する。 対照的に,本稿では,限定学習のためのラベルなしインスタンスの分散サポートを活用すべく,インスタンス信頼性推論(ici)と呼ばれる単純な統計手法を提案する。 具体的には,ラベル付き少数ショット例を用いて線形分類器を訓練し,ラベルなしデータの擬似ラベルを推定する。 各擬似ラベル付きインスタンスの信頼性を測定するために、付随パラメータのスパース性を高め、そのスパース度度で擬似ラベル付きインスタンスをランク付けすることにより、別の線形回帰仮説を解くことを提案する。 ラベル付き例とともに最も信頼できる擬似ラベル付きインスタンスを選択し、線形分類器を再訓練する。 このプロセスは、拡張されたトレーニングセットにラベルなしのサンプルがすべて含まれるまで繰り返し、すなわちラベルなしのデータプールに対して擬似ラベルが収束する。 2つのショット設定による大規模な実験により、MiniImageNet, tieredImageNet, CIFAR-FS, CUBなど、広く使われている4つのショット学習ベンチマークデータセットに対して、私たちのシンプルなアプローチが新たな最先端技術を確立することができた。 私たちのコードは、https://github.com/Yikai-Wang/ICI-FSLで利用可能です。

Few-shot learning (FSL) aims to recognize new objects with extremely limited training data for each category. Previous efforts are made by either leveraging meta-learning paradigm or novel principles in data augmentation to alleviate this extremely data-scarce problem. In contrast, this paper presents a simple statistical approach, dubbed Instance Credibility Inference (ICI) to exploit the distribution support of unlabeled instances for few-shot learning. Specifically, we first train a linear classifier with the labeled few-shot examples and use it to infer the pseudo-labels for the unlabeled data. To measure the credibility of each pseudo-labeled instance, we then propose to solve another linear regression hypothesis by increasing the sparsity of the incidental parameters and rank the pseudo-labeled instances with their sparsity degree. We select the most trustworthy pseudo-labeled instances alongside the labeled examples to re-train the linear classifier. This process is iterated until all the unlabeled samples are included in the expanded training set, i.e. the pseudo-label is converged for unlabeled data pool. Extensive experiments under two few-shot settings show that our simple approach can establish new state-of-the-arts on four widely used few-shot learning benchmark datasets including miniImageNet, tieredImageNet, CIFAR-FS, and CUB. Our code is available at: https://github.com/Yikai-Wang/ICI-FSL
翻訳日:2022-12-19 21:13:10 公開日:2020-04-03
# FFTに基づく分割畳み込みを用いた畳み込みニューラルネットワークの高速化

Acceleration of Convolutional Neural Network Using FFT-Based Split Convolutions ( http://arxiv.org/abs/2003.12621v2 )

ライセンス: Link先を確認
Kamran Chitsaz, Mohsen Hajabdollahi, Nader Karimi, Shadrokh Samavi, Shahram Shirani(参考訳) 畳み込みニューラルネットワーク(convolutional neural network, cnns)は、多くの変数を持ち、それゆえ、その実装の複雑さに苦しむ。 量子化やプルーニングなど,CNNの複雑性の問題を軽減するために,さまざまな方法やテクニックが開発されている。 異なる単純化手法のうち、フーリエ領域での計算はcnnの高速化のための新しいパラダイムと見なされている。 高速フーリエ変換(FFT)に基づくFFTに必要な計算の簡素化を目的としたCNNの最近の研究 しかし、FFTの計算複雑性の低減に取り組むには多くのスペースがある。 本稿では,入力分割に基づくfftドメインにおけるcnn処理の新しい手法を提案する。 CNNのような状況下では、小さなカーネルを使用したFFTの計算に問題がある。 分割は、小さなカーネルによって引き起こされるような問題に対する効果的な解決策と考えることができる。 オーバーラップ・アンド・アタッチメントなどの分割冗長性を低減し、効率を向上する。 提案手法の適正な性能を示すために,提案手法のハードウェア実装と複雑さの異なる解析を行った。

Convolutional neural networks (CNNs) have a large number of variables and hence suffer from a complexity problem for their implementation. Different methods and techniques have developed to alleviate the problem of CNN's complexity, such as quantization, pruning, etc. Among the different simplification methods, computation in the Fourier domain is regarded as a new paradigm for the acceleration of CNNs. Recent studies on Fast Fourier Transform (FFT) based CNN aiming at simplifying the computations required for FFT. However, there is a lot of space for working on the reduction of the computational complexity of FFT. In this paper, a new method for CNN processing in the FFT domain is proposed, which is based on input splitting. There are problems in the computation of FFT using small kernels in situations such as CNN. Splitting can be considered as an effective solution for such issues aroused by small kernels. Using splitting redundancy, such as overlap-and-add, is reduced and, efficiency is increased. Hardware implementation of the proposed FFT method, as well as different analyses of the complexity, are performed to demonstrate the proper performance of the proposed method.
翻訳日:2022-12-19 04:45:40 公開日:2020-04-03
# DeepGS:ドラッグターゲット結合親和性予測のためのグラフとシーケンスの深部表現学習

DeepGS: Deep Representation Learning of Graphs and Sequences for Drug-Target Binding Affinity Prediction ( http://arxiv.org/abs/2003.13902v2 )

ライセンス: Link先を確認
Xuan Lin(参考訳) サイリコにおける薬物-標的結合親和性(DTA)の正確な予測は、薬物発見の鍵となる課題である。 従来のdta予測手法のほとんどはシミュレーションベースであり、ドメイン知識やターゲットの3d構造を持つという仮定に大きく依存している。 一方、従来の機械学習ベースの方法は、様々な特徴と記述子を応用し、単に薬と標的のペアの類似性に依存する。 近年,様々な領域における親和性データ量の増加と深層表現学習モデルの成功により,dta予測にディープラーニング技術が適用されている。 しかし、これらの手法はアミノ酸とSMILES配列の局所的な化学的文脈を考慮せずに、ラベル/ワンホットエンコーディングまたは分子のトポロジカル構造を考察する。 そこで本研究では,深層ニューラルネットワークを用いて,アミノ酸やスマイル配列から局所的な化学的コンテクストを抽出し,その分子構造を薬物から抽出する,新しいエンドツーエンド学習フレームワークdeepgsを提案する。 シンボルデータの操作を支援するため,高度埋め込み技術(Smi2VecとProt2Vec)を用いて,アミノ酸およびSMILES配列を分散表現に符号化する手法を提案する。 一方,本研究では,分子構造モデリング手法を提案する。 我々は提案手法を,KronRLS,SimBoost,DeepDTA,DeepCPIなどの最先端モデルと比較するための広範な実験を行った。 DeepGSの優位性と競争性を示す大規模な実験結果が得られた。

Accurately predicting drug-target binding affinity (DTA) in silico is a key task in drug discovery. Most of the conventional DTA prediction methods are simulation-based, which rely heavily on domain knowledge or the assumption of having the 3D structure of the targets, which are often difficult to obtain. Meanwhile, traditional machine learning-based methods apply various features and descriptors, and simply depend on the similarities between drug-target pairs. Recently, with the increasing amount of affinity data available and the success of deep representation learning models on various domains, deep learning techniques have been applied to DTA prediction. However, these methods consider either label/one-hot encodings or the topological structure of molecules, without considering the local chemical context of amino acids and SMILES sequences. Motivated by this, we propose a novel end-to-end learning framework, called DeepGS, which uses deep neural networks to extract the local chemical context from amino acids and SMILES sequences, as well as the molecular structure from the drugs. To assist the operations on the symbolic data, we propose to use advanced embedding techniques (i.e., Smi2Vec and Prot2Vec) to encode the amino acids and SMILES sequences to a distributed representation. Meanwhile, we suggest a new molecular structure modeling approach that works well under our framework. We have conducted extensive experiments to compare our proposed method with state-of-the-art models including KronRLS, SimBoost, DeepDTA and DeepCPI. Extensive experimental results demonstrate the superiorities and competitiveness of DeepGS.
翻訳日:2022-12-18 01:50:44 公開日:2020-04-03
# 信頼と接続性推定による顔のクラスタリング学習

Learning to Cluster Faces via Confidence and Connectivity Estimation ( http://arxiv.org/abs/2004.00445v2 )

ライセンス: Link先を確認
Lei Yang, Dapeng Chen, Xiaohang Zhan, Rui Zhao, Chen Change Loy, Dahua Lin(参考訳) 顔クラスタリングは、ラベルのない顔データを利用するための必須のツールであり、顔アノテーションや検索を含む幅広いアプリケーションを持っている。 最近の研究は、教師付きクラスタリングが顕著なパフォーマンス向上をもたらすことを示している。 しかし、それらは通常ヒューリスティックなステップを伴い、多くの重複した部分グラフを必要とし、その正確さと効率を厳しく制限する。 本稿では,大量の重複グラフを必要とすることなく,完全に学習可能なクラスタリングフレームワークを提案する。 代わりに、クラスタリング問題を2つのサブ問題に変換する。 特に、GCN-VとGCN-Eという2つのグラフ畳み込みネットワークは、それぞれ頂点の信頼性とエッジの接続性を推定するように設計されている。 頂点信頼度とエッジ接続性によって、アフィニティグラフの関連する頂点を自然に整理し、それらをクラスタにグループ化することができる。 2つの大規模ベンチマーク実験により,本手法はクラスタリング精度を大幅に向上し,その上で訓練した認識モデルの性能が向上することが示された。

Face clustering is an essential tool for exploiting the unlabeled face data, and has a wide range of applications including face annotation and retrieval. Recent works show that supervised clustering can result in noticeable performance gain. However, they usually involve heuristic steps and require numerous overlapped subgraphs, severely restricting their accuracy and efficiency. In this paper, we propose a fully learnable clustering framework without requiring a large number of overlapped subgraphs. Instead, we transform the clustering problem into two sub-problems. Specifically, two graph convolutional networks, named GCN-V and GCN-E, are designed to estimate the confidence of vertices and the connectivity of edges, respectively. With the vertex confidence and edge connectivity, we can naturally organize more relevant vertices on the affinity graph and group them into clusters. Experiments on two large-scale benchmarks show that our method significantly improves clustering accuracy and thus performance of the recognition models trained on top, yet it is an order of magnitude more efficient than existing supervised methods.
翻訳日:2022-12-17 19:03:53 公開日:2020-04-03
# SSHFD:難治性関節症をともなうシングルショットヒトの転倒検出

SSHFD: Single Shot Human Fall Detection with Occluded Joints Resilience ( http://arxiv.org/abs/2004.00797v2 )

ライセンス: Link先を確認
Umar Asif, Stefan Von Cavallar, Jianbin Tang, and Stefan Harrer(参考訳) 転倒は高齢者に致命的な影響をもたらす可能性があるが、特に転倒した人が意識の喪失や怪我のために助けを求めることができない場合はなおさらである。 自動転倒検知システムは、急激な転倒警報を通し、在宅生活における転倒の恐れを最小限に抑える。 既存の視覚ベースの転倒検知システムは、物理的な外観の変化、異なるカメラ視点、オクルージョン、背景乱雑といった課題のために、見えない環境への一般化を欠いている。 本稿では,上記の課題を克服する方法を検討し,単一画像からの自動落下検出のためのディープラーニングフレームワークであるsingle shot human fall detector(sshfd)を提案する。 これは2つの重要なイノベーションによって達成される。 まず,出現特性に不変な人間のポーズに基づく転倒表現を提案する。 次に, 3次元ポーズ推定と転倒認識のためのニューラルネットワークモデルを提案する。 パブリック・フォールデータセットを用いた実験により,我々のフレームワークは,合成データから純粋に学習した3次元ポーズ推定と転倒認識の知識を,実世界のシナリオにおける正確な転倒検出のための一般化能力を示す。

Falling can have fatal consequences for elderly people especially if the fallen person is unable to call for help due to loss of consciousness or any injury. Automatic fall detection systems can assist through prompt fall alarms and by minimizing the fear of falling when living independently at home. Existing vision-based fall detection systems lack generalization to unseen environments due to challenges such as variations in physical appearances, different camera viewpoints, occlusions, and background clutter. In this paper, we explore ways to overcome the above challenges and present Single Shot Human Fall Detector (SSHFD), a deep learning based framework for automatic fall detection from a single image. This is achieved through two key innovations. First, we present a human pose based fall representation which is invariant to appearance characteristics. Second, we present neural network models for 3d pose estimation and fall recognition which are resilient to missing joints due to occluded body parts. Experiments on public fall datasets show that our framework successfully transfers knowledge of 3d pose estimation and fall recognition learnt purely from synthetic data to unseen real-world data, showcasing its generalization capability for accurate fall detection in real-world scenarios.
翻訳日:2022-12-17 12:48:09 公開日:2020-04-03
# 尾を区切ることを学ぶ

Learning to Segment the Tail ( http://arxiv.org/abs/2004.00900v2 )

ライセンス: Link先を確認
Xinting Hu, Yi Jiang, Kaihua Tang, Jingyuan Chen, Chunyan Miao, Hanwang Zhang(参考訳) 実世界の視覚認識には、大規模ロングテールデータの極端なサンプル不均衡を扱う必要がある。 我々は,LVISタスクの課題に対して,データ全体をバランスの取れた部分に分割し,各部分の征服に漸進的な学習を適用する,"分別/分別"戦略を提案する。 これは、新しい学習パラダイム、すなわち、時間とともに進化する課題に特に効果的である、クラスインクリメンタルな少数ショット学習に由来する。 1)旧式の知識レビューと授業の不均衡 2)新学級学習における数ショットデータ。 われわれはLearning to Segment the Tail (LST)と呼んでいる。 特に,古いクラスイメージからのインスタンスレベルのサンプルのバランスをとるために,メモリ効率のよい近似であるインスタンスレベルのバランスドリプレイスキームを設計する。 また,メタモジュールを新たなクラス学習に利用し,モジュールパラメータを漸進的なフェーズで共有し,学習から学習までの知識をデータリッチヘッドからデータポーアテールへと段階的に獲得することを提案する。 ヘッドクラスの忘れを少し犠牲にして、私たちは10インスタンス未満のテールクラスに対して8.3%のAP改善を得ることができ、1,230クラス全体で2.0%のAP向上を達成することができます。

Real-world visual recognition requires handling the extreme sample imbalance in large-scale long-tailed data. We propose a "divide&conquer" strategy for the challenging LVIS task: divide the whole data into balanced parts and then apply incremental learning to conquer each one. This derives a novel learning paradigm: class-incremental few-shot learning, which is especially effective for the challenge evolving over time: 1) the class imbalance among the old-class knowledge review and 2) the few-shot data in new-class learning. We call our approach Learning to Segment the Tail (LST). In particular, we design an instance-level balanced replay scheme, which is a memory-efficient approximation to balance the instance-level samples from the old-class images. We also propose to use a meta-module for new-class learning, where the module parameters are shared across incremental phases, gaining the learning-to-learn knowledge incrementally, from the data-rich head to the data-poor tail. We empirically show that: at the expense of a little sacrifice of head-class forgetting, we can gain a significant 8.3% AP improvement for the tail classes with less than 10 instances, achieving an overall 2.0% AP boost for the whole 1,230 classes.
翻訳日:2022-12-17 12:46:43 公開日:2020-04-03
# オンラインセキュリティモニタリングのためのデータ駆動過渡安定境界生成

Data-Driven Transient Stability Boundary Generation for Online Security Monitoring ( http://arxiv.org/abs/2004.01369v1 )

ライセンス: Link先を確認
Rong Yan and Guangchao Geng and Quanyuan Jiang(参考訳) 過渡安定境界(transient stability boundary, tsb)は、電力系統のオンラインセキュリティ監視において重要なツールであるが、実際には、時間領域シミュレーション(tds)のような最先端の手法で高い計算負荷を被り、多数のシナリオ(運用ポイント(ops)やn-1コンティンジェンシーなど)が考慮されている。 この作業の目的は、制限された時間内に境界に近い十分なクリティカルなサンプルを生成し、現在のOPにおけるすべてのクリティカルなシナリオをカバーするデータ駆動フレームワークを確立することである。 したがって、時間内に電流OPを追跡することにより、正確なTSBを定期的にリフレッシュすることができる。 そのアイデアは、安定性の境界付近でより多くのデータサンプルを得るための探索戦略を開発し、残りの部分を少ないサンプルで横断する。 この目的を達成するため、オンライン監視において最も代表的なシナリオを見つけ、定期的にTSBを更新するために、特別に設計された指数感度に基づく検索戦略と臨界シナリオ選択機構を提案する。 2つのケーススタディにより提案手法の有効性が検証された。

Transient stability boundary (TSB) is an important tool in power system online security monitoring, but practically it suffers from high computational burden using state-of-the-art methods, such as time-domain simulation (TDS), with numerous scenarios taken into account (e.g., operating points (OPs) and N-1 contingencies). The purpose of this work is to establish a data-driven framework to generate sufficient critical samples close to the boundary within a limited time, covering all critical scenarios in current OP. Therefore, accurate TSB can be periodically refreshed by tracking current OP in time. The idea is to develop a search strategy to obtain more data samples near the stability boundary, while traverse the rest part with fewer samples. To achieve this goal, a specially designed transient index sensitivity based search strategy and critical scenarios selection mechanism are proposed, in order to find out the most representative scenarios and periodically update TSB for online monitoring. Two case studies validate effectiveness of the proposed method.
翻訳日:2022-12-17 05:12:23 公開日:2020-04-03
# CTを用いたアンサンブルAIアルゴリズムによる膵癌のリスク予測

Predicting the risk of pancreatic cancer with a CT-based ensemble AI algorithm ( http://arxiv.org/abs/2004.01388v1 )

ライセンス: Link先を確認
Chenjie Zhou MD, Jianhua Ma Ph.D, Xiaoping Xu MD, Lei Feng MD, Adilijiang Yimamu MD, Xianlong Wang MD, Zhiming Li MD, Jianhua Mo MS, Chengyan Huang MS, Dexia Kong MS, Yi Gao MD, Shulong Li Ph.D(参考訳) 目的:膵癌は致死性疾患であり、診断が困難であり、通常は予後不良や死亡率が高い。 あらゆる種類の膵癌の早期がんリスクを正確かつ普遍的に予測する人工知能(AI)アルゴリズムの開発は非常に重要である。 非造影CTによるあらゆる膵病変の普遍的癌リスクを予測するためのアンサンブルAIアルゴリズムを提案する。 方法: このアルゴリズムは,RadSTM-ERと呼ばれるバイナリ分類器を構築するためのエビデンス推論(ER)技術を用いて,放射能法と支持テンソルマシン(STM)を組み合わせる。 RadSTM-ERは、CTからSTMによって自動的に学習された放射線学や学習の特徴を利用して、病変のより良い特徴を示す。 病理診断は135例で,97例は悪性病変であった。 被験者27名を無作為に無作為に選抜し, 残りの患者は5倍のクロス検証実験を行い, ハイパーパラメータの確認, 最適な手作り特徴の選択, モデルの訓練を行った。 結果: RadSTM-ER は、受信機の動作特性曲線 0.8951、精度 85.19%、感度 88.89%、特異性 77.78%、正の予測値 88.89%、負の予測値 77.78% という独立した試験結果を得た。 結論: これらの結果は, 膵病変の癌リスク予測において, 非コントラストCTベースのRadSTM-ERの可能性を示す従来の4つのAIアルゴリズムである5つの実験放射線技師の診断成績よりも優れている。

Objectives: Pancreatic cancer is a lethal disease, hard to diagnose and usually results in poor prognosis and high mortality. Developing an artificial intelligence (AI) algorithm to accurately and universally predict the early cancer risk of all kinds of pancreatic cancer is extremely important. We propose an ensemble AI algorithm to predict universally cancer risk of all kinds of pancreatic lesions with noncontrast CT. Methods: Our algorithm combines the radiomics method and a support tensor machine (STM) by the evidence reasoning (ER) technique to construct a binary classifier, called RadSTM-ER. RadSTM-ER takes advantage of the handcrafted features used in radiomics and learning features learned automatically by the STM from the CTs for presenting better characteristics of lesions. The patient cohort consisted of 135 patients with pathological diagnosis results where 97 patients had malignant lesions. Twenty-seven patients were randomly selected as independent test samples, and the remaining patients were used in a 5-fold cross validation experiment to confirm the hyperparameters, select optimal handcrafted features and train the model. Results: RadSTM-ER achieved independent test results: an area under the receiver operating characteristic curve of 0.8951, an accuracy of 85.19%, a sensitivity of 88.89%, a specificity of 77.78%, a positive predictive value of 88.89% and a negative predictive value of 77.78%. Conclusions: These results are better than the diagnostic performance of the five experimental radiologists, four conventional AI algorithms, which initially demonstrate the potential of noncontrast CT-based RadSTM-ER in cancer risk prediction for all kinds of pancreatic lesions.
翻訳日:2022-12-17 05:12:03 公開日:2020-04-03
# コードの大規模な異常検出を使用してKotlinコンパイラを改善する

Using Large-Scale Anomaly Detection on Code to Improve Kotlin Compiler ( http://arxiv.org/abs/2004.01618v1 )

ライセンス: Link先を確認
Timofey Bryksin, Victor Petukhov, Ilya Alexin, Stanislav Prikhodko, Alexey Shpilman, Vladimir Kovalenko, Nikita Povarov(参考訳) 本研究では,ソースコードとバイトコードに異常検出を適用し,プログラミング言語とそのコンパイラの開発を容易にする。 我々は、異常を特定のプログラミング言語で書かれた典型的なコードとは異なるコードフラグメントとして定義する。 このようなコードフラグメントを特定することは、言語開発者とエンドユーザの両方にとって有益である。 さらに、異常は言語設計の問題に対応できる。 この研究は、ターゲットプログラミング言語としてkotlinを選択します。 本稿では,ソースコードとバイトコードのベクトル表現と,ベクトル化されたコードスニペット間の異常検出へのアプローチの概要と議論を行う。 本稿では,構文木異常と,コンパイルされたバイトコードにのみ発生するコンパイラ誘発異常という,2種類の異常を検出する手法を提案する。 本稿では,ベクトル化と異常検出の異なる組み合わせを用いたいくつかの実験について述べるとともに,検出された異常の種類と言語開発者の有用性について考察する。 抽出された異常と基礎となる抽出技術が言語開発に付加価値をもたらすことを示す。

In this work, we apply anomaly detection to source code and bytecode to facilitate the development of a programming language and its compiler. We define anomaly as a code fragment that is different from typical code written in a particular programming language. Identifying such code fragments is beneficial to both language developers and end users, since anomalies may indicate potential issues with the compiler or with runtime performance. Moreover, anomalies could correspond to problems in language design. For this study, we choose Kotlin as the target programming language. We outline and discuss approaches to obtaining vector representations of source code and bytecode and to the detection of anomalies across vectorized code snippets. The paper presents a method that aims to detect two types of anomalies: syntax tree anomalies and so-called compiler-induced anomalies that arise only in the compiled bytecode. We describe several experiments that employ different combinations of vectorization and anomaly detection techniques and discuss types of detected anomalies and their usefulness for language developers. We demonstrate that the extracted anomalies and the underlying extraction technique provide additional value for language development.
翻訳日:2022-12-17 05:11:13 公開日:2020-04-03
# 粒状計算:修正分割行列による非粒状化の拡張スキーム

Granular Computing: An Augmented Scheme of Degranulation Through a Modified Partition Matrix ( http://arxiv.org/abs/2004.03379v1 )

ライセンス: Link先を確認
Kaijie Xu, Witold Pedrycz, Zhiwu Li, and Mengdao Xing(参考訳) 人工知能の重要な技術である粒度コンピューティング(grc)は、新しい分野のパラダイムとして登場し、近年注目を集めている。 大量の数値データの抽象的かつ効率的なキャラクタリゼーションを形成する情報顆粒は、grcの基本構成と見なされている。 プロトタイプとパーティション行列を生成することで、ファジィクラスタリングは一般的に遭遇する情報グラニュレーションの方法である。 デグラニュレーションは、粒度の代表に基づいて完了したデータ再構成を伴う。 従来の研究では, 再建誤差と造粒プロセスの性能に相関があることが示されている。 通常、脱粒誤差が低ければ低いほど、顆粒化性能が向上する。 しかし, 従来のデグラニュレーション法では, 元の数値データの復元は不可能であり, 復元誤差の発生の背景にある重要な理由の1つである。 本研究では, 脱顆粒の質を高めるため, 分割行列の変更による拡張スキームの開発を行った。 拡張スキームの提案により, 造粒・脱粒機構の新たな集成に着目する。 構築されたアプローチでは、プロトタイプをデータセット行列と分割行列の積として表現することができる。 そして, 脱顆粒過程において, 再構成された数値データを分割行列とプロトタイプの行列の積に分解することができる。 顆粒化と脱粒は、分割行列とファズフィケーション係数を持つデータ部分空間とプロトタイプ部分空間の間の一般化された回転と見なされる。 分割行列を変更することで、新しい分割行列は一連の行列演算によって構成される。 我々は開発計画の徹底的な分析を行う。 実験結果は基礎となる概念枠組みと一致している

As an important technology in artificial intelligence Granular Computing (GrC) has emerged as a new multi-disciplinary paradigm and received much attention in recent years. Information granules forming an abstract and efficient characterization of large volumes of numeric data have been considered as the fundamental constructs of GrC. By generating prototypes and partition matrix, fuzzy clustering is a commonly encountered way of information granulation. Degranulation involves data reconstruction completed on a basis of the granular representatives. Previous studies have shown that there is a relationship between the reconstruction error and the performance of the granulation process. Typically, the lower the degranulation error is, the better performance of granulation is. However, the existing methods of degranulation usually cannot restore the original numeric data, which is one of the important reasons behind the occurrence of the reconstruction error. To enhance the quality of degranulation, in this study, we develop an augmented scheme through modifying the partition matrix. By proposing the augmented scheme, we dwell on a novel collection of granulation-degranulation mechanisms. In the constructed approach, the prototypes can be expressed as the product of the dataset matrix and the partition matrix. Then, in the degranulation process, the reconstructed numeric data can be decomposed into the product of the partition matrix and the matrix of prototypes. Both the granulation and degranulation are regarded as generalized rotation between the data subspace and the prototype subspace with the partition matrix and the fuzzification factor. By modifying the partition matrix, the new partition matrix is constructed through a series of matrix operations. We offer a thorough analysis of the developed scheme. The experimental results are in agreement with the underlying conceptual framework
翻訳日:2022-12-17 05:10:38 公開日:2020-04-03
# マルチスケールシステムにおける確率的パラメータ化のためのニューラルネットワークによる再サンプリング

Resampling with neural networks for stochastic parameterization in multiscale systems ( http://arxiv.org/abs/2004.01457v1 )

ライセンス: Link先を確認
Daan Crommelin, Wouter Edeling(参考訳) マルチスケール力学系のシミュレーションでは、すべての関連する過程を明示的に解決できるわけではない。 未解決のプロセスの効果を考慮に入れることは重要である。 本稿では,完全解決シミュレーションによる観測や参照データの条件付き再サンプリングに使用される機械学習手法を提案する。 これは、マクロ変数に基づく参照データのサブセットの確率的分類に基づいている。 この方法は、未解決スケールの不確実性を考慮して確率的なパラメータ化を定式化するために用いられる。 パラメータ化手法に挑戦する2つの異なるパラメータ設定を用いて,lorenz 96システム上でのアプローチを検証する。

In simulations of multiscale dynamical systems, not all relevant processes can be resolved explicitly. Taking the effect of the unresolved processes into account is important, which introduces the need for paramerizations. We present a machine-learning method, used for the conditional resampling of observations or reference data from a fully resolved simulation. It is based on the probabilistic classiffcation of subsets of reference data, conditioned on macroscopic variables. This method is used to formulate a parameterization that is stochastic, taking the uncertainty of the unresolved scales into account. We validate our approach on the Lorenz 96 system, using two different parameter settings which are challenging for parameterization methods.
翻訳日:2022-12-17 05:10:18 公開日:2020-04-03
# 文書画像分割のための高速完全オクターブ畳み込みニューラルネットワーク

A Fast Fully Octave Convolutional Neural Network for Document Image Segmentation ( http://arxiv.org/abs/2004.01317v1 )

ライセンス: Link先を確認
Ricardo Batista das Neves Junior, Luiz Felipe Ver\c{c}osa, David Mac\^edo, Byron Leite Dantas Bezerra, Cleber Zanchettin(参考訳) Know Your Customer (KYC) と Anti Money Laundering (AML) は、個人識別文書、類似性、生身の確認、住所の証明に基づく、世界中のオンライン顧客識別のプラクティスである。 基本的な規制問題に答えるには、あなたが誰だと言うのか? 顧客は有効な識別文書(ID)をアップロードする必要がある。 このタスクは、これらの文書は多様であり、異なる複雑な背景、いくつかの閉塞、部分的な回転、品質の低下、損傷を示す可能性があるため、いくつかの計算上の課題を課している。 高度なテキストと文書のセグメンテーションアルゴリズムがID画像の処理に使われた。 そこで本研究では,U-Netに基づく文書のエッジとテキスト領域の検出手法について検討した。 イメージセグメンテーションの有望な結果に加えて、イメージセグメンテーションは顧客デバイスタスクであるため、U-Netベースのアプローチは実際のアプリケーションでは計算コストがかかる。 本研究では,オクタベ・コンボリューションに基づくモデル最適化を提案し,モバイルアプリケーションやロボットアプリケーションなど,ストレージ,処理,時間資源が制限されている状況に適応する手法を提案する。 我々はブラジルの文書の実際のID画像からなるCDPhotoDatasetとDTDDatasetの2つの新しいデータセットで評価実験を行った。 その結果,提案手法はセグメンテーションタスクの文書化やポータブル化に有効であることがわかった。

The Know Your Customer (KYC) and Anti Money Laundering (AML) are worldwide practices to online customer identification based on personal identification documents, similarity and liveness checking, and proof of address. To answer the basic regulation question: are you whom you say you are? The customer needs to upload valid identification documents (ID). This task imposes some computational challenges since these documents are diverse, may present different and complex backgrounds, some occlusion, partial rotation, poor quality, or damage. Advanced text and document segmentation algorithms were used to process the ID images. In this context, we investigated a method based on U-Net to detect the document edges and text regions in ID images. Besides the promising results on image segmentation, the U-Net based approach is computationally expensive for a real application, since the image segmentation is a customer device task. We propose a model optimization based on Octave Convolutions to qualify the method to situations where storage, processing, and time resources are limited, such as in mobile and robotic applications. We conducted the evaluation experiments in two new datasets CDPhotoDataset and DTDDataset, which are composed of real ID images of Brazilian documents. Our results showed that the proposed models are efficient to document segmentation tasks and portable.
翻訳日:2022-12-17 05:05:46 公開日:2020-04-03
# 正規分布変換を用いた複数3次元LiDARの局所化とマッピング

Characterization of Multiple 3D LiDARs for Localization and Mapping using Normal Distributions Transform ( http://arxiv.org/abs/2004.01374v1 )

ライセンス: Link先を確認
Alexander Carballo, Abraham Monrroy, David Wong, Patiphon Narksri, Jacob Lambert, Yuki Kitsukawa, Eijiro Takeuchi, Shinpei Kato, and Kazuya Takeda(参考訳) 本稿では,自動運転オープンソースプラットフォームautowareに実装された正規分布変換(ndt)アルゴリズムの共通参照として,マッピングや車両のローカライズを行うための,さまざまなメーカ,モデル,レーザー構成をカバーする10種類の3dライダーセンサの詳細な比較を行った。 lidarのデータは、私たちのlidar benchmarking and reference(libre)データセットのサブセットで、各センサーから独立して取得し、公道で複数回走行する車両から毎日異なる時刻に取得します。 本研究では,(1)平均地図エントロピーに基づく評価マップの品質を含む3次元地図作成作業における各LiDARの性能と特性を解析し,(2)地上の真理参照マップを用いた6-DOFローカライゼーションを行った。

In this work, we present a detailed comparison of ten different 3D LiDAR sensors, covering a range of manufacturers, models, and laser configurations, for the tasks of mapping and vehicle localization, using as common reference the Normal Distributions Transform (NDT) algorithm implemented in the self-driving open source platform Autoware. LiDAR data used in this study is a subset of our LiDAR Benchmarking and Reference (LIBRE) dataset, captured independently from each sensor, from a vehicle driven on public urban roads multiple times, at different times of the day. In this study, we analyze the performance and characteristics of each LiDAR for the tasks of (1) 3D mapping including an assessment map quality based on mean map entropy, and (2) 6-DOF localization using a ground truth reference map.
翻訳日:2022-12-17 05:05:20 公開日:2020-04-03
# クロスオーバーネット:ロバストセグメンテーションのための垂直-水平クロスオーバー関係の活用

Crossover-Net: Leveraging the Vertical-Horizontal Crossover Relation for Robust Segmentation ( http://arxiv.org/abs/2004.01397v1 )

ライセンス: Link先を確認
Qian Yu, Yinghuan Shi, Yefeng Zheng, Yang Gao, Jianbing Zhu, Yakang Dai(参考訳) 医療画像中の非伸長組織に対するロバストなセグメンテーションは、異なる患者におけるこれらの組織の形状、大きさ、外観のばらつきが大きいため、実現が困難である。 本稿では,医療画像におけるロバストセグメンテーションのためのクロスオーバーネットと呼ばれるエンドツーエンドの訓練可能なディープセグメンテーションモデルを提案する。 本モデルでは, 水平方向, 垂直方向からの表現は, 異なる局所的な外観と直交状況の情報を提供することができ, 同時にこれら2つの方向から学習することで, 異なる組織間の識別を高めるのに役立つ。 具体的には、セグメンテーションタスクを画素/ボクセル方向の予測問題に変換することにより、まず、垂直および水平の2つの(直交および重ね合わせ)パッチからなるクロスオーバーパッチ(crossover-patch)というクロス型パッチを提案し、直交垂直および水平関係を捉える。 そこで我々は,クロスオーバー・ネットを開発し,クロスオーバー・パッチが捉えた垂直-水平交叉関係を学習する。 この目的を達成するために、典型的なクロスオーバーパッチの表現を学習するために、(1)垂直および水平のパッチの重なり合う領域に一貫性を課し、(2)非オーバーラップ領域の多様性を維持する新しい損失関数を設計する。 今回我々は,ct腎腫瘍,mr心筋,x線乳房腫瘤分画法について広範囲に検討した。 評価結果と最先端セグメンテーションモデルとの比較により, 評価結果が得られた。

Robust segmentation for non-elongated tissues in medical images is hard to realize due to the large variation of the shape, size, and appearance of these tissues in different patients. In this paper, we present an end-to-end trainable deep segmentation model termed Crossover-Net for robust segmentation in medical images. Our proposed model is inspired by an insightful observation: during segmentation, the representation from the horizontal and vertical directions can provide different local appearance and orthogonality context information, which helps enhance the discrimination between different tissues by simultaneously learning from these two directions. Specifically, by converting the segmentation task to a pixel/voxel-wise prediction problem, firstly, we originally propose a cross-shaped patch, namely crossover-patch, which consists of a pair of (orthogonal and overlapped) vertical and horizontal patches, to capture the orthogonal vertical and horizontal relation. Then, we develop the Crossover-Net to learn the vertical-horizontal crossover relation captured by our crossover-patches. To achieve this goal, for learning the representation on a typical crossover-patch, we design a novel loss function to (1) impose the consistency on the overlap region of the vertical and horizontal patches and (2) preserve the diversity on their non-overlap regions. We have extensively evaluated our method on CT kidney tumor, MR cardiac, and X-ray breast mass segmentation tasks. Promising results are achieved according to our extensive evaluation and comparison with the state-of-the-art segmentation models.
翻訳日:2022-12-17 05:05:02 公開日:2020-04-03
# 人口統計学バイアス:フィンガーベイン認識システムへの挑戦?

Demographic Bias: A Challenge for Fingervein Recognition Systems? ( http://arxiv.org/abs/2004.01418v1 )

ライセンス: Link先を確認
P. Drozdowski, B. Prommegger, G. Wimmer, R. Schraml, C. Rathgeb, A. Uhl, C. Busch(参考訳) 近年、多くの自動システムの基盤となるアルゴリズム(バイオメトリックスを含む)の潜在的なバイアスに関する懸念が高まっている。 この文脈では、偏見付きアルゴリズムは、性別や年齢などの特定の(しばしば差別防止法によって保護される)属性に基づいて、異なるグループの個人に対して統計的に異なる結果を生成する。 顔認識アルゴリズムに関するいくつかの予備的な研究は存在するが、血管のバイオメトリック特性についてはまだ言及されていない。 そこで本研究では,フィンガーベイン認識に関する問題を確認するために,いくつかの一般的な認識アルゴリズムをベンチマークした。 実験的評価は、テストされたアルゴリズムのバイアスの欠如を示唆するが、これらの予備的な結果を検証し確認するには、より大規模なデータセットを使った将来の作業が必要である。

Recently, concerns regarding potential biases in the underlying algorithms of many automated systems (including biometrics) have been raised. In this context, a biased algorithm produces statistically different outcomes for different groups of individuals based on certain (often protected by anti-discrimination legislation) attributes such as sex and age. While several preliminary studies investigating this matter for facial recognition algorithms do exist, said topic has not yet been addressed for vascular biometric characteristics. Accordingly, in this paper, several popular types of recognition algorithms are benchmarked to ascertain the matter for fingervein recognition. The experimental evaluation suggests lack of bias for the tested algorithms, although future works with larger datasets are needed to validate and confirm those preliminary results.
翻訳日:2022-12-17 05:04:34 公開日:2020-04-03
# 制約のないodia文字認識のためのスパース概念符号化テトロレット変換

Sparse Concept Coded Tetrolet Transform for Unconstrained Odia Character Recognition ( http://arxiv.org/abs/2004.01551v1 )

ライセンス: Link先を確認
Kalyan S Dash, N B Puhan, G Panda(参考訳) 自動手書き文字認識システムにおいて, スペクトル分解による特徴表現は頑健な手法の1つである。 そこで本稿では,制約のない手書き文字に対して,スパース・コンセプト・コード・テトロレットを用いた新しい画像表現手法を提案する。 従来のウェーブレットのようなスペクトル分解に固定された二乗ブロックを使用しないテトロミノは、形状を捉えたテトロミノを採用することで、手書きの局所的な変動を保っている。 低エントロピーのテトロレット表現のスパースな概念符号化は、優れたパターン識別のために重要な隠れ情報(概念)を抽出する。 Bangla, Devanagari, Odia, English, Arabic, Teluguの6つの異なるスクリプトで10のデータベースを用いて大規模な実験が行われた。 ランダムフォレスト、サポートベクターマシン(svm)、最寄りの隣接および修正された二次判別関数(mqdf)といった標準の分類器と共に提案された特徴表現は、すべてのデータベース、viz. 99.40% (mnist), 98.72% と 93.24% (iitbbs), 99.38% と 99.22% (isi kolkata) において最先端の認識性能を達成した。 提案するOCRシステムは,PCA,SparsePCA,SparseLDAなどのスパースベース技術よりも,既存の変換(Wavelet,Slantlet,Stockwell)よりも優れていた。

Feature representation in the form of spatio-spectral decomposition is one of the robust techniques adopted in automatic handwritten character recognition systems. In this regard, we propose a new image representation approach for unconstrained handwritten alphanumeric characters using sparse concept coded Tetrolets. Tetrolets, which does not use fixed dyadic square blocks for spectral decomposition like conventional wavelets, preserve the localized variations in handwritings by adopting tetrominoes those capture the shape geometry. The sparse concept coding of low entropy Tetrolet representation is found to extract the important hidden information (concept) for superior pattern discrimination. Large scale experimentation using ten databases in six different scripts (Bangla, Devanagari, Odia, English, Arabic and Telugu) has been performed. The proposed feature representation along with standard classifiers such as random forest, support vector machine (SVM), nearest neighbor and modified quadratic discriminant function (MQDF) is found to achieve state-of-the-art recognition performance in all the databases, viz. 99.40% (MNIST); 98.72% and 93.24% (IITBBS); 99.38% and 99.22% (ISI Kolkata). The proposed OCR system is shown to perform better than other sparse based techniques such as PCA, SparsePCA and SparseLDA, as well as better than existing transforms (Wavelet, Slantlet and Stockwell).
翻訳日:2022-12-17 05:04:23 公開日:2020-04-03
# マーカー制御流域と深層学習を組み合わせた細胞セグメンテーション

Cell Segmentation by Combining Marker-Controlled Watershed and Deep Learning ( http://arxiv.org/abs/2004.01607v1 )

ライセンス: Link先を確認
Filip Lux, Petr Matula(参考訳) 高密度クラスター化細胞の画像解析のためのセルセグメンテーション法を提案する。 この方法は、マーカー制御された流域変換と畳み込みニューラルネットワーク(CNN)の強度を組み合わせる。 本稿では,クラスタ化セルの3つのセルトラッキングチャレンジ(ctc)データセットの汎用性と高性能性を示す。 すべてのテストデータセットにおいて,本手法はセル検出とセグメンテーションの両方において最高性能に達した。 1) 流域マーカー関数とセグメンテーション関数の両方を予測すると, セグメンテーションの精度が著しく向上する。 (2)両方の関数は独立して学習できる。 (3) 伸縮および剛性幾何変換によるトレーニングデータ拡張は, 弾性変換を伴う拡張よりも優れている。 本手法は簡便で,最先端の性能を持つ各種データに対してよく一般化する。

We propose a cell segmentation method for analyzing images of densely clustered cells. The method combines the strengths of marker-controlled watershed transformation and a convolutional neural network (CNN). We demonstrate the method universality and high performance on three Cell Tracking Challenge (CTC) datasets of clustered cells captured by different acquisition techniques. For all tested datasets, our method reached the top performance in both cell detection and segmentation. Based on a series of experiments, we observed: (1) Predicting both watershed marker function and segmentation function significantly improves the accuracy of the segmentation. (2) Both functions can be learned independently. (3) Training data augmentation by scaling and rigid geometric transformations is superior to augmentation that involves elastic transformations. Our method is simple to use, and it generalizes well for various data with state-of-the-art performance.
翻訳日:2022-12-17 05:03:48 公開日:2020-04-03
# 二重潜在空間ナビゲーションによる内在的点雲補間

Intrinsic Point Cloud Interpolation via Dual Latent Space Navigation ( http://arxiv.org/abs/2004.01661v1 )

ライセンス: Link先を確認
Marie-Julie Rakotosaona, Maks Ovsjanikov(参考訳) 本稿では, 固有形状特性を保持するために, 点雲として表される3次元形状を補間・操作する学習手法を提案する。 私たちのアプローチは、形状合成を可能にするデュアルエンコーディング空間の構築と、ポイントクラウドデータでは一般的に利用できない固有の形状情報へのリンクを提供することに基づいています。 提案手法は1パスで動作し,既存の手法による高価な最適化を回避する。 さらに、2つの潜在空間アプローチによって提供される強い正規化は、さまざまなデータセットにまたがるノイズの多いポイントクラウドから、挑戦的な設定で形状回復を改善するのにも役立ちます。 広範な実験により,本手法はベースラインと比較してより現実的かつスムーズな補間を実現することが示された。

We present a learning-based method for interpolating and manipulating 3D shapes represented as point clouds, that is explicitly designed to preserve intrinsic shape properties. Our approach is based on constructing a dual encoding space that enables shape synthesis and, at the same time, provides links to the intrinsic shape information, which is typically not available on point cloud data. Our method works in a single pass and avoids expensive optimization, employed by existing techniques. Furthermore, the strong regularization provided by our dual latent space approach also helps to improve shape recovery in challenging settings from noisy point clouds across different datasets. Extensive experiments show that our method results in more realistic and smoother interpolations compared to baselines.
翻訳日:2022-12-17 05:03:35 公開日:2020-04-03
# 予測のためのSIRモデルと機械学習技術によるCOVID-19パンデミックの解析

Analysis of the COVID-19 pandemic by SIR model and machine learning technics for forecasting ( http://arxiv.org/abs/2004.01574v1 )

ライセンス: Link先を確認
Babacar Mbaye Ndiaye, Lena Tendeng, Diaraf Seck(参考訳) 本研究は、新型コロナウイルスのパンデミックを現実世界で分析するためのsirモデルと機械学習ツールを提案する試みである。 ここでは,<cite{datahub} の公開データに基づいて,主要なパンデミックパラメータを推定し,実際の世界,特にセネガルにおける摂動点と可能な終了時刻の予測を行う。 世界保健機関(who)による2019年の新型コロナウイルスの流行は、中国全土、そして世界中で急速に広がった。 楽観的な推計の下では、一部の国でのパンデミックはすぐに終結するが、世界のほとんどの国(米国、イタリアなど)では、反パンデミックの打撃は4月末まで続く。

This work is a trial in which we propose SIR model and machine learning tools to analyze the coronavirus pandemic in the real world. Based on the public data from \cite{datahub}, we estimate main key pandemic parameters and make predictions on the inflection point and possible ending time for the real world and specifically for Senegal. The coronavirus disease 2019, by World Health Organization, rapidly spread out in the whole China and then in the whole world. Under optimistic estimation, the pandemic in some countries will end soon, while for most part of countries in the world (US, Italy, etc.), the hit of anti-pandemic will be no later than the end of April.
翻訳日:2022-12-17 05:03:00 公開日:2020-04-03
# 高次元一般化付加モデルにおける一様推論

Uniform Inference in High-Dimensional Generalized Additive Models ( http://arxiv.org/abs/2004.01623v1 )

ライセンス: Link先を確認
Philipp Bach, Sven Klaassen, Jannis Kueck, Martin Spindler(参考訳) 一般加法モデル $y=f_1(x_1)+\ldots + f_p(x_p) + \varepsilon$ における非パラメトリック成分 $f_1$ の一様有効信頼帯法を開発した。 シーブ推定を採用し、それを高次元Z推定フレームワークに埋め込むことで、最初のコンポーネント$f_1$に対して一様に有効な信頼バンドを構築することができる。 通常、サンプルでレグレッサー数を増加させるような高次元の設定では、スパーシティの仮定は解析に不可欠である。 また,提案手法が小標本においても推定特性と被覆特性について信頼性の高い結果を与えることを示すシミュレーション実験を行った。 最後に,提案手法の実装と実用化を実証した実証アプリケーションを用いて提案手法について述べる。

We develop a method for uniform valid confidence bands of a nonparametric component $f_1$ in the general additive model $Y=f_1(X_1)+\ldots + f_p(X_p) + \varepsilon$ in a high-dimensional setting. We employ sieve estimation and embed it in a high-dimensional Z-estimation framework allowing us to construct uniformly valid confidence bands for the first component $f_1$. As usual in high-dimensional settings where the number of regressors $p$ may increase with sample, a sparsity assumption is critical for the analysis. We also run simulations studies which show that our proposed method gives reliable results concerning the estimation properties and coverage properties even in small samples. Finally, we illustrate our procedure with an empirical application demonstrating the implementation and the use of the proposed method in practice.
翻訳日:2022-12-17 05:02:47 公開日:2020-04-03
# timegate: 長距離活動におけるセグメントの条件ゲーティング

TimeGate: Conditional Gating of Segments in Long-range Activities ( http://arxiv.org/abs/2004.01808v1 )

ライセンス: Link先を確認
Noureldien Hussein, Mihir Jain, Babak Ehteshami Bejnordi(参考訳) 長い範囲のアクティビティを認識する場合、ビデオ全体を探索するのは、数分かかるので、徹底的で計算コストがかかる。 したがって、ビデオの健全な部分のみをサンプリングすることが非常に重要である。 長距離活動から最も代表的なセグメントを抽出するための条件付きゲーティングモジュールとともにTimeGateを提案する。 TimeGateには、以前のサンプリングメソッドの欠点に対処する2つの新しい特徴がある。 まず、セグメントの異なるサンプリングを可能にする。 したがって、TimeGateは最新のCNNと訓練されたエンドツーエンドを単一で統一されたモデルとして使用することができ、サンプリングはセグメントとそれらのコンテキストの両方で条件付けされる。 その結果、TimeGateは、セグメントの重要性がビデオコンテキストに大きく依存する長距離アクティビティに適している。TimeGateは、長距離アクティビティのための3つのベンチマークであるCharades、Breakfast、MultiThumosの既存のCNNの計算を減らす。 特にTimeGateは、分類精度を維持しながら、I3Dの計算を50%削減する。

When recognizing a long-range activity, exploring the entire video is exhaustive and computationally expensive, as it can span up to a few minutes. Thus, it is of great importance to sample only the salient parts of the video. We propose TimeGate, along with a novel conditional gating module, for sampling the most representative segments from the long-range activity. TimeGate has two novelties that address the shortcomings of previous sampling methods, as SCSampler. First, it enables a differentiable sampling of segments. Thus, TimeGate can be fitted with modern CNNs and trained end-to-end as a single and unified model.Second, the sampling is conditioned on both the segments and their context. Consequently, TimeGate is better suited for long-range activities, where the importance of a segment heavily depends on the video context.TimeGate reduces the computation of existing CNNs on three benchmarks for long-range activities: Charades, Breakfast and MultiThumos. In particular, TimeGate reduces the computation of I3D by 50% while maintaining the classification accuracy.
翻訳日:2022-12-17 04:56:04 公開日:2020-04-03
# 顔画像検索のための誤り補正マージンベースディープクロスモーダルハッシュ

Error-Corrected Margin-Based Deep Cross-Modal Hashing for Facial Image Retrieval ( http://arxiv.org/abs/2004.03378v1 )

ライセンス: Link先を確認
Fariborz Taherkhani, Veeru Talreja, Matthew C. Valenti, Nasser M. Nasrabadi(参考訳) クロスモーダルハッシュは、異種マルチメディアデータの共通のハミング空間へのマッピングを容易にする。 本稿では,ある顔属性の存在を入力クエリとして指定するバイナリベクトルを用いて,データベースから関連する顔画像を取得する,新たなクロスモーダルハッシュ方式であるdndcmh(cross-modal hashingarchitecture-deep neural decoder cross-modal hashing)を提案する。 DNDCMHネットワークは、属性ベースのDeep Cross-modal Hashing (ADCMH)モジュールと、マージン(m)ベースの損失関数を使用して、ハミング空間のモダリティ間の類似性を維持するためにコンパクトなバイナリコードを効率よく学習するニューラルネットワークで実装されたエラー訂正デコーダ(NECD)の2つの分離コンポーネントから構成される。 DNDCMHにおけるNECDネットワークの目的は、ADCMHが生成したハッシュコードを誤り訂正し、検索効率を向上させることである。 NECDネットワークは、マージンベース損失関数のマージン(m)よりも大きい誤差補正能力を有するように訓練される。 その結果、NECDは、ADCMHが生成した劣化したハッシュコードをmのハミング距離まで補正する。 我々はDNDCMHを標準データセット上で最先端のクロスモーダルハッシュ法と比較し,本手法の優位性を実証した。

Cross-modal hashing facilitates mapping of heterogeneous multimedia data into a common Hamming space, which can beutilized for fast and flexible retrieval across different modalities. In this paper, we propose a novel cross-modal hashingarchitecture-deep neural decoder cross-modal hashing (DNDCMH), which uses a binary vector specifying the presence of certainfacial attributes as an input query to retrieve relevant face images from a database. The DNDCMH network consists of two separatecomponents: an attribute-based deep cross-modal hashing (ADCMH) module, which uses a margin (m)-based loss function toefficiently learn compact binary codes to preserve similarity between modalities in the Hamming space, and a neural error correctingdecoder (NECD), which is an error correcting decoder implemented with a neural network. The goal of NECD network in DNDCMH isto error correct the hash codes generated by ADCMH to improve the retrieval efficiency. The NECD network is trained such that it hasan error correcting capability greater than or equal to the margin (m) of the margin-based loss function. This results in NECD cancorrect the corrupted hash codes generated by ADCMH up to the Hamming distance of m. We have evaluated and comparedDNDCMH with state-of-the-art cross-modal hashing methods on standard datasets to demonstrate the superiority of our method.
翻訳日:2022-12-17 04:55:25 公開日:2020-04-03
# 新型コロナウイルス:検査キットの割り当て戦略

COVID-19: Strategies for Allocation of Test Kits ( http://arxiv.org/abs/2004.01740v1 )

ライセンス: Link先を確認
Arpita Biswas, Shruthi Bannur, Prateek Jain, Srujana Merugu(参考訳) 新型コロナウイルス(covid-19)の感染拡大に伴い、さらに多くの人を系統的に検査することが重要である。 テストキットアロケーションの現在の戦略は、主にルールベースで、個人の保持に焦点を当てている (a)COVID-19の症状、 (b)旅行史又は旅行史 c) 確認された新型コロナウイルス患者との接触履歴。 このような検査戦略は、コミュニティの広がりによって感染した無症状者の発見を見逃す可能性がある。 そのため,地域社会の拡散防止と早期の新規症例の発見を目的とした1日あたりの検査キットの別予算の配分が重要である。 本報告では、テストキットを割り当てる問題を検討し、いくつかのソリューションアプローチについて論じる。 これらのアプローチは,コミュニティの拡大と新たなケースの早期発見に有効であると考えています。 さらに、これらのアプローチは、新型コロナウイルス感染を予測するために訓練された機械学習モデルの精度を向上させるために使用できる、偏りのないデータを収集するのに役立つ。

With the increasing spread of COVID-19, it is important to systematically test more and more people. The current strategy for test-kit allocation is mostly rule-based, focusing on individuals having (a) symptoms for COVID-19, (b) travel history or (c) contact history with confirmed COVID-19 patients. Such testing strategy may miss out on detecting asymptomatic individuals who got infected via community spread. Thus, it is important to allocate a separate budget of test-kits per day targeted towards preventing community spread and detecting new cases early on. In this report, we consider the problem of allocating test-kits and discuss some solution approaches. We believe that these approaches will be useful to contain community spread and detect new cases early on. Additionally, these approaches would help in collecting unbiased data which can then be used to improve the accuracy of machine learning models trained to predict COVID-19 infections.
翻訳日:2022-12-17 04:54:45 公開日:2020-04-03
# 自動ゲーム設計のためのソフトウェア工学

Software Engineering For Automated Game Design ( http://arxiv.org/abs/2004.01770v1 )

ライセンス: Link先を確認
Michael Cook(参考訳) より補助的かつ自動化されたゲームデザインシステムを開発するにつれて、これらのシステムがゲーム開発ワークフローにどのように統合されるべきか、どの程度の適応が必要かという疑問がますます重要になる。 本稿では,ゲームのコードベースを理解し,新たなゲームコードを生成し,その動作を評価する自動ゲームデザインシステムに対するソフトウェアエンジニアリング決定の影響について検討する。 ゲーム開発者が自動ゲームデザイナから完全に恩恵を受けるためには,ソフトウェアエンジニアリングに対する新たなアプローチが必要だ,と我々は主張する。

As we develop more assistive and automated game design systems, the question of how these systems should be integrated into game development workflows, and how much adaptation may be required, becomes increasingly important. In this paper we explore the impact of software engineering decisions on the ability of an automated game design system to understand a game's codebase, generate new game code, and evaluate its work. We argue that a new approach to software engineering may be required in order for game developers to fully benefit from automated game designers.
翻訳日:2022-12-17 04:54:32 公開日:2020-04-03
# シーンセグメンテーションに先立つコンテキスト

Context Prior for Scene Segmentation ( http://arxiv.org/abs/2004.01547v1 )

ライセンス: Link先を確認
Changqian Yu, Jingbo Wang, Changxin Gao, Gang Yu, Chunhua Shen, Nong Sang(参考訳) 最近の研究は、より正確なセグメンテーション結果を得るためにコンテキスト依存を広く研究してきた。 しかし、ほとんどのアプローチは文脈依存の異なるタイプを区別することは滅多になく、シーン理解を汚染する可能性がある。 本研究では,機能集約を直接監督し,クラス内コンテキストとクラス間コンテキストを明確に区別する。 具体的には、親和性喪失の監視を伴うコンテキスト優先を開発する。 Affinity Lossは入力画像とそれに対応する基底真理を与えられた場合、コンテキスト優先の学習を監督するために理想的な親和性マップを構築する。 学習されたContext Priorは同じカテゴリに属するピクセルを抽出し、逆のContext Priorは異なるクラスのピクセルに焦点を当てる。 従来のディープCNNに組み込み、提案されたContext Prior Layerは、クラス内およびクラス間依存関係を選択的にキャプチャし、堅牢な特徴表現につながる。 有効性を検証するために,有効なコンテキスト優先ネットワーク(CPNet)を設計する。 広範な定量的・質的評価は,提案手法が最先端のセマンティクスセグメンテーションアプローチに対して好適に機能することを示す。 具体的には、ADE20Kで46.3% mIoU、PASCAL-Contextで53.9% mIoU、Cityscapesで81.3% mIoUを達成する。 コードはhttps://git.io/ContextPrior.orgで入手できる。

Recent works have widely explored the contextual dependencies to achieve more accurate segmentation results. However, most approaches rarely distinguish different types of contextual dependencies, which may pollute the scene understanding. In this work, we directly supervise the feature aggregation to distinguish the intra-class and inter-class context clearly. Specifically, we develop a Context Prior with the supervision of the Affinity Loss. Given an input image and corresponding ground truth, Affinity Loss constructs an ideal affinity map to supervise the learning of Context Prior. The learned Context Prior extracts the pixels belonging to the same category, while the reversed prior focuses on the pixels of different classes. Embedded into a conventional deep CNN, the proposed Context Prior Layer can selectively capture the intra-class and inter-class contextual dependencies, leading to robust feature representation. To validate the effectiveness, we design an effective Context Prior Network (CPNet). Extensive quantitative and qualitative evaluations demonstrate that the proposed model performs favorably against state-of-the-art semantic segmentation approaches. More specifically, our algorithm achieves 46.3% mIoU on ADE20K, 53.9% mIoU on PASCAL-Context, and 81.3% mIoU on Cityscapes. Code is available at https://git.io/ContextPrior.
翻訳日:2022-12-17 04:47:14 公開日:2020-04-03
# dfnet:salient object detectionのための識別的特徴抽出および統合ネットワーク

DFNet: Discriminative feature extraction and integration network for salient object detection ( http://arxiv.org/abs/2004.01573v1 )

ライセンス: Link先を確認
Mehrdad Noori, Sina Mohammadi, Sina Ghofrani Majelan, Ali Bahri, Mohammad Havaei(参考訳) 畳み込みニューラルネットワークの強力な特徴抽出能力にもかかわらず、塩分検出にはいくつかの課題がある。 本稿では,課題の2つの側面に焦点を当てる。 i) サリエントオブジェクトは様々なサイズで現れるため、単一スケールの畳み込みを用いると適切な大きさをキャプチャできない。 さらに、その重要性を考慮せずにマルチスケール畳み込みを使用すると、モデルが混乱する可能性がある。 ii) マルチレベル機能の採用は、モデルがローカルとグローバルの両方のコンテキストを使用するのに役立つ。 しかし、全ての特徴を平等に扱うと、情報冗長性が生じる。 したがって、異なるレベルのどの機能が有用なのかをインテリジェントに選択するメカニズムが必要である。 最初の課題を解決するために,マルチスケール注意誘導モジュールを提案する。 このモジュールは、マルチスケールな特徴を効果的に抽出するだけでなく、サルエントオブジェクトのスケールに対応するより識別的な特徴マップにより多くの注意を向ける。 第2の課題に対処するために,注意に基づくマルチレベルインテグレータモジュールを提案する。 さらに, シャープニング損失関数は, より確実性が高く, ぼやけたサルエント対象の少ないサニエントマップを出力するようにネットワークを誘導し, クロスエントロピー損失よりも優れた性能を示す。 提案手法の一般化を示すために,初めて4つの異なるバックボーンを採用する。 5つの挑戦的データセットの実験により,本手法が最先端の性能を達成することを示す。 私たちのアプローチも高速で、リアルタイムの速度で実行可能です。

Despite the powerful feature extraction capability of Convolutional Neural Networks, there are still some challenges in saliency detection. In this paper, we focus on two aspects of challenges: i) Since salient objects appear in various sizes, using single-scale convolution would not capture the right size. Moreover, using multi-scale convolutions without considering their importance may confuse the model. ii) Employing multi-level features helps the model use both local and global context. However, treating all features equally results in information redundancy. Therefore, there needs to be a mechanism to intelligently select which features in different levels are useful. To address the first challenge, we propose a Multi-scale Attention Guided Module. This module not only extracts multi-scale features effectively but also gives more attention to more discriminative feature maps corresponding to the scale of the salient object. To address the second challenge, we propose an Attention-based Multi-level Integrator Module to give the model the ability to assign different weights to multi-level feature maps. Furthermore, our Sharpening Loss function guides our network to output saliency maps with higher certainty and less blurry salient objects, and it has far better performance than the Cross-entropy loss. For the first time, we adopt four different backbones to show the generalization of our method. Experiments on five challenging datasets prove that our method achieves the state-of-the-art performance. Our approach is fast as well and can run at a real-time speed.
翻訳日:2022-12-17 04:46:48 公開日:2020-04-03
# HandVoxNet: 深度マップからの3次元手形状とポス推定のための深部ボクセルベースネットワーク

HandVoxNet: Deep Voxel-Based Network for 3D Hand Shape and Pose Estimation from a Single Depth Map ( http://arxiv.org/abs/2004.01588v1 )

ライセンス: Link先を確認
Jameel Malik, Ibrahim Abdelaziz, Ahmed Elhayek, Soshi Shimada, Sk Aziz Ali, Vladislav Golyanik, Christian Theobalt, Didier Stricker(参考訳) 単一深度マップからの3次元手形状とポーズ推定は多くのアプリケーションにおいて新しい挑戦的なコンピュータビジョン問題である。 最先端の手法は、2次元の畳み込みニューラルネットワークを介して2次元の深度画像から3次元の手メッシュを直接回帰させ、画像の視点歪みによる推定の成果をもたらす。 対照的に, 3次元畳み込みを弱教師付きで訓練した新しいアーキテクチャを提案する。 本手法の入力は3次元ボキセル化深度マップであり, 2つの手形状表現に依存している。 1つ目は、正確な形状の3dボクセル化格子であるが、メッシュトポロジーやメッシュ頂点の数を保存していない。 第2の表現は3次元の手の表面であり、精度は低いが第1の表現の限界に悩まされない。 これら2つの表現の利点は、手面をボキセル化ハンド形状に登録することで組み合わせる。 広範な実験において、提案されたアプローチは、SynHand5Mデータセット上で、アートの状態を47.8%改善する。 さらに,voxelized depth mapsの強化方針により,実データを用いた3次元手ポーズ推定の精度がさらに向上した。 提案手法は,既存のアプローチと比較して,NYUおよびBigHand2.2Mデータセットに対して,視覚的に合理的かつ現実的な手形状を生成する。

3D hand shape and pose estimation from a single depth map is a new and challenging computer vision problem with many applications. The state-of-the-art methods directly regress 3D hand meshes from 2D depth images via 2D convolutional neural networks, which leads to artefacts in the estimations due to perspective distortions in the images. In contrast, we propose a novel architecture with 3D convolutions trained in a weakly-supervised manner. The input to our method is a 3D voxelized depth map, and we rely on two hand shape representations. The first one is the 3D voxelized grid of the shape which is accurate but does not preserve the mesh topology and the number of mesh vertices. The second representation is the 3D hand surface which is less accurate but does not suffer from the limitations of the first representation. We combine the advantages of these two representations by registering the hand surface to the voxelized hand shape. In the extensive experiments, the proposed approach improves over the state of the art by 47.8% on the SynHand5M dataset. Moreover, our augmentation policy for voxelized depth maps further enhances the accuracy of 3D hand pose estimation on real data. Our method produces visually more reasonable and realistic hand shapes on NYU and BigHand2.2M datasets compared to the existing approaches.
翻訳日:2022-12-17 04:46:27 公開日:2020-04-03
# PointGroup: 3Dインスタンスセグメンテーションのためのデュアルセットポイントグループ

PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation ( http://arxiv.org/abs/2004.01658v1 )

ライセンス: Link先を確認
Li Jiang, Hengshuang Zhao, Shaoshuai Shi, Shu Liu, Chi-Wing Fu, Jiaya Jia(参考訳) インスタンスセグメンテーションはシーン理解の重要なタスクである。 完全に開発された2dと比較して、ポイントクラウドの3dインスタンスセグメンテーションは改善の余地が大きい。 本稿では,オブジェクト間の空き空間を探索することによって,ポイントをグループ化することに焦点を当てた,新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを提案する。 点の特徴を抽出し,意味ラベルとオフセットを予測し,各点を各インスタンスのcentroidにシフトさせる2分岐ネットワークを設計した。 クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。 さらに,候補インスタンスを評価するためにスコアネットを定式化し,非最大抑制(nms)により重複を除去した。 我々はScanNet v2とS3DISという2つの挑戦的データセットについて広範な実験を行い、IoUしきい値0.5のmAPによって達成された54.9%と54.4%に対して、我々の手法は63.6%と64.0%の最高性能を達成した。

Instance segmentation is an important task for scene understanding. Compared to the fully-developed 2D, 3D instance segmentation for point clouds have much room to improve. In this paper, we present PointGroup, a new end-to-end bottom-up architecture, specifically focused on better grouping the points by exploring the void space between objects. We design a two-branch network to extract point features and predict semantic labels and offsets, for shifting each point towards its respective instance centroid. A clustering component is followed to utilize both the original and offset-shifted point coordinate sets, taking advantage of their complementary strength. Further, we formulate the ScoreNet to evaluate the candidate instances, followed by the Non-Maximum Suppression (NMS) to remove duplicates. We conduct extensive experiments on two challenging datasets, ScanNet v2 and S3DIS, on which our method achieves the highest performance, 63.6% and 64.0%, compared to 54.9% and 54.4% achieved by former best solutions in terms of mAP with IoU threshold 0.5.
翻訳日:2022-12-17 04:45:58 公開日:2020-04-03
# S2DNet:sparse-to-Dense特徴マッチングのための正確な対応学習

S2DNet: Learning Accurate Correspondences for Sparse-to-Dense Feature Matching ( http://arxiv.org/abs/2004.01673v1 )

ライセンス: Link先を確認
Hugo Germain, Guillaume Bourmaud, Vincent Lepetit(参考訳) 堅牢で正確な対応を確立することは、多くのコンピュータビジョンアルゴリズムの基本的なバックボーンである。 最近の学習に基づく特徴マッチング手法は、困難な条件下で頑健な対応を提供することで有望な結果をもたらすが、精度の面では制限されることが多い。 本稿では,S2DNetを提案する。S2DNetは,ロバストかつ高精度な通信を効率的に構築するための,新しい特徴マッチングパイプラインである。 スパース・ツー・ダンスのマッチングパラダイムを活用することで,対応学習問題を教師付き分類タスクとしてキャストし,高度にピークな対応マップの出力を学習する。 我々は,S2DNetがHPatchesベンチマークおよび複数の長期視覚的ローカライゼーションデータセットの最先端結果を達成することを示す。

Establishing robust and accurate correspondences is a fundamental backbone to many computer vision algorithms. While recent learning-based feature matching methods have shown promising results in providing robust correspondences under challenging conditions, they are often limited in terms of precision. In this paper, we introduce S2DNet, a novel feature matching pipeline, designed and trained to efficiently establish both robust and accurate correspondences. By leveraging a sparse-to-dense matching paradigm, we cast the correspondence learning problem as a supervised classification task to learn to output highly peaked correspondence maps. We show that S2DNet achieves state-of-the-art results on the HPatches benchmark, as well as on several long-term visual localization datasets.
翻訳日:2022-12-17 04:45:36 公開日:2020-04-03
# ゴムシートモデルを用いたプライバシー保護アイビデオ

Privacy-Preserving Eye Videos using Rubber Sheet Model ( http://arxiv.org/abs/2004.01792v1 )

ライセンス: Link先を確認
Aayush K Chaudhary and Jeff B. Pelz(参考訳) ビデオベースのアイトラッカーは、視線画像/ビデオに基づいて視線を推定する。 セキュリティとプライバシーが技術的進歩を脅かす中、このような課題に取り組むことが不可欠だ。 本稿では,眼球映像におけるプライバシー問題に対処するための新しいアプローチとして,現在認識可能な虹彩テクスチャを,ゴムシートモデルに基づくビデオキャプチャパイプラインの異なる虹彩テンプレートに置き換える手法を提案する。 画像ブレンディングや中央値表現に拡張して,ビデオのセグメンテーションや瞳孔検出精度を著しく低下させることなく操作できることを実証する。

Video-based eye trackers estimate gaze based on eye images/videos. As security and privacy concerns loom over technological advancements, tackling such challenges is crucial. We present a new approach to handle privacy issues in eye videos by replacing the current identifiable iris texture with a different iris template in the video capture pipeline based on the Rubber Sheet Model. We extend to image blending and median-value representations to demonstrate that videos can be manipulated without significantly degrading segmentation and pupil detection accuracy.
翻訳日:2022-12-17 04:45:22 公開日:2020-04-03
# イメージコレクションからの自己監督型視点学習

Self-Supervised Viewpoint Learning From Image Collections ( http://arxiv.org/abs/2004.01793v1 )

ライセンス: Link先を確認
Siva Karthik Mustikovela, Varun Jampani, Shalini De Mello, Sifei Liu, Umar Iqbal, Carsten Rother, Jan Kautz(参考訳) オブジェクトの視点を推定するためにディープニューラルネットワークをトレーニングするには、大きなラベル付きトレーニングデータセットが必要である。 しかしながら、手動で視点をラベル付けするのは、非常に難しく、エラーを起こし、時間がかかります。 一方で、車や顔などのインターネットから、オブジェクトカテゴリの多数のラベルのないイメージをマイニングすることは比較的容易である。 そこで本研究では,このようなラベルなし画像群を,自己スーパービジョンを通して,一般対象カテゴリの視点推定ネットワークの訓練に有効活用できるかどうかを考察する。 ここでの自己スーパービジョンとは、ネットワークが持つ唯一の真の監視信号が入力画像自身であるという事実を指す。 本稿では,生成ネットワークを用いた視点認識による画像再構成のための分析・合成パラダイムを組み込んだ新しい学習フレームワークを提案する。 提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。 我々の研究は、自己監督型視点学習のさらなる研究を開放し、その基盤となる。 ソースコードはhttps://github.com/NVlabs/SSV.comで公開しています。

Training deep neural networks to estimate the viewpoint of objects requires large labeled training datasets. However, manually labeling viewpoints is notoriously hard, error-prone, and time-consuming. On the other hand, it is relatively easy to mine many unlabelled images of an object category from the internet, e.g., of cars or faces. We seek to answer the research question of whether such unlabeled collections of in-the-wild images can be successfully utilized to train viewpoint estimation networks for general object categories purely via self-supervision. Self-supervision here refers to the fact that the only true supervisory signal that the network has is the input image itself. We propose a novel learning framework which incorporates an analysis-by-synthesis paradigm to reconstruct images in a viewpoint aware manner with a generative network, along with symmetry and adversarial constraints to successfully supervise our viewpoint estimation network. We show that our approach performs competitively to fully-supervised approaches for several object categories like human faces, cars, buses, and trains. Our work opens up further research in self-supervised viewpoint learning and serves as a robust baseline for it. We open-source our code at https://github.com/NVlabs/SSV.
翻訳日:2022-12-17 04:45:11 公開日:2020-04-03
# 進化的アプローチを用いたデータ駆動物理式探索

The data-driven physical-based equations discovery using evolutionary approach ( http://arxiv.org/abs/2004.01680v1 )

ライセンス: Link先を確認
Alexander Hvatov and Mikhail Maslyaev(参考訳) 現代の機械学習手法では、様々な方法でデータ駆動モデルを得ることができる。 しかし、モデルがより複雑であるほど、解釈するのが難しくなる。 本稿では,与えられた観測データから数学的方程式を発見するアルゴリズムについて述べる。 このアルゴリズムは遺伝的プログラミングと疎回帰を組み合わせたものである。 このアルゴリズムは、結果の異なる形式のモデルを得ることができる。 例えば、解析方程式の発見や偏微分方程式(pde)の発見を管理するのに使うことができる。 主なアイデアは、構成要素の袋(単純な関数か任意の順序の導関数かもしれない)を集め、その結果、それらをバッグから取り出して組み合わせ、最終的な方程式の項を表すことである。 選択された用語は、選択を進化させるために使用される進化アルゴリズムに渡される。 進化段階は、重要な項のみを選ぶためにスパース回帰と組み合わせられる。 その結果、データを超えた物理的プロセスを記述する、短くて解釈可能な表現が得られる。 本稿では,メトカン過程のPDE発見と音響の関数発見という,アルゴリズム応用の2つの例について述べる。

The modern machine learning methods allow one to obtain the data-driven models in various ways. However, the more complex the model is, the harder it is to interpret. In the paper, we describe the algorithm for the mathematical equations discovery from the given observations data. The algorithm combines genetic programming with the sparse regression. This algorithm allows obtaining different forms of the resulting models. As an example, it could be used for governing analytical equation discovery as well as for partial differential equations (PDE) discovery. The main idea is to collect a bag of the building blocks (it may be simple functions or their derivatives of arbitrary order) and consequently take them from the bag to create combinations, which will represent terms of the final equation. The selected terms pass to the evolutionary algorithm, which is used to evolve the selection. The evolutionary steps are combined with the sparse regression to pick only the significant terms. As a result, we obtain a short and interpretable expression that describes the physical process that lies beyond the data. In the paper, two examples of the algorithm application are described: the PDE discovery for the metocean processes and the function discovery for the acoustics.
翻訳日:2022-12-17 04:39:25 公開日:2020-04-03
# 深部ホワイトバランス編集

Deep White-Balance Editing ( http://arxiv.org/abs/2004.01354v1 )

ライセンス: Link先を確認
Mahmoud Afifi and Michael S. Brown(参考訳) 本稿では,SRGB画像のホワイトバランスをリアルに編集するディープラーニング手法を提案する。 カメラは、その集積信号プロセッサ(ISP)によってレンダリングされるセンサーイメージを、標準のRGB(sRGB)カラースペースエンコーディングにキャプチャする。 ISPレンダリングは、シーンの照明の色キャストを削除するために使用されるホワイトバランス手順から始まる。 ISPは、最終的なsRGB画像の視覚的品質を高めるために、一連の非線形カラー操作を適用する。 近年の[3]による研究では,ISPの非線形レンダリングのため,誤ったホワイトバランスでレンダリングされたsRGB画像を容易に修正できないことが示されている。 3]の研究では、数万のイメージペアに基づいたk-nearest neighbor(KNN)ソリューションを提案した。 我々は,この問題を解決するために,エンドツーエンドでトレーニングしたディープニューラルネットワーク(DNN)アーキテクチャを提案する。 dnnは入力画像を屋内と屋外の照明に対応する2つのホワイトバランス設定にマッピングする。 我々のソリューションは、間違ったホワイトバランス設定を補正するという点でKNNアプローチよりも正確であるだけでなく、ユーザーが他の照明設定にsRGB画像のホワイトバランスを編集する自由を提供する。

We introduce a deep learning approach to realistically edit an sRGB image's white balance. Cameras capture sensor images that are rendered by their integrated signal processor (ISP) to a standard RGB (sRGB) color space encoding. The ISP rendering begins with a white-balance procedure that is used to remove the color cast of the scene's illumination. The ISP then applies a series of nonlinear color manipulations to enhance the visual quality of the final sRGB image. Recent work by [3] showed that sRGB images that were rendered with the incorrect white balance cannot be easily corrected due to the ISP's nonlinear rendering. The work in [3] proposed a k-nearest neighbor (KNN) solution based on tens of thousands of image pairs. We propose to solve this problem with a deep neural network (DNN) architecture trained in an end-to-end manner to learn the correct white balance. Our DNN maps an input image to two additional white-balance settings corresponding to indoor and outdoor illuminations. Our solution not only is more accurate than the KNN approach in terms of correcting a wrong white-balance setting but also provides the user the freedom to edit the white balance in the sRGB image to other illumination settings.
翻訳日:2022-12-17 04:38:50 公開日:2020-04-03
# グラフベースのメッセージパッシングと時空間トランスフォーマアテンションを用いたLiDARによるオンライン3Dビデオオブジェクト検出

LiDAR-based Online 3D Video Object Detection with Graph-based Message Passing and Spatiotemporal Transformer Attention ( http://arxiv.org/abs/2004.01389v1 )

ライセンス: Link先を確認
Junbo Yin, Jianbing Shen, Chenye Guan, Dingfu Zhou, Ruigang Yang(参考訳) 既存のLiDARベースの3Dオブジェクト検出器は通常、連続する点の雲のフレームの時空間情報を無視しながら、単一フレームの検出にフォーカスする。 本稿では,ポイントクラウドシーケンスで動作するエンドツーエンドの3Dビデオオブジェクト検出器を提案する。 提案モデルは空間的特徴符号化成分と時空間的特徴集約成分からなる。 前者のコンポーネントでは、各個別のクラウドフレームをエンコードするために、新しいPMPNet(Pillar Message Passing Network)が提案されている。 柱特徴の受容場を効果的に拡大する反復メッセージパッシングにより、隣接する柱ノードに関する情報を適応的に収集する。 後者の成分では,時空間情報を集約する注意時空間変圧器 gru (ast-gru) を提案し,注意記憶ゲーティング機構により従来のconvgruを強化した。 ast-gruはspatial transformer attention (sta)モジュールとtemporal transformer attention (tta)モジュールを含み、それぞれ前景オブジェクトを強調し、動的オブジェクトをアライメントすることができる。 実験の結果,提案する3次元映像物体検出装置は,大規模nuscenesベンチマークにおいて最先端の性能を実現することがわかった。

Existing LiDAR-based 3D object detectors usually focus on the single-frame detection, while ignoring the spatiotemporal information in consecutive point cloud frames. In this paper, we propose an end-to-end online 3D video object detector that operates on point cloud sequences. The proposed model comprises a spatial feature encoding component and a spatiotemporal feature aggregation component. In the former component, a novel Pillar Message Passing Network (PMPNet) is proposed to encode each discrete point cloud frame. It adaptively collects information for a pillar node from its neighbors by iterative message passing, which effectively enlarges the receptive field of the pillar feature. In the latter component, we propose an Attentive Spatiotemporal Transformer GRU (AST-GRU) to aggregate the spatiotemporal information, which enhances the conventional ConvGRU with an attentive memory gating mechanism. AST-GRU contains a Spatial Transformer Attention (STA) module and a Temporal Transformer Attention (TTA) module, which can emphasize the foreground objects and align the dynamic objects, respectively. Experimental results demonstrate that the proposed 3D video object detector achieves state-of-the-art performance on the large-scale nuScenes benchmark.
翻訳日:2022-12-17 04:38:32 公開日:2020-04-03
# tea: 行動認識のための時間的興奮と集約

TEA: Temporal Excitation and Aggregation for Action Recognition ( http://arxiv.org/abs/2004.01398v1 )

ライセンス: Link先を確認
Yan Li and Bin Ji and Xintian Shi and Jianguo Zhang and Bin Kang and Limin Wang(参考訳) 時間モデリングはビデオにおける行動認識の鍵となる。 通常、短距離運動と長距離集合の両方を考える。 本稿では,動作励起(ME)モジュールとMTA(Multiple temporal aggregate)モジュールを含む時間的興奮・集約(TEA)ブロックを提案する。 特に、近距離運動モデリングでは、meモジュールは時空間的特徴と特徴レベルの時間的差異を計算する。 違いを利用して、特徴の動作に敏感なチャンネルをエキサイティングする。 以前の作品における長距離時間的集約は、典型的には多くの局所時間的畳み込みを積み重ねることによって達成される。 各畳み込みは局所的な時間窓を一度に処理する。 対照的に、MTAモジュールは局所的な畳み込みを部分畳み込みのグループに変形させ、階層的残留アーキテクチャを形成することを提案している。 追加パラメータを導入することなく、これらの特徴は一連のサブ畳み込みで処理され、各フレームは近隣の複数の時間的集約を完了できる。 時間次元の最終的な等価受容場は拡大され、遠方フレーム上の長距離時間関係をモデル化することができる。 TEAブロックの2つのコンポーネントは、時間モデリングにおいて相補的である。 最後に,提案手法は,動作認識ベンチマーク(Kineetics, something-Something, HMDB51, UCF101など)において,FLOPの低い性能で優れた結果が得られた。

Temporal modeling is key for action recognition in videos. It normally considers both short-range motions and long-range aggregations. In this paper, we propose a Temporal Excitation and Aggregation (TEA) block, including a motion excitation (ME) module and a multiple temporal aggregation (MTA) module, specifically designed to capture both short- and long-range temporal evolution. In particular, for short-range motion modeling, the ME module calculates the feature-level temporal differences from spatiotemporal features. It then utilizes the differences to excite the motion-sensitive channels of the features. The long-range temporal aggregations in previous works are typically achieved by stacking a large number of local temporal convolutions. Each convolution processes a local temporal window at a time. In contrast, the MTA module proposes to deform the local convolution to a group of sub-convolutions, forming a hierarchical residual architecture. Without introducing additional parameters, the features will be processed with a series of sub-convolutions, and each frame could complete multiple temporal aggregations with neighborhoods. The final equivalent receptive field of temporal dimension is accordingly enlarged, which is capable of modeling the long-range temporal relationship over distant frames. The two components of the TEA block are complementary in temporal modeling. Finally, our approach achieves impressive results at low FLOPs on several action recognition benchmarks, such as Kinetics, Something-Something, HMDB51, and UCF101, which confirms its effectiveness and efficiency.
翻訳日:2022-12-17 04:38:11 公開日:2020-04-03
# ラベルのないオブジェクト表現の分解

Disassembling Object Representations without Labels ( http://arxiv.org/abs/2004.01426v1 )

ライセンス: Link先を確認
Zunlei Feng, Xinchao Wang, Yongming He, Yike Yuan, Xin Gao, Mingli Song(参考訳) 本稿では,オブジェクト表現を分解する新しい表現学習タスクについて検討する。 複数のオブジェクトを特徴とする画像が与えられた場合、分解の目標は、各部分が1つのオブジェクトのカテゴリに対応する潜在表現を取得することである。 これにより、画像編集や少数あるいはゼロショット学習といった広い領域において、学習表現におけるカテゴリ固有のモジュラリティを実現することができる。 そこで本稿では,UDOR (Unsupervised Disassembling Object Representation) という,非教師なしのオブジェクト表現手法を提案する。 UDORは二重自動エンコーダアーキテクチャに従い、ファジィ分類とオブジェクト除去操作が課される。 ファジィ分類は、潜在表現の各部分を制約して、最大1つのオブジェクトカテゴリの特徴をエンコードするが、オブジェクト削除は、生成的な敵ネットワークと組み合わせて、再構成された画像の表現のモジュラリティと整合性を強制する。 さらに,2つの指標を考案し,分解表現のモジュラリティと再構成画像の視覚的完全性を測定した。 実験の結果, 提案手法は教師なしであるにもかかわらず, 教師付き手法と同等の結果が得られることがわかった。

In this paper, we study a new representation-learning task, which we termed as disassembling object representations. Given an image featuring multiple objects, the goal of disassembling is to acquire a latent representation, of which each part corresponds to one category of objects. Disassembling thus finds its application in a wide domain such as image editing and few- or zero-shot learning, as it enables category-specific modularity in the learned representations. To this end, we propose an unsupervised approach to achieving disassembling, named Unsupervised Disassembling Object Representation (UDOR). UDOR follows a double auto-encoder architecture, in which a fuzzy classification and an object-removing operation are imposed. The fuzzy classification constrains each part of the latent representation to encode features of up to one object category, while the object-removing, combined with a generative adversarial network, enforces the modularity of the representations and integrity of the reconstructed image. Furthermore, we devise two metrics to respectively measure the modularity of disassembled representations and the visual integrity of reconstructed images. Experimental results demonstrate that the proposed UDOR, despited unsupervised, achieves truly encouraging results on par with those of supervised methods.
翻訳日:2022-12-17 04:37:48 公開日:2020-04-03
# 動作検出のための2ストリームAMTnet

Two-Stream AMTnet for Action Detection ( http://arxiv.org/abs/2004.01494v1 )

ライセンス: Link先を確認
Suman Saha, Gurkirt Singh and Fabio Cuzzolin(参考訳) 本稿では,ビデオベースアクション表現[1]とインクリメンタルアクションチューブ生成[2]の最近の進歩を生かしたTwo-Stream AMTnetを提案する。 現在のアクション検出器の大多数はフレームベースの表現、後期融合、オフラインアクションチューブビルディングステップに従っている。 フレームベースの機能は、時間的関係をほとんどエンコードしない;レイトフュージョンは、ネットワークが堅牢な時空間的特徴を学ぶことを制限する;最後に、オフラインのアクションチューブ生成は、自動運転や人間とロボットの対話など、多くの現実世界の問題に適していない。 この研究の主な貢献は、(1)amtnetの3dプロポーザルアーキテクチャとオンラインアクションチューブ生成手法を組み合わせることで、モデルが正確なアクション検出に必要な強い時間的特徴を学習し、オンライン上での推論を容易にすること、(2)ディープネットワークが強い時空間的アクション表現を学習できる効率的な融合技術である。 This is achieved by augmenting the previous Action Micro-Tube (AMTnet) action detection framework in three distinct ways: by adding a parallel motion stIn this paper, we propose a new deep neural network architecture for online action detection, termed ream to the original appearance one in AMTnet; (2) in opposition to state-of-the-art action detectors which train appearance and motion streams separately, and use a test time late fusion scheme to fuse RGB and flow cues, by jointly training both streams in an end-to-end fashion and merging RGB and optical flow features at training time; (3) by introducing an online action tube generation algorithm which works at video-level, and in real-time (when exploiting only appearance features). Two-Stream AMTnetは、標準アクション検出ベンチマークにおける最先端アプローチよりも優れた動作検出性能を示す。

In this paper, we propose Two-Stream AMTnet, which leverages recent advances in video-based action representation[1] and incremental action tube generation[2]. Majority of the present action detectors follow a frame-based representation, a late-fusion followed by an offline action tube building steps. These are sub-optimal as: frame-based features barely encode the temporal relations; late-fusion restricts the network to learn robust spatiotemporal features; and finally, an offline action tube generation is not suitable for many real-world problems such as autonomous driving, human-robot interaction to name a few. The key contributions of this work are: (1) combining AMTnet's 3D proposal architecture with an online action tube generation technique which allows the model to learn stronger temporal features needed for accurate action detection and facilitates running inference online; (2) an efficient fusion technique allowing the deep network to learn strong spatiotemporal action representations. This is achieved by augmenting the previous Action Micro-Tube (AMTnet) action detection framework in three distinct ways: by adding a parallel motion stIn this paper, we propose a new deep neural network architecture for online action detection, termed ream to the original appearance one in AMTnet; (2) in opposition to state-of-the-art action detectors which train appearance and motion streams separately, and use a test time late fusion scheme to fuse RGB and flow cues, by jointly training both streams in an end-to-end fashion and merging RGB and optical flow features at training time; (3) by introducing an online action tube generation algorithm which works at video-level, and in real-time (when exploiting only appearance features). Two-Stream AMTnet exhibits superior action detection performance over state-of-the-art approaches on the standard action detection benchmarks.
翻訳日:2022-12-17 04:36:19 公開日:2020-04-03
# オートエンコーダに基づく音響単語埋め込みの解析

Analyzing autoencoder-based acoustic word embeddings ( http://arxiv.org/abs/2004.01647v1 )

ライセンス: Link先を確認
Yevgen Matusevych, Herman Kamper, Sharon Goldwater(参考訳) 近年,音響的特徴を符号化した単語のAWE(-fixed-size vector representations)を学習する手法が提案されている。 音声処理研究においてawesが広く使われているにもかかわらず、単語トークン全体を識別する能力において定量的に評価されているだけである。 様々な下流タスクや認知モデルにおけるAWEの応用をよりよく理解するためには,AWEの表現空間を解析する必要がある。 ここでは,6言語でシーケンス・ツー・シーケンス・エンコーダ・デコーダモデルを用いて学習したAWE空間の基本特性を解析する。 まず,単語の絶対継続時間と話者に関する情報を保存できることを示す。 同時に、これらの awes の表現空間は、単語の埋め込み間の距離がそれらの単語の音声的相違によって増加するように構成される。 最後に、awesは人間の音声処理と語彙アクセスに関する様々な研究で報告されたパターンに類似した単語の発語バイアスを示す。 これは有望な結果であり、言語処理と語彙記憶のリンクを提供する認知科学において潜在的に有用なツールとしてのawesのさらなる評価を促す。

Recent studies have introduced methods for learning acoustic word embeddings (AWEs)---fixed-size vector representations of words which encode their acoustic features. Despite the widespread use of AWEs in speech processing research, they have only been evaluated quantitatively in their ability to discriminate between whole word tokens. To better understand the applications of AWEs in various downstream tasks and in cognitive modeling, we need to analyze the representation spaces of AWEs. Here we analyze basic properties of AWE spaces learned by a sequence-to-sequence encoder-decoder model in six typologically diverse languages. We first show that these AWEs preserve some information about words' absolute duration and speaker. At the same time, the representation space of these AWEs is organized such that the distance between words' embeddings increases with those words' phonetic dissimilarity. Finally, the AWEs exhibit a word onset bias, similar to patterns reported in various studies on human speech processing and lexical access. We argue this is a promising result and encourage further evaluation of AWEs as a potentially useful tool in cognitive science, which could provide a link between speech processing and lexical memory.
翻訳日:2022-12-17 04:28:21 公開日:2020-04-03
# 質的変化による時系列データのレアインタラクションのモデル化:集中治療室におけるアウトカム予測への応用

Modeling Rare Interactions in Time Series Data Through Qualitative Change: Application to Outcome Prediction in Intensive Care Units ( http://arxiv.org/abs/2004.01431v1 )

ライセンス: Link先を確認
Zina Ibrahim, Honghan Wu, Richard Dobson(参考訳) 多くの研究領域は、大規模高次元時系列データの希薄化によって特徴づけられる。 しかし、予測と意思決定に利用可能なデータの使用は、結果を説明する真の相互作用を解明し定量化する能力の現在のラグによって妨げられている。 i)多変量変数の連続監視とデータストリームの非一様サンプリング 二 結果が一般に、まれな出来事の小さな集合間の相互作用によって支配されること。 三 これらの相互作用は、変数の特定の値(又は値範囲)によって必ずしも定義することができず、むしろ、これらの値が経時的に記録された通常の状態から逸脱することによるものである。 四 モデルによりなされた予測を説明する必要があること。 ここでは、結果予測のために多くのデータマイニングモデルが定式化されているが、それらの予測は説明できない。 本稿では,高次元時系列データから得られる結果の最も高い確率で相互作用を明らかにするモデルを提案する。 変数間の相互作用は、非一様サンプリングを克服し、時間とともに関心を持つ変数の正規性から変化や偏差に対応する相互作用の意味を捉えるために定性的抽象化に依存する関係グラフ構造によって表現される。 類似した小さな相互作用のテンプレートが結果(医学領域で一般的)に責任があることを前提に、発見タスクを再構成して、データから最もよく似たテンプレートを取得する。

Many areas of research are characterised by the deluge of large-scale highly-dimensional time-series data. However, using the data available for prediction and decision making is hampered by the current lag in our ability to uncover and quantify true interactions that explain the outcomes.We are interested in areas such as intensive care medicine, which are characterised by i) continuous monitoring of multivariate variables and non-uniform sampling of data streams, ii) the outcomes are generally governed by interactions between a small set of rare events, iii) these interactions are not necessarily definable by specific values (or value ranges) of a given group of variables, but rather, by the deviations of these values from the normal state recorded over time, iv) the need to explain the predictions made by the model. Here, while numerous data mining models have been formulated for outcome prediction, they are unable to explain their predictions. We present a model for uncovering interactions with the highest likelihood of generating the outcomes seen from highly-dimensional time series data. Interactions among variables are represented by a relational graph structure, which relies on qualitative abstractions to overcome non-uniform sampling and to capture the semantics of the interactions corresponding to the changes and deviations from normality of variables of interest over time. Using the assumption that similar templates of small interactions are responsible for the outcomes (as prevalent in the medical domains), we reformulate the discovery task to retrieve the most-likely templates from the data.
翻訳日:2022-12-17 04:27:40 公開日:2020-04-03
# 生成法医学:手続き生成と情報ゲーム

Generative Forensics: Procedural Generation and Information Games ( http://arxiv.org/abs/2004.01768v1 )

ライセンス: Link先を確認
Michael Cook(参考訳) 手続き生成は、様々な目的を達成するためにゲーム設計全体にわたって使われ、他の静的設計に分散、サプライズ、予測不能を注入することで、いくつかのゲームサブジャンルの作成につながった。 情報ゲーム(インフォメーションゲーム)は、プレイヤーが知識を集め、イベントやシステムの理解を深めるミステリーゲームの一種である。 プレイヤーの知識への依存は、スポイラーに弱い上に、再生も難しい。 本稿では,生成システムの結果を理解するためにプレイヤーに挑戦する情報ゲームのサブジャンルである生成法科学ゲームの概念を紹介する。 我々は情報ゲームを導入し、生成法医学がこのアイデアをどう発展させるかを示し、我々が作成した2つのプロトタイプゲームについて報告し、生成法学の研究をプレイヤーとデザイナーの観点から評価する。

Procedural generation is used across game design to achieve a wide variety of ends, and has led to the creation of several game subgenres by injecting variance, surprise or unpredictability into otherwise static designs. Information games are a type of mystery game in which the player is tasked with gathering knowledge and developing an understanding of an event or system. Their reliance on player knowledge leaves them vulnerable to spoilers and hard to replay. In this paper we introduce the notion of generative forensics games, a subgenre of information games that challenge the player to understand the output of a generative system. We introduce information games, show how generative forensics develops the idea, report on two prototype games we created, and evaluate our work on generative forensics so far from a player and a designer perspective.
翻訳日:2022-12-17 04:27:15 公開日:2020-04-03
# 自動運転車における交通シーン認識のためのコンテキスト対応マルチタスク学習

Context-Aware Multi-Task Learning for Traffic Scene Recognition in Autonomous Vehicles ( http://arxiv.org/abs/2004.01351v1 )

ライセンス: Link先を確認
Younkwan Lee, Jihyo Jeon, Jongmin Yu, Moongu Jeon(参考訳) 様々な視覚的分類作業を必要とする交通シーン認識は、自動運転車にとって重要な要素である。 しかし、既存のほとんどのアプローチでは、関連するタスクを互いに独立して扱い、システム全体を考慮しない。 このため、タスク固有の機能セットを推論時間の可能なすべてのタスクに利用することに限定され、これは、手前のタスクに対して共通のタスク不変のコンテキスト知識を活用する能力を無視している。 そこで本研究では,マルチタスク学習ネットワークを用いてタスク固有表現と共有表現を共同で学習するアルゴリズムを提案する。 具体的には,タスク間の共通文脈情報を抽出し,各タスクの基本情報を協調的に保持できると考えられる,共有特徴埋め込みと入力の相互情報制約に対する低境界について述べる。 学習した表現は、タスク固有のネットワークなしでよりリッチなコンテキスト情報をキャプチャする。 大規模データセットHSDに関する大規模な実験は、最先端の手法よりもネットワークの有効性と優位性を示している。

Traffic scene recognition, which requires various visual classification tasks, is a critical ingredient in autonomous vehicles. However, most existing approaches treat each relevant task independently from one another, never considering the entire system as a whole. Because of this, they are limited to utilizing a task-specific set of features for all possible tasks of inference-time, which ignores the capability to leverage common task-invariant contextual knowledge for the task at hand. To address this problem, we propose an algorithm to jointly learn the task-specific and shared representations by adopting a multi-task learning network. Specifically, we present a lower bound for the mutual information constraint between shared feature embedding and input that is considered to be able to extract common contextual information across tasks while preserving essential information of each task jointly. The learned representations capture richer contextual information without additional task-specific network. Extensive experiments on the large-scale dataset HSD demonstrate the effectiveness and superiority of our network over state-of-the-art methods.
翻訳日:2022-12-17 04:21:24 公開日:2020-04-03
# オブジェクトセグメンテーションと畳み込みニューラルネットワークを用いた未熟期診断の網膜症

Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and Convolutional Neural Networks ( http://arxiv.org/abs/2004.01582v1 )

ライセンス: Link先を確認
Alexander Ding, Qilei Chen, Yu Cao, Benyuan Liu(参考訳) 未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。 網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。 ヒトの専門家は、ropの重篤な段階を容易に特定できるが、治療選択の決定に最も関係のある早期段階の診断は、ヒトの専門家の主観的解釈の変動によってはるかに影響を受ける。 近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。 本稿では,従来のモデルの成功を基盤として,物体分割と畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発し,新生児網膜画像に基づくROPステージ1-3の効果的な分類法を構築する。 網膜における剥離線の形成と形状が初期のROPステージの区別特徴であることから,本システムではまず対象セグメンテーションモデルを訓練し,画素レベルで剥離線を識別し,結果として得られるマスクを元の画像に付加する「カラー」チャネルとして付加する。 そして、処理された画像に基づいてCNN分類器を訓練し、元の画像とマスクの両方の情報を活用することにより、モデルの注意を区切り線に向ける。 従来のオブジェクトセグメンテーションシステムやデータセットでトレーニングされたCNNオンリーシステムと比較した多くの慎重な実験において、我々の新しいアーキテクチャは従来のシステムよりも精度が高く、提案したパイプラインの有効性を実証している。

Retinopathy of Prematurity (ROP) is an eye disorder primarily affecting premature infants with lower weights. It causes proliferation of vessels in the retina and could result in vision loss and, eventually, retinal detachment, leading to blindness. While human experts can easily identify severe stages of ROP, the diagnosis of earlier stages, which are the most relevant to determining treatment choice, are much more affected by variability in subjective interpretations of human experts. In recent years, there has been a significant effort to automate the diagnosis using deep learning. This paper builds upon the success of previous models and develops a novel architecture, which combines object segmentation and convolutional neural networks (CNN) to construct an effective classifier of ROP stages 1-3 based on neonatal retinal images. Motivated by the fact that the formation and shape of a demarcation line in the retina is the distinguishing feature between earlier ROP stages, our proposed system first trains an object segmentation model to identify the demarcation line at a pixel level and adds the resulting mask as an additional "color" channel in the original image. Then, the system trains a CNN classifier based on the processed images to leverage information from both the original image and the mask, which helps direct the model's attention to the demarcation line. In a number of careful experiments comparing its performance to previous object segmentation systems and CNN-only systems trained on our dataset, our novel architecture significantly outperforms previous systems in accuracy, demonstrating the effectiveness of our proposed pipeline.
翻訳日:2022-12-17 04:20:43 公開日:2020-04-03
# 深層ニューラルネットワークを用いた前立腺針生検における会陰浸潤の検出

Detection of Perineural Invasion in Prostate Needle Biopsies with Deep Neural Networks ( http://arxiv.org/abs/2004.01589v1 )

ライセンス: Link先を確認
Peter Str\"om (1), Kimmo Kartasalo (1,2), Pekka Ruusuvuori (2,3), Henrik Gr\"onberg (1,4), Hemamali Samaratunga (5), Brett Delahunt (6), Toyonori Tsuzuki (7), Lars Egevad (8), Martin Eklund (1) ((1) Department of Medical Epidemiology and Biostatistics, Karolinska Institutet, Stockholm, Sweden, (2) Faculty of Medicine and Health Technology, Tampere University, Tampere, Finland, (3) Institute of Biomedicine, University of Turku, Turku, Finland, (4) Department of Oncology, St G\"oran Hospital, Stockholm, Sweden, (5) Aquesta Uropathology and University of Queensland, Brisbane, Qld, Australia, (6) Department of Pathology and Molecular Medicine, Wellington School of Medicine and Health Sciences, University of Otago, Wellington, New Zealand, (7) Department of Surgical Pathology, School of Medicine, Aichi Medical University, Nagoya, Japan, (8) Department of Oncology and Pathology, Karolinska Institutet, Stockholm, Sweden)(参考訳) 前立腺生検では,前立腺癌による周神経浸潤(PNI)の検出が予後不良と関連していることが明らかとなった。 PNIの評価と定量化は、労働集約的である。 本研究では,この課題の病理学者を支援する深層ニューラルネットワークに基づくアルゴリズムを開発することを目的とした。 方法:2012年から2014年までのSTHLM3臨床試験で生検を行った7,406名の男性から,約80,000個の生検コアのPNI所見を収集,デジタル化,およびピクセル単位で注釈した。 485個の生検コアでPNIを認めた。 またPNI陰性生検コアの10%以上(n=8,318)をデジタル化した。 男性の80%が無作為に選択したデジタル化生検はディープニューラルネットワークの構築に使われ、残りの20%はアルゴリズムの性能を評価するために使われた。 結果: 前立腺生検コアにおけるPNIの検出には, 独立試験セットの106個のPNI正コアと1,652個のPNI負コアに基づいて, 受信機動作特性曲線0.98(95% CI 0.97-0.99)を推定した。 予め特定された操作点では、感度は0.87、特異性は0.97となる。 正と負の予測値はそれぞれ0.67と0.99である。 スライド内のPNI領域をローカライズするために、平均交点は0.50(CI: 0.46-0.55)と見積もった。 結論: 前立腺生検におけるpni検出のための深層ニューラルネットワークに基づくアルゴリズムを開発した。 これらのアルゴリズムは、pniのために評価される必要がある生検コアの数を劇的に削減し、診断に興味のある領域を強調することで、日々の作業の病理学者を助ける可能性がある。

Background: The detection of perineural invasion (PNI) by carcinoma in prostate biopsies has been shown to be associated with poor prognosis. The assessment and quantification of PNI is; however, labor intensive. In the study we aimed to develop an algorithm based on deep neural networks to aid pathologists in this task. Methods: We collected, digitized and pixel-wise annotated the PNI findings in each of the approximately 80,000 biopsy cores from the 7,406 men who underwent biopsy in the prospective and diagnostic STHLM3 trial between 2012 and 2014. In total, 485 biopsy cores showed PNI. We also digitized more than 10% (n=8,318) of the PNI negative biopsy cores. Digitized biopsies from a random selection of 80% of the men were used to build deep neural networks, and the remaining 20% were used to evaluate the performance of the algorithm. Results: For the detection of PNI in prostate biopsy cores the network had an estimated area under the receiver operating characteristics curve of 0.98 (95% CI 0.97-0.99) based on 106 PNI positive cores and 1,652 PNI negative cores in the independent test set. For the pre-specified operating point this translates to sensitivity of 0.87 and specificity of 0.97. The corresponding positive and negative predictive values were 0.67 and 0.99, respectively. For localizing the regions of PNI within a slide we estimated an average intersection over union of 0.50 (CI: 0.46-0.55). Conclusion: We have developed an algorithm based on deep neural networks for detecting PNI in prostate biopsies with apparently acceptable diagnostic properties. These algorithms have the potential to aid pathologists in the day-to-day work by drastically reducing the number of biopsy cores that need to be assessed for PNI and by highlighting regions of diagnostic interest.
翻訳日:2022-12-17 04:20:15 公開日:2020-04-03
# 医用画像分類器の最適化による影響解析

Interpreting Medical Image Classifiers by Optimization Based Counterfactual Impact Analysis ( http://arxiv.org/abs/2004.01610v1 )

ライセンス: Link先を確認
David Major, Dimitrios Lenis, Maria Wimmer, Gert Sluiter, Astrid Berg, and Katja B\"uhler(参考訳) 自動意思決定支援システムの臨床応用性は、堅牢でよく理解された分類解釈に依存する。 この点に関して、クラスリードスコアを達成しつつ、人工ニューラルネットワークは不足している。 したがって、画像の突出領域を診断分類にマッピングする多くのアプローチが提案されている。 ぼやけやノイズといったヒューリスティックな手法を用いることで、拡散し、時には誤解を招く結果をもたらす傾向があり、一般的な採用を妨げる。 本研究は,医療画像に適合したモデル非依存型サリエンシマッピングフレームワークを提案することで,これらの課題を克服する。 ヒューリスティックな手法を、解剖学的に目立たないアーティファクトを避ける強力な近傍条件付き塗り込みアプローチに置き換える。 地図品質の最適化タスクとして,制約のある,集中した属性を強制するサリエンシ属性を定式化する。 マンモグラフィデータを用いた実験では, 既存の手法よりも定量的, 質的, 正確に位置推定し, より明瞭な搬送結果を示す。

Clinical applicability of automated decision support systems depends on a robust, well-understood classification interpretation. Artificial neural networks while achieving class-leading scores fall short in this regard. Therefore, numerous approaches have been proposed that map a salient region of an image to a diagnostic classification. Utilizing heuristic methodology, like blurring and noise, they tend to produce diffuse, sometimes misleading results, hindering their general adoption. In this work we overcome these issues by presenting a model agnostic saliency mapping framework tailored to medical imaging. We replace heuristic techniques with a strong neighborhood conditioned inpainting approach, which avoids anatomically implausible artefacts. We formulate saliency attribution as a map-quality optimization task, enforcing constrained and focused attributions. Experiments on public mammography data show quantitatively and qualitatively more precise localization and clearer conveying results than existing state-of-the-art methods.
翻訳日:2022-12-17 04:19:45 公開日:2020-04-03
# 大腸癌組織学におけるテクスチャ分類のためのdeep transfer learning

Deep Transfer Learning for Texture Classification in Colorectal Cancer Histology ( http://arxiv.org/abs/2004.01614v1 )

ライセンス: Link先を確認
Srinath Jayachandran, Ashlin Ghosh(参考訳) 組織や病理の顕微鏡検査は大腸癌の診断方法の1つである。 このような検査に関わった病理学者は通常、組織型をテクスチャー分析に基づいて同定する。 本研究では,深層移動学習を用いた大腸癌組織標本の組織分類作業を自動化する。 偏微分微調整と一サイクル政治を併用し,構造保存色正規化を適用して結果を向上する。 また,テクスチャ分類におけるディープニューラルネットワークの決定を視覚的に説明する。 96.2%の最先端テスト精度を達成することで、メモリ制限ハードウェアにSqueezeNetと呼ばれるデプロイメントフレンドリなアーキテクチャの使用も開始しました。

Microscopic examination of tissues or histopathology is one of the diagnostic procedures for detecting colorectal cancer. The pathologist involved in such an examination usually identifies tissue type based on texture analysis, especially focusing on tumour-stroma ratio. In this work, we automate the task of tissue classification within colorectal cancer histology samples using deep transfer learning. We use discriminative fine-tuning with one-cycle-policy and apply structure-preserving colour normalization to boost our results. We also provide visual explanations of the deep neural network's decision on texture classification. With achieving state-of-the-art test accuracy of 96.2% we also embark on using deployment friendly architecture called SqueezeNet for memory-limited hardware.
翻訳日:2022-12-17 04:19:31 公開日:2020-04-03
# 造影CT画像における深層学習による急性大動脈症候群の検出

Deep Learning based detection of Acute Aortic Syndrome in contrast CT images ( http://arxiv.org/abs/2004.01648v1 )

ライセンス: Link先を確認
Manikanta Srikar Yellapragada, Yiting Xie, Benedikt Graf, David Richmond, Arun Krishnan, Arkadiusz Sitek(参考訳) 急性大動脈症候群 (AAS) は大動脈の生命を脅かすグループである。 我々はCT画像におけるAAS検出のためのエンドツーエンド自動アプローチを開発した。 私たちのアプローチは2つのステップからなる。 まず,各CTスキャンにおいて,分割大動脈中心線に沿ってN断面を抽出する。 これらの断面積を積み重ねて新しいボリュームを形成し、3d畳み込みニューラルネットワーク(3d cnn)と多重インスタンス学習(mil)という2つの異なる分類器で分類する。 2291コントラストctボリュームで2つのモデルをトレーニングし,検証し,比較した。 230個のコホートと50個の正のctボリュームのセットでテストを行った。 3dcnn と mil を用いて受信者特性曲線(auc) 0.965 および 0.985 の範囲でaas を検出した。

Acute aortic syndrome (AAS) is a group of life threatening conditions of the aorta. We have developed an end-to-end automatic approach to detect AAS in computed tomography (CT) images. Our approach consists of two steps. At first, we extract N cross sections along the segmented aorta centerline for each CT scan. These cross sections are stacked together to form a new volume which is then classified using two different classifiers, a 3D convolutional neural network (3D CNN) and a multiple instance learning (MIL). We trained, validated, and compared two models on 2291 contrast CT volumes. We tested on a set aside cohort of 230 normal and 50 positive CT volumes. Our models detected AAS with an Area under Receiver Operating Characteristic curve (AUC) of 0.965 and 0.985 using 3DCNN and MIL, respectively.
翻訳日:2022-12-17 04:19:02 公開日:2020-04-03
# 低帯域歩行者検出のための近チップダイナミックビジョンフィルタ

Near-chip Dynamic Vision Filtering for Low-Bandwidth Pedestrian Detection ( http://arxiv.org/abs/2004.01689v1 )

ライセンス: Link先を確認
Anthony Bisulco, Fernando Cladera Ojeda, Volkan Isler, Daniel D. Lee(参考訳) 本稿では,ダイナミックビジョンセンサ(DVS)を用いた歩行者検出システムを提案する。 複数のセンサがローカル処理ユニットにデータを送信し、検出アルゴリズムを実行するアプリケーションをターゲットにする。 私たちのシステムは i)DVSからイベントストリームを圧縮・復調するニアチップイベントフィルタ (ii)低計算量エッジコンピューティングデバイス(この場合、stm32f4マイクロコントローラ)上で動作するバイナリニューラルネットワーク(bnn)検出モジュール。 オフィス環境における歩行者検出のためのシステムアーキテクチャとエンドツーエンドの実装について述べる。 実装では、生のイベントストリーム送信と比較して、送信サイズを最大99.6%削減する。 我々のシステムの平均パケットサイズは1397ビットであり、307.2kbは非圧縮DVSタイムウィンドウを送信するのに必要である。 我々の検出器は450ms毎の検知が可能で、全体のf1スコアは83%である。 私たちのシステムの低帯域幅とエネルギー特性は、IoTアプリケーションに理想的です。

This paper presents a novel end-to-end system for pedestrian detection using Dynamic Vision Sensors (DVSs). We target applications where multiple sensors transmit data to a local processing unit, which executes a detection algorithm. Our system is composed of (i) a near-chip event filter that compresses and denoises the event stream from the DVS, and (ii) a Binary Neural Network (BNN) detection module that runs on a low-computation edge computing device (in our case a STM32F4 microcontroller). We present the system architecture and provide an end-to-end implementation for pedestrian detection in an office environment. Our implementation reduces transmission size by up to 99.6% compared to transmitting the raw event stream. The average packet size in our system is only 1397 bits, while 307.2 kb are required to send an uncompressed DVS time window. Our detector is able to perform a detection every 450 ms, with an overall testing F1 score of 83%. The low bandwidth and energy properties of our system make it ideal for IoT applications.
翻訳日:2022-12-17 04:18:48 公開日:2020-04-03
# MPCに基づく混合整数問題に対する強化学習

Reinforcement Learning for Mixed-Integer Problems Based on MPC ( http://arxiv.org/abs/2004.01430v1 )

ライセンス: Link先を確認
Sebastien Gros, Mario Zanon(参考訳) モデル予測制御は、最近、強化学習のポリシー近似として提案され、安全で説明可能な強化学習への道を提供する。 このアプローチは、名目上の経済的なMPCとロバスト(N)MPCの文脈において、Q-ラーニングとアクター批判の手法で研究され、非常に有望な結果を示した。 その文脈では、アクター批判的手法が最も信頼できるアプローチである。 多くの応用には連続入力と整数入力の混合が含まれており、古典的なアクター批判法を適応させる必要がある。 本稿では,混合整数mpcスキームに基づくポリシ近似を提案し,制約の満足度を確保するために,混合整数入力空間の探索を計算的に安価な手法を提案する。 そこで,提案手法では,混合整数mpcに基づくポリシーの勾配を構築できる,簡易に適合するアドバンテージ関数近似を提案する。

Model Predictive Control has been recently proposed as policy approximation for Reinforcement Learning, offering a path towards safe and explainable Reinforcement Learning. This approach has been investigated for Q-learning and actor-critic methods, both in the context of nominal Economic MPC and Robust (N)MPC, showing very promising results. In that context, actor-critic methods seem to be the most reliable approach. Many applications include a mixture of continuous and integer inputs, for which the classical actor-critic methods need to be adapted. In this paper, we present a policy approximation based on mixed-integer MPC schemes, and propose a computationally inexpensive technique to generate exploration in the mixed-integer input space that ensures a satisfaction of the constraints. We then propose a simple compatible advantage function approximation for the proposed policy, that allows one to build the gradient of the mixed-integer MPC-based policy.
翻訳日:2022-12-17 04:11:43 公開日:2020-04-03
# 米の発病病予測: 機械学習とプロセスベースモデル

Predicting rice blast disease: machine learning versus process based models ( http://arxiv.org/abs/2004.01602v1 )

ライセンス: Link先を確認
David F. Nettleton, Dimitrios Katsantonis, Argyris Kalaitzidis, Natasa Sarafijanovic-Djukic, Pau Puigdollers and Roberto Confalonieri(参考訳) 米は世界で2番目に重要な穀物作物であり、主要な主食として依存する人々の数で最初のものである。 米の発芽病は、毎年何百万ドルもの損失をもたらす水稲栽培の最も重要な生物的制約である。 新しい耐性品種の育成努力にもかかわらず、農業の慣行と化学制御は依然として病気管理の最も重要な方法である。 このように、稲芽予測は、稲作農家が病気を抑えるための主要な手段である。 本研究では,米の発芽病を予測するための4つのモデルと,2つのプロセスベースモデル(吉野とウォーム)と,機械学習アルゴリズム(m5rulesとrnn)に基づく2つのアプローチを比較した。 In situテレメトリは、予測モデルのための高品質なフィールドデータを得るために重要であり、この研究をベースとしたRICE-GUARDプロジェクトの重要な側面であった。 著者らによると、植物病害管理を支援するプロセスベースおよび機械学習モデリングアプローチの比較は、これが初めてである。

Rice is the second most important cereal crop worldwide, and the first in terms of number of people who depend on it as a major staple food. Rice blast disease is the most important biotic constraint of rice cultivation causing each year millions of dollars of losses. Despite the efforts for breeding new resistant varieties, agricultural practices and chemical control are still the most important methods for disease management. Thus, rice blast forecasting is a primary tool to support rice growers in controlling the disease. In this study, we compared four models for predicting rice blast disease, two operational process-based models (Yoshino and WARM) and two approaches based on machine learning algorithms (M5Rules and RNN), the former inducing a rule-based model and the latter building a neural network. In situ telemetry is important to obtain quality in-field data for predictive models and this was a key aspect of the RICE-GUARD project on which this study is based. According to the authors, this is the first time process-based and machine learning modelling approaches for supporting plant disease management are compared.
翻訳日:2022-12-17 04:11:17 公開日:2020-04-03
# フェイクニュースの早期検出のためのマルチソース弱社会監視の活用

Leveraging Multi-Source Weak Social Supervision for Early Detection of Fake News ( http://arxiv.org/abs/2004.01732v1 )

ライセンス: Link先を確認
Kai Shu, Guoqing Zheng, Yichuan Li, Subhabrata Mukherjee, Ahmed Hassan Awadallah, Scott Ruston, Huan Liu(参考訳) ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。 しかし、この制限のないアクセスは、オンライン上の偽情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱や混乱を引き起こす可能性がある。 ニュースイベントが急速に進化し、注釈付きデータの量が限られていることを踏まえると、偽ニュース検出に関する最先端のシステムは、早期検出には困難である大量の注釈付きトレーニングインスタンスが欠如しているため、課題に直面している。 本研究では、ユーザとコンテンツエンゲージメント(社会的監督の弱さ)による異なるソースからの複数の弱い信号と、フェイクニュースを検出するための補完的ユーティリティを利用する。 私たちは、限られた量のクリーンデータとソーシャルエンゲージメントからの弱いシグナルを併用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、異なる弱いインスタンスの品質を推定します。 実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。

Social media has greatly enabled people to participate in online activities at an unprecedented rate. However, this unrestricted access also exacerbates the spread of misinformation and fake news online which might cause confusion and chaos unless being detected early for its mitigation. Given the rapidly evolving nature of news events and the limited amount of annotated data, state-of-the-art systems on fake news detection face challenges due to the lack of large numbers of annotated training instances that are hard to come by for early detection. In this work, we exploit multiple weak signals from different sources given by user and content engagements (referred to as weak social supervision), and their complementary utilities to detect fake news. We jointly leverage the limited amount of clean data along with weak signals from social engagements to train deep neural networks in a meta-learning framework to estimate the quality of different weak instances. Experiments on realworld datasets demonstrate that the proposed framework outperforms state-of-the-art baselines for early detection of fake news without using any user engagements at prediction time.
翻訳日:2022-12-17 04:10:35 公開日:2020-04-03
# 再サンプリング法による不均衡フラッドデータセットの重ね合わせ一般化

Stacked Generalizations in Imbalanced Fraud Data Sets using Resampling Methods ( http://arxiv.org/abs/2004.01764v1 )

ライセンス: Link先を確認
Kathleen Kerwin and Nathaniel D. Bastian(参考訳) 本研究は、メタまたはスーパーラーナーと呼ばれる機械学習手法を組み合わせる2段階のプロセスであるスタック一般化を用いて、ステップ1におけるアルゴリズムの性能を改善する(学習セットにおけるバイアスを減らすために個々のアルゴリズムの誤差率を最小化)。 この方法は本質的に拡張されたクロスバリデーション戦略である。 このプロセスは優れた計算資源を使用するが、再サンプリングされた不正データの性能測定結果から、システムコストの増加を正当化できることが示された。 不正データの基本的な鍵は、本質的に体系的ではなく、現在でも最適な再サンプリング手法が特定されていないことである。 アルゴリズムサンプルセットペアのすべての置換を考慮したテストハーネスの構築は、複雑で本質的なデータ構造がすべて徹底的にテストされていることを示している。 累積一般化を適用した不正データの比較分析を用いることで、不均衡な不正データセットに使用する最適な数学的公式を見つけるのに有用な洞察が得られる。

This study uses stacked generalization, which is a two-step process of combining machine learning methods, called meta or super learners, for improving the performance of algorithms in step one (by minimizing the error rate of each individual algorithm to reduce its bias in the learning set) and then in step two inputting the results into the meta learner with its stacked blended output (demonstrating improved performance with the weakest algorithms learning better). The method is essentially an enhanced cross-validation strategy. Although the process uses great computational resources, the resulting performance metrics on resampled fraud data show that increased system cost can be justified. A fundamental key to fraud data is that it is inherently not systematic and, as of yet, the optimal resampling methodology has not been identified. Building a test harness that accounts for all permutations of algorithm sample set pairs demonstrates that the complex, intrinsic data structures are all thoroughly tested. Using a comparative analysis on fraud data that applies stacked generalizations provides useful insight needed to find the optimal mathematical formula to be used for imbalanced fraud data sets.
翻訳日:2022-12-17 04:10:16 公開日:2020-04-03
# ニューラルファジィネットワークに基づくGPS-Intelligent Buoy (GIB)システムにおける動的モデリングと適応制御

Dynamic Modeling and Adaptive Controlling in GPS-Intelligent Buoy (GIB) Systems Based on Neural-Fuzzy Networks ( http://arxiv.org/abs/2004.02625v1 )

ライセンス: Link先を確認
Dangquan Zhang, Muhammad Aqeel Ashraf, Zhenling Liu, Wan-Xi Peng, Mohammad Javad Golkar, Amir Mosavi(参考訳) 近年,制御システムとGPS(Global Positioning System)-インテリジェントブイシステムとの適切な関係を確立するために,様々な関係や基準が提示されている。 本稿では, ブイの位置制御とインテリジェントシステム構築の重要性を考慮し, バックステッピング技術を用いて, 改良されたニューラルネットワークによる海洋ブイの位置決めに動的システムモデリングを適用した。 本研究の目的は,適応型ファジィニューラルネットワークに基づく新しい制御器の開発であり,水面上の動的位置決めされた車両を,不利用可能な速度と未知の制御パラメータで最適に追跡することである。 提案手法を用いてネットワークをモデル化するために,不確実性と不要な外乱がニューラルネットワークで研究されている。 本研究は,不確定な外乱と曖昧さで動的に位置決めされた表層船舶に対して,ベクトルバックステッピング技術を適用したニューラルコントロールを開発することを目的とした。 さらに,閉ループシステムに基づくニューラルネットワーク(NN)の出力誤差を最小化することが目的である。 提案されたブイの位置決めモデルの最も重要な特徴は、船の動力学と望ましくない乱に関する比較知識や情報から独立していることである。 数値的および得られた結果から,制御系は比較的少ない位置誤差でブイの経路と位置を所望の目的に調整できることを示した。

Recently, various relations and criteria have been presented to establish a proper relationship between control systems and control the Global Positioning System (GPS)-intelligent buoy system. Given the importance of controlling the position of buoys and the construction of intelligent systems, in this paper, dynamic system modeling is applied to position marine buoys through the improved neural network with a backstepping technique. This study aims at developing a novel controller based on an adaptive fuzzy neural network to optimally track the dynamically positioned vehicle on the water with unavailable velocities and unidentified control parameters. In order to model the network with the proposed technique, uncertainties and the unwanted disturbances are studied in the neural network. The presented study aims at developing a neural controlling which applies the vectorial back-stepping technique to the surface ships, which have been dynamically positioned with undetermined disturbances and ambivalences. Moreover, the objective function is to minimize the output error for the neural network (NN) based on the closed-loop system. The most important feature of the proposed model for the positioning buoys is its independence from comparative knowledge or information on the dynamics and the unwanted disturbances of ships. The numerical and obtained consequences demonstrate that the control system can adjust the routes and the position of the buoys to the desired objective with relatively few position errors.
翻訳日:2022-12-17 04:09:55 公開日:2020-04-03
# 災害救助のための複数武装バンドのホークスプロセス

Hawkes Process Multi-armed Bandits for Disaster Search and Rescue ( http://arxiv.org/abs/2004.01580v1 )

ライセンス: Link先を確認
Wen-Hao Chiang and George Mohler(参考訳) 本稿では,ホークスプロセスと多腕バンディットアルゴリズムを統合する新しい枠組みを提案し,データのサンプル不足や空間偏りがある場合の時空間的事象予測と検出問題を解決する。 特に,ベイズ空間ホークス過程推定を用いた高信頼バウンドアルゴリズムを導入して,収集された地理的領域の活用と,観測されていない地理的領域の探索とのトレードオフのバランスをとる。 最初にシミュレーションデータを用いてモデルを検証するとともに,2017年のハリケーン・ハーベイからのサービスデータ要求を用いて,防災・救助問題に適用した。 我々のモデルは,累積報酬および他のランキング評価指標の観点から,アートベースライン空間MABアルゴリズムの状況より優れている。

We propose a novel framework for integrating Hawkes processes with multi-armed bandit algorithms to solve spatio-temporal event forecasting and detection problems when data may be undersampled or spatially biased. In particular, we introduce an upper confidence bound algorithm using Bayesian spatial Hawkes process estimation for balancing the tradeoff between exploiting geographic regions where data has been collected and exploring geographic regions where data is unobserved. We first validate our model using simulated data and then apply it to the problem of disaster search and rescue using calls for service data from hurricane Harvey in 2017. Our model outperforms the state of the art baseline spatial MAB algorithms in terms of cumulative reward and several other ranking evaluation metrics.
翻訳日:2022-12-17 04:02:17 公開日:2020-04-03
# 畳み込みニューラルネットワークを用いた心理ストレスモデリングのためのオンデバイス転送学習

On-Device Transfer Learning for Personalising Psychological Stress Modelling using a Convolutional Neural Network ( http://arxiv.org/abs/2004.01603v1 )

ライセンス: Link先を確認
Kieran Woodward, Eiman Kanjo, David J. Brown and T.M. McGinnity(参考訳) 現代社会のストレスは、これまで以上に広い人口に悪影響を及ぼしている。 ストレスの正確な推測は、個人化された介入の可能性をもたらす可能性がある。 しかし、個人差は、同じ感情を経験する際の人間の生理学として感情を推測する機械学習モデルの一般的な可能性を制限する。 さらに、センサーデータをリアルタイムにラベル付けするユーザに依存するため、個人の感情の大規模なデータセット収集には時間がかかり、極めて困難である。 制御ストレス実験を完了した20人の参加者のデータを用いて訓練した初期ベースモデルからトランスファー学習を活用することで、個人化されたクロスドメイン1D CNNの開発を提案する。 ラベル付けテクニックを付加したエッジコンピューティングインターフェース内に埋め込まれた生理学的センサー(HR, HRV EDA)を利用することで、オンデバイス移行学習に使用可能な小さな実世界のパーソナルデータセットを収集し、モデルのパーソナライズとクロスドメインパフォーマンスを向上させることができる。

Stress is a growing concern in modern society adversely impacting the wider population more than ever before. The accurate inference of stress may result in the possibility for personalised interventions. However, individual differences between people limits the generalisability of machine learning models to infer emotions as people's physiology when experiencing the same emotions widely varies. In addition, it is time consuming and extremely challenging to collect large datasets of individuals' emotions as it relies on users labelling sensor data in real-time for extended periods. We propose the development of a personalised, cross-domain 1D CNN by utilising transfer learning from an initial base model trained using data from 20 participants completing a controlled stressor experiment. By utilising physiological sensors (HR, HRV EDA) embedded within edge computing interfaces that additionally contain a labelling technique, it is possible to collect a small real-world personal dataset that can be used for on-device transfer learning to improve model personalisation and cross-domain performance.
翻訳日:2022-12-17 04:01:57 公開日:2020-04-03
# ハイパーパラメータ最適化のための重み付きランダム探索

Weighted Random Search for Hyperparameter Optimization ( http://arxiv.org/abs/2004.01628v1 )

ライセンス: Link先を確認
Adrian-Catalin Florea, Razvan Andonie(参考訳) 本稿では,機械学習アルゴリズムのハイパーパラメータ最適化に使用されるランダム検索(RS)の改良版を紹介する。 すべてのハイパーパラメータに対して新しい値を生成する標準RSとは異なり、変化の確率で各ハイパーパラメータに対して新しい値を生成する。 このアプローチの背後にある直感は、すでに良い結果をもたらした値が次のステップのよい候補であり、新しいハイパーパラメータ値の組み合わせでテストされるべきである、ということです。 同じ計算予算内で、我々の手法は標準RSよりも優れた結果が得られる。 私たちの理論的結果はこの主張を証明します。 本稿では,この問題のクラス(Grievank関数)と,ディープラーニングCNNアーキテクチャのハイパーパラメータ最適化のために,最もよく使用される目的関数のバリエーションについて検証する。 この結果は離散領域上で定義された任意の最適化問題に一般化することができる。

We introduce an improved version of Random Search (RS), used here for hyperparameter optimization of machine learning algorithms. Unlike the standard RS, which generates for each trial new values for all hyperparameters, we generate new values for each hyperparameter with a probability of change. The intuition behind our approach is that a value that already triggered a good result is a good candidate for the next step, and should be tested in new combinations of hyperparameter values. Within the same computational budget, our method yields better results than the standard RS. Our theoretical results prove this statement. We test our method on a variation of one of the most commonly used objective function for this class of problems (the Grievank function) and for the hyperparameter optimization of a deep learning CNN architecture. Our results can be generalized to any optimization problem defined on a discrete domain.
翻訳日:2022-12-17 04:01:40 公開日:2020-04-03
# リトアニアニュースクラスタリングのための事前学習トランスフォーマーモデルの検証

Testing pre-trained Transformer models for Lithuanian news clustering ( http://arxiv.org/abs/2004.03461v1 )

ライセンス: Link先を確認
Lukas Stankevi\v{c}ius and Mantas Luko\v{s}evi\v{c}ius(参考訳) 最近のトランスフォーマーディープラーニングアーキテクチャの導入は、様々な自然言語処理タスクにおいてブレークスルーをもたらした。 しかし、英語以外の言語は英語の事前訓練されたモデルではそのような新たな機会を活用できなかった。 これは多言語モデルに焦点を絞った研究によって変化し、話し言葉の少ない言語が主な受益者となった。 リトアニアのニュースクラスタリングタスクの符号化として,事前学習された多言語bert,xlm-r,旧学習テキスト表現法を比較した。 この結果から, 単語ベクトルを超えるように微調整できるが, 特別な訓練を施した doc2vec 埋め込みよりもはるかに低いスコアが得られた。

A recent introduction of Transformer deep learning architecture made breakthroughs in various natural language processing tasks. However, non-English languages could not leverage such new opportunities with the English text pre-trained models. This changed with research focusing on multilingual models, where less-spoken languages are the main beneficiaries. We compare pre-trained multilingual BERT, XLM-R, and older learned text representation methods as encodings for the task of Lithuanian news clustering. Our results indicate that publicly available pre-trained multilingual Transformer models can be fine-tuned to surpass word vectors but still score much lower than specially trained doc2vec embeddings.
翻訳日:2022-12-17 04:00:12 公開日:2020-04-03
# CPPN2GAN:大規模パターン生成のための構成パターン生成ネットワークとGANの組み合わせ

CPPN2GAN: Combining Compositional Pattern Producing Networks and GANs for Large-scale Pattern Generation ( http://arxiv.org/abs/2004.01703v1 )

ライセンス: Link先を確認
Jacob Schrum and Vanessa Volz and Sebastian Risi(参考訳) Generative Adversarial Networks (GANs) は進化的探索のための強力な間接的な遺伝子型対フェノタイプマッピングであることが証明されている。 特にgan出力は任意の次元にスケールせず、複数のgan出力を結合的な全体に変換する明確な方法は存在せず、ビデオゲームレベルの生成など、多くの分野で有用である。 ゲームレベルは、しばしばいくつかのセグメントで構成され、しばしば直接または変化して、エンゲージメントパターンに編成される。 このようなパターンをコンポジションパターン生成ネットワーク(CPPN)で生成することができる。 具体的には、CPPN は遅延ベクトル GAN 入力を幾何学の関数として定義することができ、GAN によって出力されるレベルセグメントを完全なレベルに整理する方法を提供する。 この新しいCPPN2GANアプローチはスーパーマリオブラザーズとゼルダ伝説の両方で検証されている。 具体的には、MAP-Elitesによる発散探索により、CPPN2GANは可能なレベルの空間をよりよくカバーできることを示した。 結果として得られるレベルのレイアウトもより凝集的で、美学的に一貫性がある。

Generative Adversarial Networks (GANs) are proving to be a powerful indirect genotype-to-phenotype mapping for evolutionary search, but they have limitations. In particular, GAN output does not scale to arbitrary dimensions, and there is no obvious way of combining multiple GAN outputs into a cohesive whole, which would be useful in many areas, such as the generation of video game levels. Game levels often consist of several segments, sometimes repeated directly or with variation, organized into an engaging pattern. Such patterns can be produced with Compositional Pattern Producing Networks (CPPNs). Specifically, a CPPN can define latent vector GAN inputs as a function of geometry, which provides a way to organize level segments output by a GAN into a complete level. This new CPPN2GAN approach is validated in both Super Mario Bros. and The Legend of Zelda. Specifically, divergent search via MAP-Elites demonstrates that CPPN2GAN can better cover the space of possible levels. The layouts of the resulting levels are also more cohesive and aesthetically consistent.
翻訳日:2022-12-17 03:54:01 公開日:2020-04-03
# 言語翻訳におけるヒューマンマシンパリティ評価のための一連の推奨

A Set of Recommendations for Assessing Human-Machine Parity in Language Translation ( http://arxiv.org/abs/2004.01694v1 )

ライセンス: Link先を確認
Samuel L\"aubli and Sheila Castilho and Graham Neubig and Rico Sennrich and Qinlan Shen and Antonio Toral(参考訳) 機械翻訳の質はここ数年で著しく向上し、多くの経験的調査で専門家の人間翻訳とは区別がつかないことが判明した。 2018年にhassanらによる中国語と英語のニュース翻訳に関する調査を再検討した結果、人間と機械の同等性の発見は評価設計の弱点によるものであることが判明した。 専門家による人文翻訳では誤りが有意に少なく,評価の質は,格付け者の選択,言語的文脈の可利用性,参照翻訳の作成に左右されることが示された。 本研究の結果は,機械翻訳システム全般,特に人間と機械の相性を評価する上での現在のベストプラクティスを再考し,経験的知見に基づく一連の勧告を提示した。

The quality of machine translation has increased remarkably over the past years, to the degree that it was found to be indistinguishable from professional human translation in a number of empirical investigations. We reassess Hassan et al.'s 2018 investigation into Chinese to English news translation, showing that the finding of human-machine parity was owed to weaknesses in the evaluation design - which is currently considered best practice in the field. We show that the professional human translations contained significantly fewer errors, and that perceived quality in human evaluation depends on the choice of raters, the availability of linguistic context, and the creation of reference translations. Our results call for revisiting current best practices to assess strong machine translation systems in general and human-machine parity in particular, for which we offer a set of recommendations based on our empirical findings.
翻訳日:2022-12-17 03:53:42 公開日:2020-04-03
# 階層的フレーズに基づく翻訳のための複数の特化非終端を持つ同期文脈自由文法の学習

Learning synchronous context-free grammars with multiple specialised non-terminals for hierarchical phrase-based translation ( http://arxiv.org/abs/2004.01422v1 )

ライセンス: Link先を確認
Felipe S\'anchez-Mart\'inez, Juan Antonio P\'erez-Ortiz, Rafael C. Carrasco(参考訳) 階層的フレーズベース統計機械翻訳(HSMT)に基づく翻訳モデルは、いくつかの言語対に対する非階層的フレーズベース翻訳よりも優れた性能を示した。 HSMTの標準的なアプローチは、単一の非終端を持つ同期文脈自由文法を学習し、適用する。 この研究で示された文法精製アルゴリズムの背後にある仮説は、この単一の非終端は過負荷であり、十分に識別できないため、より専門化されたシンボルに適切に分割することで、改善されたモデルをもたらす可能性があるというものである。 本稿では,クラスタリングアルゴリズムによってグループ化される大量の初期非終端を持つ同期文脈自由文法を学習する手法を提案する。 実験の結果,結果の少ない非終端集合が文脈情報を正しく捕捉し,標準HSMT手法のBLEUスコアを統計的に向上させることができることがわかった。

Translation models based on hierarchical phrase-based statistical machine translation (HSMT) have shown better performances than the non-hierarchical phrase-based counterparts for some language pairs. The standard approach to HSMT learns and apply a synchronous context-free grammar with a single non-terminal. The hypothesis behind the grammar refinement algorithm presented in this work is that this single non-terminal is overloaded, and insufficiently discriminative, and therefore, an adequate split of it into more specialised symbols could lead to improved models. This paper presents a method to learn synchronous context-free grammars with a huge number of initial non-terminals, which are then grouped via a clustering algorithm. Our experiments show that the resulting smaller set of non-terminals correctly capture the contextual information that makes it possible to statistically significantly improve the BLEU score of the standard HSMT approach.
翻訳日:2022-12-17 03:53:27 公開日:2020-04-03
# 航空交通制御のためのディープアンサンブルマルチエージェント強化学習手法

A Deep Ensemble Multi-Agent Reinforcement Learning Approach for Air Traffic Control ( http://arxiv.org/abs/2004.01387v1 )

ライセンス: Link先を確認
Supriyo Ghosh, Sean Laguna, Shiau Hong Lim, Laura Wynter and Hasan Poonawala(参考訳) 航空交通制御は、意思決定支援技術による人間の専門知識向上に容易に対応できる非常に困難な運用上の問題の一例である。 本稿では,マルチエージェント強化学習(MARL)を活用し,航空機の速度の動的調整をリアルタイムに提案する知的意思決定フレームワークを提案する。 本システムの目的は,航空交通渋滞や近距離状況の回避,到着スケジュールの改善のために,航空管制官が航空機に効果的な誘導を行う能力を高めることである。 我々は,ローカルカーネルベースのRLモデルとより広い範囲の深層MARLモデルの判断を効率よく仲裁することを学ぶことで,航空交通制御問題の複雑さを簡潔に把握できる新しいディープアンサンブルMARL法を開発した。 提案手法は、eurocontrolが開発したオープンソースの航空交通管理シミュレータを用いて訓練および評価を行う。 航空機数千機を含む実世界のデータセットにおける広範囲な実験結果から,マルチエージェントrlを用いた道路交通制御の可能性が示され,提案手法が3つの最先端ベンチマーク手法を大きく上回ることを示した。

Air traffic control is an example of a highly challenging operational problem that is readily amenable to human expertise augmentation via decision support technologies. In this paper, we propose a new intelligent decision making framework that leverages multi-agent reinforcement learning (MARL) to dynamically suggest adjustments of aircraft speeds in real-time. The goal of the system is to enhance the ability of an air traffic controller to provide effective guidance to aircraft to avoid air traffic congestion, near-miss situations, and to improve arrival timeliness. We develop a novel deep ensemble MARL method that can concisely capture the complexity of the air traffic control problem by learning to efficiently arbitrate between the decisions of a local kernel-based RL model and a wider-reaching deep MARL model. The proposed method is trained and evaluated on an open-source air traffic management simulator developed by Eurocontrol. Extensive empirical results on a real-world dataset including thousands of aircraft demonstrate the feasibility of using multi-agent RL for the problem of en-route air traffic control and show that our proposed deep ensemble MARL method significantly outperforms three state-of-the-art benchmark approaches.
翻訳日:2022-12-17 03:53:11 公開日:2020-04-03
# GBDTのためのUnpackローカルモデル解釈

Unpack Local Model Interpretation for GBDT ( http://arxiv.org/abs/2004.01358v1 )

ライセンス: Link先を確認
Wenjing Fang, Jun Zhou, Xiaolong Li, and Kenny Q. Zhu(参考訳) 単一の弱い学習者(すなわち決定木)の集まりを集約する勾配向上決定木(GBDT)は、データマイニングタスクに広く使われている。 GBDTはそのアンサンブルから優れたパフォーマンスを継承するため、このモデルの最適化に多くの注意が向けられている。 普及に伴い、モデル解釈の必要性が高まっている。 グローバルな解釈として一般的に用いられる機能の重要性に加えて、特徴貢献は特定のインスタンスと関連する出力の関係を明らかにする局所的な尺度である。 本研究は局所的な解釈に焦点を当て,GBDTのインスタンスレベルの機能コントリビューションを実現するための統一的な計算機構を提案する。 このメカニズムの実用性は、リストされた実験と実際の産業シナリオでの応用によって検証される。

A gradient boosting decision tree (GBDT), which aggregates a collection of single weak learners (i.e. decision trees), is widely used for data mining tasks. Because GBDT inherits the good performance from its ensemble essence, much attention has been drawn to the optimization of this model. With its popularization, an increasing need for model interpretation arises. Besides the commonly used feature importance as a global interpretation, feature contribution is a local measure that reveals the relationship between a specific instance and the related output. This work focuses on the local interpretation and proposes an unified computation mechanism to get the instance-level feature contributions for GBDT in any version. Practicality of this mechanism is validated by the listed experiments as well as applications in real industry scenarios.
翻訳日:2022-12-17 03:52:32 公開日:2020-04-03
# Attribute2vec:マルチフィルタGCNによるディープネットワーク埋め込み

Attribute2vec: Deep Network Embedding Through Multi-Filtering GCN ( http://arxiv.org/abs/2004.01375v1 )

ライセンス: Link先を確認
Tingyi Wanyan, Chenwei Zhang, Ariful Azad, Xiaomin Liang, Daifeng Li, Ying Ding(参考訳) 本稿では,ネットワーク埋め込みタスクのためのマルチフィルタグラフ畳み込みニューラルネットワーク(gcn)フレームワークを提案する。 複数のローカルGCNフィルタを使用して、各伝搬層で特徴抽出を行う。 このアプローチは、既存の属性埋め込みベースの手法に対して、ノード機能の異なる重要な側面を捉えることができる。 また,マルチフィルタGCN手法を用いることで,トレーニングデータに制限がある場合のベースライン手法に対する大幅な改善が可能であることを示す。 また、多数の実証実験を行い、リンク予測とノード分類の両方のための既存のネットワーク埋め込み手法と同様に、単一フィルタに対して複数のフィルタを使用する利点を示す。

We present a multi-filtering Graph Convolution Neural Network (GCN) framework for network embedding task. It uses multiple local GCN filters to do feature extraction in every propagation layer. We show this approach could capture different important aspects of node features against the existing attribute embedding based method. We also show that with multi-filtering GCN approach, we can achieve significant improvement against baseline methods when training data is limited. We also perform many empirical experiments and demonstrate the benefit of using multiple filters against single filter as well as most current existing network embedding methods for both the link prediction and node classification tasks.
翻訳日:2022-12-17 03:52:20 公開日:2020-04-03
# 神経条件イベント時間モデル

Neural Conditional Event Time Models ( http://arxiv.org/abs/2004.01376v1 )

ライセンス: Link先を確認
Matthew Engelhard, Samuel Berchuck, Joshua D'Arcy, Ricardo Henao(参考訳) イベント時間モデルは、既知の特徴に基づいて、関心のあるイベントの発生時間を予測する。 最近の研究は、ニューラルネットワークがさまざまな設定で最先端のイベント時間予測を実現することを実証している。 しかし、標準的なイベントタイムモデルは、最終的にすべてのケースでイベントが発生すると仮定する。 そのため、区別は行われない。 a) 事象の発生確率、及び b) 発生の予測時刻 この区別は、医療診断、機器欠陥、ソーシャルメディア投稿、その他の発生しない出来事を予測し、その特徴に影響を及ぼす場合に重要である。 a)影響を受けるものと異なるかもしれない b)。 本研究では,これらの成分を識別し,有限事象発生を表す二項確率層を持つニューラルネットワークとして実装する条件付きイベント時間モデルを構築し,最大推定値を用いて,その事象時間からどのように学習するかを示す。 その結果、総合データ、医療イベント(mimic-iii)、ソーシャルメディア投稿(reddit)において、21の予測タスクを含む優れたイベント発生とイベントタイム予測が得られた。

Event time models predict occurrence times of an event of interest based on known features. Recent work has demonstrated that neural networks achieve state-of-the-art event time predictions in a variety of settings. However, standard event time models suppose that the event occurs, eventually, in all cases. Consequently, no distinction is made between a) the probability of event occurrence, and b) the predicted time of occurrence. This distinction is critical when predicting medical diagnoses, equipment defects, social media posts, and other events that or may not occur, and for which the features affecting a) may be different from those affecting b). In this work, we develop a conditional event time model that distinguishes between these components, implement it as a neural network with a binary stochastic layer representing finite event occurrence, and show how it may be learned from right-censored event times via maximum likelihood estimation. Results demonstrate superior event occurrence and event time predictions on synthetic data, medical events (MIMIC-III), and social media posts (Reddit), comprising 21 total prediction tasks.
翻訳日:2022-12-17 03:52:14 公開日:2020-04-03
# 逆ビットフリップによるInfomaxニューラルジョイントソースチャネル符号化

Infomax Neural Joint Source-Channel Coding via Adversarial Bit Flip ( http://arxiv.org/abs/2004.01454v1 )

ライセンス: Link先を確認
Yuxuan Song, Minkai Xu, Lantao Yu, Hao Zhou, Shuo Shao, Yong Yu(参考訳) シャノン理論では、ソースとチャネル符号化を2つの独立したプロセスとして分離することは漸近的に最適であるが、多くの実用的な通信シナリオでは、この分解は有限ビット長と復号のための計算能力によって制限される。 近年,ニューラルジョイントソースチャネル符号化(NECST)が提案されている。 暗黙的推論と深層学習の進歩を活用して符号化と復号化のプロセスを改善するが、学習した符号化ネットワークの堅牢性に限界があるため、圧縮と誤り訂正性能の点で常に説得力のある結果を得ることはできない。 本稿では,ニューラルジョイント・ソース・チャネル符号化と離散表現学習の関連性から,ニューラルジョイント・ソース・チャネル符号化方式の安定性と堅牢性を向上させるために,Infomax Adversarial-Bit-Flip (IABF) と呼ばれる新たな正規化手法を提案する。 より具体的には、エンコーダ側では、コードワードとデータ間の相互情報を明示的に最大化することを提案し、デコーダ側では、償却された再構成は敵のフレームワーク内で規則化される。 様々な実世界のデータセットで実施された大規模な実験により、IABFは圧縮と誤り訂正ベンチマークの両方で最先端のパフォーマンスを達成でき、ベースラインをかなりの差で上回ることが証明された。

Although Shannon theory states that it is asymptotically optimal to separate the source and channel coding as two independent processes, in many practical communication scenarios this decomposition is limited by the finite bit-length and computational power for decoding. Recently, neural joint source-channel coding (NECST) is proposed to sidestep this problem. While it leverages the advancements of amortized inference and deep learning to improve the encoding and decoding process, it still cannot always achieve compelling results in terms of compression and error correction performance due to the limited robustness of its learned coding networks. In this paper, motivated by the inherent connections between neural joint source-channel coding and discrete representation learning, we propose a novel regularization method called Infomax Adversarial-Bit-Flip (IABF) to improve the stability and robustness of the neural joint source-channel coding scheme. More specifically, on the encoder side, we propose to explicitly maximize the mutual information between the codeword and data; while on the decoder side, the amortized reconstruction is regularized within an adversarial framework. Extensive experiments conducted on various real-world datasets evidence that our IABF can achieve state-of-the-art performances on both compression and error correction benchmarks and outperform the baselines by a significant margin.
翻訳日:2022-12-17 03:51:57 公開日:2020-04-03
# 非自己回帰機械翻訳のためのアライメントクロスエントロピー

Aligned Cross Entropy for Non-Autoregressive Machine Translation ( http://arxiv.org/abs/2004.01655v1 )

ライセンス: Link先を確認
Marjan Ghazvininejad, Vladimir Karpukhin, Luke Zettlemoyer, Omer Levy(参考訳) 非自己回帰機械翻訳モデルは、ターゲットシーケンス全体の並列予測を可能にしてデコードを大幅に高速化する。 しかし,モデルに自己回帰因子が欠如しているため,単語順のモデル化は困難である。 このことは、単語順の小さなシフトを高いペナルティ化できるクロスエントロピー損失の訓練中に複雑化する。 本稿では,非自己回帰モデルの学習のための代替的損失関数としてアライメントクロスエントロピー(AXE)を提案する。 axeは微分可能な動的プログラムを使用して、ターゲットトークンとモデル予測の間の最善のモノトニックアライメントに基づいて損失を割り当てる。 axeベースの条件付きマスキング言語モデル(cmlms)のトレーニングでは、主要なwmtベンチマークのパフォーマンスが大幅に向上すると同時に、非自己回帰モデルのための新しい状態を設定する。

Non-autoregressive machine translation models significantly speed up decoding by allowing for parallel prediction of the entire target sequence. However, modeling word order is more challenging due to the lack of autoregressive factors in the model. This difficultly is compounded during training with cross entropy loss, which can highly penalize small shifts in word order. In this paper, we propose aligned cross entropy (AXE) as an alternative loss function for training of non-autoregressive models. AXE uses a differentiable dynamic program to assign loss based on the best possible monotonic alignment between target tokens and model predictions. AXE-based training of conditional masked language models (CMLMs) substantially improves performance on major WMT benchmarks, while setting a new state of the art for non-autoregressive models.
翻訳日:2022-12-17 03:44:31 公開日:2020-04-03
# ドメイン一般化のための逐次学習

Sequential Learning for Domain Generalization ( http://arxiv.org/abs/2004.01377v1 )

ライセンス: Link先を確認
Da Li, Yongxin Yang, Yi-Zhe Song and Timothy Hospedales(参考訳) 本稿では,設計によってドメインシフトにロバストなモデルをトレーニングする問題である,ドメイン一般化のための逐次学習フレームワークを提案する。 様々なDGアプローチが、異なる動機付けの直観で提案されているが、それらは通常、ドメインの一般化の単一ステップのために最適化されている。 私たちのシーケンシャルな学習は生涯学習のアイデアにインスパイアされており、蓄積された経験は、n^{th}$の学習が1^{st}$の学習よりも簡単になることを意味する。 DGでは、一連のドメインに遭遇し、各ステップで次のドメインのパフォーマンスを最大化する。 ドメイン $n$ のパフォーマンスは、以前の $n-1$ 学習問題に依存する。 したがって、シーケンスをバックプロパゲーションすることは、次のドメインだけでなく、以下のすべてのドメインに対してパフォーマンスを最適化することを意味する。 このようなドメインのすべてのシーケンスのトレーニングは、既存のアプローチと比較して、ベースDG学習者には劇的に"実践的"を提供するため、真のテストドメインのパフォーマンスが向上します。 この戦略は、異なるベースDGアルゴリズムに対してインスタンス化することができるが、最近提案されたメタラーニングドメイン一般化(MLDG)への応用に焦点を当てる。 MLDGでは,様々なDGベンチマークで一貫した性能向上を実現する,実装が簡単かつ高速なアルゴリズムが実現可能であることを示す。

In this paper we propose a sequential learning framework for Domain Generalization (DG), the problem of training a model that is robust to domain shift by design. Various DG approaches have been proposed with different motivating intuitions, but they typically optimize for a single step of domain generalization -- training on one set of domains and generalizing to one other. Our sequential learning is inspired by the idea lifelong learning, where accumulated experience means that learning the $n^{th}$ thing becomes easier than the $1^{st}$ thing. In DG this means encountering a sequence of domains and at each step training to maximise performance on the next domain. The performance at domain $n$ then depends on the previous $n-1$ learning problems. Thus backpropagating through the sequence means optimizing performance not just for the next domain, but all following domains. Training on all such sequences of domains provides dramatically more `practice' for a base DG learner compared to existing approaches, thus improving performance on a true testing domain. This strategy can be instantiated for different base DG algorithms, but we focus on its application to the recently proposed Meta-Learning Domain generalization (MLDG). We show that for MLDG it leads to a simple to implement and fast algorithm that provides consistent performance improvement on a variety of DG benchmarks.
翻訳日:2022-12-17 03:44:01 公開日:2020-04-03
# TensorFI:TensorFlowアプリケーションのための柔軟なフォールトインジェクションフレームワーク

TensorFI: A Flexible Fault Injection Framework for TensorFlow Applications ( http://arxiv.org/abs/2004.01743v1 )

ライセンス: Link先を確認
Zitao Chen, Niranjhana Narayanan, Bo Fang, Guanpeng Li, Karthik Pattabiraman and Nathan DeBardeleben(参考訳) 機械学習(ML)が安全クリティカルな領域(例えば自動運転車)に採用されるにつれて、MLシステムの信頼性も重要になっている。 以前の研究では、効率的なエラーレジリエンス技術(例えば選択的命令重複)を可能にする技術が提案されているが、これらの技術を実現するための基本的な要件は、アプリケーションのレジリエンスを詳細に理解することである。 本研究ではTensorFlowベースのアプリケーションのための高レベルなフォールトインジェクション(FI)フレームワークであるTensorFIを紹介する。 TensorFIは、一般的なTensorFlowプログラムにハードウェアとソフトウェアの両方の障害を注入することができる。 TensorFIは、フレキシブルで、使いやすく、ポータブルな設定可能なFIツールである。 既存のTensorFlowプログラムに統合して、さまざまな障害タイプ(特にオペレータの障害など)に対するレジリエンスを評価することも可能だ。 我々は、自動運転車ドメインで使用されるDNNを含む12のMLプログラムのレジリエンスを評価するためにTensorFIを使用します。 私たちのツールはhttps://github.com/DependableSystemsLab/TensorFIで公開されています。

As machine learning (ML) has seen increasing adoption in safety-critical domains (e.g., autonomous vehicles), the reliability of ML systems has also grown in importance. While prior studies have proposed techniques to enable efficient error-resilience techniques (e.g., selective instruction duplication), a fundamental requirement for realizing these techniques is a detailed understanding of the application's resilience. In this work, we present TensorFI, a high-level fault injection (FI) framework for TensorFlow-based applications. TensorFI is able to inject both hardware and software faults in general TensorFlow programs. TensorFI is a configurable FI tool that is flexible, easy to use, and portable. It can be integrated into existing TensorFlow programs to assess their resilience for different fault types (e.g., faults in particular operators). We use TensorFI to evaluate the resilience of 12 ML programs, including DNNs used in the autonomous vehicle domain. Our tool is publicly available at https://github.com/DependableSystemsLab/TensorFI.
翻訳日:2022-12-17 03:43:27 公開日:2020-04-03
# サブスペースクラスタリングと分類のためのロバスト自己監視畳み込みニューラルネットワーク

Robust Self-Supervised Convolutional Neural Network for Subspace Clustering and Classification ( http://arxiv.org/abs/2004.03375v1 )

ライセンス: Link先を確認
Dario Sitnik and Ivica Kopriva(参考訳) 非線形多様体やデータ破損,サンプル外データから得られるデータを扱うための,既存のサブスペースクラスタリング手法の不十分な能力は,実世界のクラスタリングや分類問題への対処を妨げている。 本稿では,完全連結(FC)層を組み込んだ自己教師型畳み込みサブスペースクラスタリングネットワーク(S^2$ConvSCN)のロバストな定式化を提案する。 S^2$ConvSCN クラスタデータは、特徴空間における線形自己表現モデルを学ぶことによって非線形多様体から得られる。 データ破損に対するロバスト性は、誤差のコレントロピー誘導計量(CIM)を用いて達成される。 さらに、表現行列のブロック対角構造(BD)は、BD正規化によって明示的に強制される。 真の教師なしのトレーニング環境では、Robust $S^2$ConvSCNは、4つのよく知られたデータセットで見られるデータと見えないデータの両方に対して、ベースラインバージョンをかなり上回っている。 このようなアブレーション研究はこれまで報告されていない。

Insufficient capability of existing subspace clustering methods to handle data coming from nonlinear manifolds, data corruptions, and out-of-sample data hinders their applicability to address real-world clustering and classification problems. This paper proposes the robust formulation of the self-supervised convolutional subspace clustering network ($S^2$ConvSCN) that incorporates the fully connected (FC) layer and, thus, it is capable for handling out-of-sample data by classifying them using a softmax classifier. $S^2$ConvSCN clusters data coming from nonlinear manifolds by learning the linear self-representation model in the feature space. Robustness to data corruptions is achieved by using the correntropy induced metric (CIM) of the error. Furthermore, the block-diagonal (BD) structure of the representation matrix is enforced explicitly through BD regularization. In a truly unsupervised training environment, Robust $S^2$ConvSCN outperforms its baseline version by a significant amount for both seen and unseen data on four well-known datasets. Arguably, such an ablation study has not been reported before.
翻訳日:2022-12-17 03:43:12 公開日:2020-04-03
# 顔の3D認識:最先端2D法に3Dを加える

Differential 3D Facial Recognition: Adding 3D to Your State-of-the-Art 2D Method ( http://arxiv.org/abs/2004.03385v1 )

ライセンス: Link先を確認
J. Matias Di Martino, Fernando Suzacq, Mauricio Delbracio, Qiang Qiu, and Guillermo Sapiro(参考訳) アクティブ照明は、2D顔認証を強化し、例えば、スプーフィング攻撃や低照度条件に対してより堅牢にするための顕著な補体である。 本研究は,3次元再構成の複雑なタスクを回避しつつ,最先端の2次元顔認証アプローチを3次元特徴で強化するために,能動的照明を適用可能であることを示す。 重要なアイデアは、テスト面に高い空間周波数パターンを投影することで、実際の3d情報と標準の2d顔画像を同時に復元することです。 したがって、入力画像の高周波成分から相補的な3D顔特徴を抽出しながら、最先端2D顔認識ソリューションを透過的に適用することができる。 ND-2006データセットによる実験結果から,提案手法は顔認識性能を大幅に向上し,スプーフィング攻撃に対するロバスト性を劇的に向上させることが示された。

Active illumination is a prominent complement to enhance 2D face recognition and make it more robust, e.g., to spoofing attacks and low-light conditions. In the present work we show that it is possible to adopt active illumination to enhance state-of-the-art 2D face recognition approaches with 3D features, while bypassing the complicated task of 3D reconstruction. The key idea is to project over the test face a high spatial frequency pattern, which allows us to simultaneously recover real 3D information plus a standard 2D facial image. Therefore, state-of-the-art 2D face recognition solution can be transparently applied, while from the high frequency component of the input image, complementary 3D facial features are extracted. Experimental results on ND-2006 dataset show that the proposed ideas can significantly boost face recognition performance and dramatically improve the robustness to spoofing attacks.
翻訳日:2022-12-17 03:42:29 公開日:2020-04-03