このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200211となっている論文です。

PDF登録状況(公開日: 20200211)

TitleAuthorsAbstract論文公表日・翻訳日
# 光学ラマン格子における非エルゴード臨界相の実現と検出

Realization and detection of non-ergodic critical phases in optical Raman lattice ( http://arxiv.org/abs/2001.11471v2 )

ライセンス: Link先を確認
Yucheng Wang, Long Zhang, Sen Niu, Dapeng Yu, Xiong-Jun Liu(参考訳) 非局所化だが非エルゴードである臨界相は、多体局在とエルゴード拡張量子位相の両方とは異なる基本相であり、実験では実現されていない。 本稿では,一次元スピン軌道結合とゼーマンポテンシャルを持つトポロジカル光学ラマン格子スキームに基づく相互作用と相互作用のない臨界位相を実現することを提案する。 位相相と共存する非相互作用相と多体臨界相の両方の存在を実証し、非相互作用相における臨界局所化遷移と位相相境界が一致することを示す。 臨界相の動的検出が提案され、詳細に研究されている。 最後に,提案した臨界相が,現在の低温原子実験に基づいてどのように達成できるかを示す。 この研究は、新しい臨界段階を観察する道を開く。

The critical phases, being delocalized but non-ergodic, are fundamental phases which are different from both the many-body localization and ergodic extended quantum phases, and have so far not been realized in experiment. Here we propose to realize such critical phases with and without interaction based on a topological optical Raman lattice scheme, which possesses one-dimensional spin-orbit coupling and an incommensurate Zeeman potential. We demonstrate the existence of both the noninteracting and many-body critical phases, which can coexist with the topological phase, and show that the critical-localization transition coincides with the topological phase boundary in noninteracting regime. The dynamical detection of the critical phases is proposed and studied in detail. Finally, we demonstrate how the proposed critical phases can be achieved based on the current cold atom experiments. This work paves the way to observe the novel critical phases.
翻訳日:2023-06-05 04:44:58 公開日:2020-02-11
# 量子ゲートの分類に基づく時間最適制御

Time optimal control based on classification of quantum gates ( http://arxiv.org/abs/2002.03161v2 )

ライセンス: Link先を確認
Bao-Zhi Sun, Shao-Ming Fei, Naihuan Jing, Xianqing Li-Jost(参考訳) 2つのヘテロ核スピン系における任意の2量子ゲートの実装に要する最小時間について検討する。 局所同値の不変量に基づく2量子ビットゲートの系統的特徴付けを行う。 量子ゲートは4つのクラスに分類され、各クラスに対して量子ゲートを実装する最小時間の解析式が明示的に提示される。 与えられた量子ゲートに対して、対応する不変量を計算することで、量子ゲートが属するクラスを容易に得ることができる。 特に、ゲートを実装するための最小時間に対する大域的な位相の影響を分析する。 この結果は、2つのヘテロ核スピン系において任意の2量子ビットゲートを実装する際の最適時間問題の完全解を示す。 詳細な例は、大域位相の有無にかかわらず、典型的な2量子ゲートに与えられる。

We study the minimum time to implement an arbitrary two-qubit gate in two heteronuclear spins systems. We give a systematic characterization of two-qubit gates based on the invariants of local equivalence. The quantum gates are classified into four classes, and for each class the analytical formula of the minimum time to implement the quantum gates is explicitly presented. For given quantum gates, by calculating the corresponding invariants one easily obtains the classes to which the quantum gates belong. In particular, we analyze the effect of global phases on the minimum time to implement the gate. Our results present complete solutions to the optimal time problem in implementing an arbitrary two-qubit gate in two heteronuclear spins systems. Detailed examples are given to typical two-qubit gates with or without global phases.
翻訳日:2023-06-04 05:36:17 公開日:2020-02-11
# マルチメーカ天文学のためのエキゾチック場望遠鏡としての量子センサネットワーク

Quantum sensor networks as exotic field telescopes for multi-messenger astronomy ( http://arxiv.org/abs/2002.04352v1 )

ライセンス: Link先を確認
Conner Dailey, Colin Bradley, Derek F. Jackson Kimball, Ibrahim Sulai, Szymon Pustelny, Arne Wickenbrock, and Andrei Derevianko(参考訳) マルチ・メッセンガー天文学(Multi-messenger Observatory)は、同じ天体物理学的な事象に由来する様々な種類の信号の協調観測であり、宇宙物理学の過程に関する豊富な情報を提供する。 これまでのマルチメッセンジャー天文学の焦点は、既知の基本力と重力波(gw)のような標準模型粒子からの通常の信号の探索だった。 これらの既知の効果に加えて、量子センサーネットワークはbeyond-standard-model(bsm)理論によって予測される天体物理信号の探索に使うことができる。 エキゾチックなボゾン場はBSM理論のユビキタスな特徴であり、暗黒物質とダークエネルギーの性質を理解し、階層構造と強いCP問題を解くために現れる。 我々は、高エネルギー天体物理現象がエキゾチック低質量場(elfs)の激しい破裂を引き起こす場合を考える。 本稿では,従来の標準モデル物理信号から遮蔽された,あるいは無感な精密量子センサネットワークを含む,マルチメーサ天文学のツールボックスの拡張を提案する。 我々は、原子磁気センサと原子時計のグローバルネットワークが感度が高いGW源のELF信号振幅、遅延、レート、距離を推定する。 実際、そのような精度の量子センサーネットワークは、十分な強度のELFバーストを生成する源からの信号を検出するためにELF望遠鏡として機能する。 したがって、ELFが存在すれば、天体物理学的な事象のための追加のメッセンジャーとして機能する。

Multi-messenger astronomy, the coordinated observation of different classes of signals originating from the same astrophysical event, provides a wealth of information about astrophysical processes with far-reaching implications. So far, the focus of multi-messenger astronomy has been the search for conventional signals from known fundamental forces and standard model particles, like gravitational waves (GW). In addition to these known effects, quantum sensor networks could be used to search for astrophysical signals predicted by beyond-standard-model (BSM) theories. Exotic bosonic fields are ubiquitous features of BSM theories and appear while seeking to understand the nature of dark matter and dark energy and solve the hierarchy and strong CP problems. We consider the case where high-energy astrophysical events could produce intense bursts of exotic low-mass fields (ELFs). We propose to expand the toolbox of multi-messenger astronomy to include networks of precision quantum sensors that by design are shielded from or insensitive to conventional standard-model physics signals. We estimate ELF signal amplitudes, delays, rates, and distances of GW sources to which global networks of atomic magnetometers and atomic clocks could be sensitive. We find that, indeed, such precision quantum sensor networks can function as ELF telescopes to detect signals from sources generating ELF bursts of sufficient intensity. Thus ELFs, if they exist, could act as additional messengers for astrophysical events.
翻訳日:2023-06-03 23:43:06 公開日:2020-02-11
# 純状態コヒーレンスの観点からのコヒーレンスの定量化

Quantifying coherence in terms of the pure-state coherence ( http://arxiv.org/abs/2002.04330v1 )

ライセンス: Link先を確認
Deng-hui Yu, Li-qiang Zhang, and Chang-shui Yu(参考訳) 量子コヒーレンスの量子化はコヒーレンスの資源理論における重要な課題である。 ここでは、状態変換過程の観点から優れたコヒーレンスモノトンを確立し、コヒーレンスモノトンを操作的意味で自動的に内包する。 任意の状態は、対応する非一貫性チャネルを介して、ある入力純粋な状態から生成できることを示す。 特に、与えられた状態のコヒーレンスが入力純状態の最小コヒーレンスによってよく特徴付けられることが判明し、入力純状態の有効定量化のみによりコヒーレンス単調が確立される。 特に,提案するコヒーレンス単音は,任意の純状態に対して同じコヒーレンスを与えるすべてのコヒーレンス単音の上限であることを示す。 凸性を考慮すると,提案するコヒーレンス測度が凸屋根構造に基づくコヒーレンス尺度のサブセットであることを証明する。 本研究では,純状態の幾何学的コヒーレンスを用いて,コヒーレンス測度の具体的表現を行う。 また、量子ビット状態の詳細な解析を行い、最終的に一連の解析コヒーレンス測度を得る。

Quantifying quantum coherence is a key task in the resource theory of coherence. Here we establish a good coherence monotone in terms of a state conversion process, which automatically endows the coherence monotone with an operational meaning. We show that any state can be produced from some input pure states via the corresponding incoherent channels. It is especially found that the coherence of a given state can be well characterized by the least coherence of the input pure states, so a coherence monotone is established by only effectively quantifying the input pure states. In particular, we show that our proposed coherence monotone is the supremum of all the coherence monotones that give the same coherence for any given pure state. Considering the convexity, we prove that our proposed coherence measure is a subset of the coherence measure based on the convex roof construction. As an application, we give a concrete expression of our coherence measure by employing the geometric coherence of a pure state. We also give a thorough analysis on the states of qubit and finally obtain series of analytic coherence measures.
翻訳日:2023-06-03 23:41:57 公開日:2020-02-11
# Dicke と Hopfield モデルのゲージ不変性

Gauge invariance of the Dicke and Hopfield models ( http://arxiv.org/abs/2002.04241v1 )

ライセンス: Link先を確認
Luigi Garziano, Alessio Settineri, Omar Di Stefano, Salvatore Savasta, Franco Nori(参考訳) N二層原子と量子化電磁場の間の双極子結合を記述するディックモデルは、現在多くの物理系で実験的にアクセス可能な超強光物質結合の存在下でのゲージ不変性に反するように見える。 具体的には、2段階近似は双極子ゲージでうまく機能するが、クーロンゲージは超強結合状態において正しいスペクトルを与えることができないことが示されている。 ここでは、2レベル近似によって誘導される原子ポテンシャルの非局所性を考慮すると、ゲージ不変性が任意の相互作用強度に対して完全に復元されることが示される。 最後に、線形誘電体媒質の量子化に基づく一般記述であるホップフィールドモデル(hopfield model)を明示的にゲージ不変な形で表現し、希薄な状態におけるディッケモデルがより一般的なホップフィールドモデルの特定の場合と見なせることを示す。

The Dicke model, which describes the dipolar coupling between N two-level atoms and a quantized electromagnetic field, seemingly violates gauge invariance in the presence of ultrastrong light-matter coupling, a regime that is now experimentally accessible in many physical systems. Specifically, it has been shown that, while the two-level approximation can work well in the dipole gauge, the Coulomb gauge fails to provide the correct spectra in the ultrastrong coupling regime. Here we show that, taking into account the nonlocality of the atomic potential induced by the two-level approximation, gauge invariance is fully restored for arbitrary interaction strengths, even in the limit of N going to infinity. Finally, we express the Hopfield model, a general description based on the quantization of a linear dielectric medium, in a manifestly gauge invariant form, and show that the Dicke model in the dilute regime can be regarded as a particular case of the more general Hopfield model.
翻訳日:2023-06-03 23:41:12 公開日:2020-02-11
# 量子マルコビアン性のトポロジカル保護と制御

Topological Protection and Control of Quantum Markovianity ( http://arxiv.org/abs/2002.04234v1 )

ライセンス: Link先を確認
Gian Luca Giorgi, Salvatore Lorenzo, Stefano Longhi(参考訳) ボルン-マルコフ近似の下では、2レベル原子のような量子ビット系は、特徴のない環境に弱結合すると、量子コヒーレンスや励起の記憶のない崩壊が起こることが知られている。 近年, 環境中の避けられない障害が, アンダーソンの局所化による非マルコフ効果と環境からシステムへの情報逆流の原因であることが示されている。 これは、障害をシステムにおける非マルコビアン性を高めるためのリソースへと変換する。-環境力学は空洞の量子電磁力学に関連がある可能性がある。 ここでは、量子ハル浴を実現する合成ゲージ場を備えた2次元共役キャビティアレイに埋め込まれた2次元結合キャビティアレイのような、非自明な位相相を持つ2次元浴に弱結合されたキュービットのデコヒーレンスダイナミクスと、量子ハル浴におけるキラルエッジモードのロバスト性によりマルコビアン性が中等度障害から保護されることを示す。 興味深いことに、ゲージ場、すなわち、浴を位相的自明な位相に切り替えることで、非マルコフ効果を再導入することができる。 この結果は, 量子ビット環境システムにおいて, 浴槽の位相相を可変合成ゲージ場で変化させることにより, 非マルコフ効果や量子情報バックフローを制御することができることを示す。

Under the Born--Markov approximation, a qubit system, such as a two-level atom, is known to undergo a memoryless decay of quantum coherence or excitation when weakly coupled to a featureless environment. Recently, it has been shown that unavoidable disorder in the environment is responsible for non-Markovian effects and information backflow from the environment into the system owing to Anderson localization. This~turns disorder into a resource for enhancing non-Markovianity in the system--environment dynamics, which could be of relevance in cavity quantum electrodynamics. Here we consider the decoherence dynamics of a qubit weakly coupled to a two-dimensional bath with a nontrivial topological phase, such as a two-level atom embedded in a two-dimensional coupled-cavity array with a synthetic gauge field realizing a quantum-Hall bath, and~show that Markovianity is protected against moderate disorder owing to the robustness of chiral edge modes in the quantum-Hall bath. Interestingly, switching off the gauge field, i.e., flipping the bath into a topological trivial phase, allows one to re-introduce non-Markovian effects. Such a result indicates that changing the topological phase of a bath by a tunable synthetic gauge field can be harnessed to control non-Markovian effects and quantum information backflow in a qubit-environment system.
翻訳日:2023-06-03 23:40:28 公開日:2020-02-11
# 散逸浴で相互作用する量子ビット-オシレータ系の量子相関のダイナミクス

Dynamics of quantum correlations in a Qubit-Oscillator system interacting via a dissipative bath ( http://arxiv.org/abs/2002.04173v1 )

ライセンス: Link先を確認
Revanth Badveli, Vinayak Jagadish, S. Akshaya, R. Srikanth, Francesco Petruccione(参考訳) 量子ビットと高調波振動子からなる2成分系の絡み合いダイナミクスについて, 同一浴槽とのカップリングによってのみ相互作用する2成分系の絡み合いダイナミクスについて検討した。 検討されたモデルでは、キュービットはジャイアン・カミングス相互作用によって浴槽に結合されるが、発振器の位置は双極子相互作用によって浴槽の位置と結合する。 検討されたモデルに対するゴリーニ-コサコフスキー-スダルシャン-リンド方程式の顕微鏡的導出を行う。 Kossakowski Matrix に基づいて, 絡み合いを含む非古典的相関は, 考慮された力学により生成可能であることを示す。 次に、絡み合いが発生する特定の初期状態を解析的に同定する。 この結果は数値シミュレーションでも裏付けられている。

The entanglement dynamics in a bipartite system consisting of a qubit and a harmonic oscillator interacting only through their coupling with the same bath is studied. The considered model assumes that the qubit is coupled to the bath via the Jaynes-Cummings interaction, whilst the position of the oscillator is coupled to the position of the bath via a dipole interaction. We give a microscopic derivation of the Gorini-Kossakowski-Sudarshan-Lindblad equation for the considered model. Based on the Kossakowski Matrix, we show that non-classical correlations including entanglement can be generated by the considered dynamics. We then analytically identify specific initial states for which entanglement is generated. This result is also supported by our numerical simulations.
翻訳日:2023-06-03 23:40:00 公開日:2020-02-11
# 交通意思決定者の実践, 課題, ニーズの把握

Capturing the Practices, Challenges, and Needs of Transportation Decision-Makers ( http://arxiv.org/abs/2002.04587v1 )

ライセンス: Link先を確認
Nasim Sharbatdar, Yassine Lamine, Brigitte Milord, Catherine Morency, Jinghui Cheng(参考訳) 政府機関の交通意思決定者は、交通ネットワークの状況に対処する上で重要な役割を担っており、それが市民の幸福に大きな影響を与えている。 このグループの実践者の実践、挑戦、ニーズは、hci文学にはあまり表れていない。 カナダのQu\'ebecの交通インフラを担当する政府機関であるTransports Qu\'ebecの19人の実践者とのインタビューで、このギャップに対処する。 我々は,(1)データ品質の認知を支援する情報提供,(2)実践者の複雑なワークフローにおける他のツールとの相互運用,(3)直感的でカスタマイズ可能な視覚分析をサポートする,データ分析ツールやプラットフォームに関する研究から最も恩恵を受けることができることを発見した。 これらの意味は、他の意思決定タスクやドメインをサポートするツールの設計にも役立ちます。

Transportation decision-makers from government agencies play an important role in addressing the traffic network conditions, which in turn, have a major impact on the well-being of citizens. The practices, challenges, and needs of this group of practitioners are less represented in the HCI literature. We address this gap through an interview study with 19 practitioners from Transports Qu\'ebec, a government agency responsible for transportation infrastructures in Qu\'ebec, Canada. We found that this group of decision-makers can most benefit from research about data analysis tools and platforms that (1) provide information to support data quality awareness, (2) are interoperable with other tools in the complex workflow of the practitioners, and (3) support intuitive and customizable visual analytics. These implications can also be informative to the design of tools supporting other decision-making tasks and domains.
翻訳日:2023-06-03 23:32:47 公開日:2020-02-11
# 複雑ネットワークのポテンシャルエネルギー : 新しい視点

Potential energy of complex networks: a novel perspective ( http://arxiv.org/abs/2002.04551v1 )

ライセンス: Link先を確認
Nicola Amoroso, Loredana Bellantuono, Saverio Pascazio, Angela Lombardi, Alfonso Monaco, Sabina Tangaro, Roberto Bellotti(参考訳) 我々は、関連するシュリンガー方程式のポテンシャルに基づいて、複素ネットワークの新たな特徴付けを示す。 ポテンシャルはシュリンガー方程式のエネルギースペクトルが正規化されたラプラシアンのグラフスペクトルと一致するように設計されている。 重要な情報は再構成されたポテンシャルに保持され、ネットワーク構造の性質のコンパクトな表現を提供する。 いくつかのランダムネットワーク実現に対する中央値ポテンシャルはランダウ関数によって設定され、臨界接続確率が上から近づくと、その長さスケールは分岐する。 中心電位プロファイルの粗さは, 臨界接続確率で最大値を示すヒグチフラクタル次元を用いて定量化する。 これは、この手法がパーコレーション相転移の代替指標としてランダムネットワークの研究に成功できることを証明している。 提案手法をインフラ(US電力網)を記述した実世界のネットワークの調査に適用する。 興味深いことに、そのようなネットワークでは相転移の概念は与えられないが、中央値ポテンシャルのフラクタル性は臨界のシグネチャを示す。 また、標準技術(最大の接続コンポーネントのスケーリング機能など)では、臨界のシグネチャや残差が検出されないことも示しています。

We present a novel characterization of complex networks, based on the potential of an associated Schr\"odinger equation. The potential is designed so that the energy spectrum of the Schr\"odinger equation coincides with the graph spectrum of the normalized Laplacian. Crucial information is retained in the reconstructed potential, which provides a compact representation of the properties of the network structure. The median potential over several random network realizations is fitted via a Landau-like function, and its length scale is found to diverge as the critical connection probability is approached from above. The ruggedness of the median potential profile is quantified using the Higuchi fractal dimension, which displays a maximum at the critical connection probability. This demonstrates that this technique can be successfully employed in the study of random networks, as an alternative indicator of the percolation phase transition. We apply the proposed approach to the investigation of real-world networks describing infrastructures (US power grid). Curiously, although no notion of phase transition can be given for such networks, the fractality of the median potential displays signatures of criticality. We also show that standard techniques (such as the scaling features of the largest connected component) do not detect any signature or remnant of criticality.
翻訳日:2023-06-03 23:32:15 公開日:2020-02-11
# ワイル環のモジュラーポリマー表現

Modular polymer representations of the Weyl algebra ( http://arxiv.org/abs/2002.04541v1 )

ライセンス: Link先を確認
Yigit Yargic, Marc Geiller(参考訳) 量子重力の重要な概念的課題の1つは、量子論が時空の概念をどのように変えるべきかを理解することである。 この問題を調べる一つの方法は、シュル=オディンガー量子力学の代替の研究である。 ループ量子重力にインスパイアされたポリマー表現は、離散空間幾何学の特徴を捉えるものとして理解することができる。 一方、モジュラー表現は、長さスケールを介して位置と運動量分極の一体化を組み込んだものである。 本稿では、ワイル代数のモジュラーポリマー表現を紹介し、位置も運動量も十分に定義された作用素として存在しない。 等価な表現として、それらは新しい物理学を記述するための候補である。 我々は、調和振動子のダイナミクスを例として研究し、量子宇宙論に最終的にこの表現を適用する可能性を示した。

One of the key conceptual challenges in quantum gravity is to understand how quantum theory should modify the very notion of spacetime. One way to investigate this question is to study the alternatives to Schr\"odinger quantum mechanics. The polymer representation, inspired by loop quantum gravity, can be understood as capturing features of discrete spatial geometry. The modular representation, on the other hand, has a built-in unification of position and momentum polarizations via a length scale. In this paper, we introduce the modular polymer representations of the Weyl algebra, in which neither position nor momentum exists as a well-defined operator. As inequivalent representations, they are candidates for describing new physics. We illustrate this by studying the dynamics of the harmonic oscillator as an example, with the prospect of eventually applying this representation to quantum cosmology.
翻訳日:2023-06-03 23:31:56 公開日:2020-02-11
# Infnote: ブロックチェーンに基づく分散型情報共有プラットフォーム

Infnote: A Decentralized Information Sharing Platform Based on Blockchain ( http://arxiv.org/abs/2002.04533v1 )

ライセンス: Link先を確認
Haoqian Zhang, Yancheng Zhao, Abhishek Paryani, Ke Yi(参考訳) インターネット検閲は、市民が情報にアクセスするのを防ぎ、特定のトピックに関する議論を抑制するために、いくつかの国で実施されている。 本稿では,検閲体制におけるコンテンツ共有の問題を解消するプラットフォームであるInfnoteを提案する。 Infnoteはブロックチェーンとピアツーピアネットワークに基づく分散情報共有システムで、データ改ざんやデータ損失を気にすることなく、ユーザが自分の考えや洞察、ビューを自由に共有するための、使いやすい媒体を提供することを目指している。 Infnoteは、あらゆるレベルのインターネット検閲に取り組むことができるソリューションを提供する。 infnoteはマルチチェーンアーキテクチャを使用して、アプリケーション内のさまざまな独立したアプリケーションやさまざまな関数をサポートする。

Internet censorship has been implemented in several countries to prevent citizens from accessing information and to suppress discussion of specific topics. This paper presents Infnote, a platform that helps eliminate the problem of sharing content in these censorship regimes. Infnote is a decentralized information sharing system based on blockchain and peer-to-peer network, aiming to provide an easy-to-use medium for users to share their thoughts, insights and views freely without worrying about data tampering and data loss. Infnote provides a solution that is able to work on any level of Internet censorship. Infnote uses multi-chains architecture to support various independent applications or different functions in an application.
翻訳日:2023-06-03 23:31:45 公開日:2020-02-11
# ガッピングxxzスピンチェーンにおける全計数統計

Full counting statistics in the gapped XXZ spin chain ( http://arxiv.org/abs/2002.04367v1 )

ライセンス: Link先を確認
Pasquale Calabrese, Mario Collura, Giuseppe Di Giulio, Sara Murciano(参考訳) 本研究は,長さのスピンブロックにおける横磁化の完全なカウント統計に対する漸近的正確な結果を得るために,ギャップ付きXXZスピン鎖の基底状態における絡み合いスペクトルの知識を利用する。 偶数長のサブシステムでは全計数統計量はガウス分布であり、奇数サブシステムでは2つのガウス分布の和であることがわかった。 正確なテンソルネットワークシミュレーションを用いて解析予測をテストする。 副生成物として、対称性(磁化)解決エントロピーも得られる。

We exploit the knowledge of the entanglement spectrum in the ground state of the gapped XXZ spin chain to derive asymptotic exact results for the full counting statistics of the transverse magnetisation in a spin block of length. We found that for a subsystem of even length the full counting statistics is Gaussian, while for odd subsystems it is the sum of two Gaussian distributions. We test our analytic predictions with accurate tensor networks simulations. As a byproduct, we also obtain the symmetry (magnetisation) resolved entanglement entropies.
翻訳日:2023-06-03 23:31:04 公開日:2020-02-11
# 人工的な知性に就て

Hacia los Comit\'es de \'Etica en Inteligencia Artificial ( http://arxiv.org/abs/2002.05673v1 )

ライセンス: Link先を確認
Sof\'ia Trejo and Ivan Meza and Fernanda L\'opez-Escobedo(参考訳) 人工知能ベースのシステムの目標は、環境に影響を及ぼし社会に影響を与える決定を下すことである。 これは、社会におけるこの種のシステムの影響を規制するメカニズムの必要性を指摘する。 このため、このようなルール、特に人権が地域や国際レベルで受理されていることを監督できる、ルールや専門的な組織を作ることが優先される。 この研究は、大学において、その原則を定義し、人工知能の分野における良い実践の次のことを保証してくれる人工知能に特化した倫理委員会または委員会を創設することを提案する。

The goal of Artificial Intelligence based systems is to take decisions that have an effect in their environment and impact society. This points out to the necessity of mechanism that regulate the impact of this type of system in society. For this reason, it is priority to create the rules and specialized organizations that can oversight the following of such rules, particularly that human rights precepts at local and international level. This work proposes the creation, at the universities, of Ethical Committees or Commissions specialized on Artificial Intelligence that would be in charge of define the principles and will guarantee the following of good practices in the field Artificial Intelligence.
翻訳日:2023-06-03 23:23:14 公開日:2020-02-11
# 量子励起連続波励起ラマン分光法

Quantum-Enhanced continuous-wave stimulated Raman spectroscopy ( http://arxiv.org/abs/2002.04674v1 )

ライセンス: Link先を確認
R. B. Andrade, H. Kerdoncuff, K. Berg-S{\o}rensen, T. Gehring, M. Lassen, and U. L. Andersen(参考訳) 刺激されたラマン分光法は分子結合の空間力学を高感度、分解能、速度で研究する強力なツールとなっている。 しかしながら、最先端のラマン分光の感度と速度は、現在ラマン過程を観察する光のショットノイズによって制限されている。 そこで本研究では, 連続波励起ラマン分光法の感度を, 振幅圧縮状態を用いてショットノイズ限界以下で検出する光の量子ノイズを低減し, 向上することを示す。 圧縮状態のラマンシフト2950$cm^{-1}$のポリマー試料を用いて、ショットノイズ制限SNRに対して3.60dBの刺激されたラマン信号-雑音比(SNR)の量子エンハンスメントを示す。 量子エンハンスドラマン分光法の概念実証は、マーカーや全光力の増加を使わずに弱いラマン遷移を撮像できる新しい世代のラマン顕微鏡への道を開くものである。

Stimulated Raman spectroscopy has become a powerful tool to study the spatiodynamics of molecular bonds with high sensitivity, resolution and speed. However, sensitivity and speed of state-of-the-art stimulated Raman spectroscopy are currently limited by the shot-noise of the light beam probing the Raman process. Here, we demonstrate an enhancement of the sensitivity of continuous-wave stimulated Raman spectroscopy by reducing the quantum noise of the probing light below the shot-noise limit by means of amplitude squeezed states of light. Probing polymer samples with Raman shifts around 2950 $cm^{-1}$ with squeezed states, we demonstrate a quantum-enhancement of the stimulated Raman signal-to-noise ratio (SNR) of 3.60 dB relative to the shot-noise limited SNR. Our proof-of-concept demonstration of quantum-enhanced Raman spectroscopy paves the way for a new generation of Raman microscopes, where weak Raman transitions can be imaged without the use of markers or an increase in the total optical power.
翻訳日:2023-06-03 23:22:36 公開日:2020-02-11
# 専門家に聞く:IoTプライバシとセキュリティラベルには何があるべきか?

Ask the Experts: What Should Be on an IoT Privacy and Security Label? ( http://arxiv.org/abs/2002.04631v1 )

ライセンス: Link先を確認
Pardis Emami-Naeini, Yuvraj Agarwal, Lorrie Faith Cranor, Hanan Hibshi(参考訳) モノのインターネット(IoT)デバイスのプライバシとセキュリティに関する情報は、購入決定を行う前にそれを検討したい消費者に簡単には提供されない。 議会は簡潔で消費者がアクセスできるラベルを追加することを提案したが、これらのラベルの内容に関するガイダンスは提供していない。 本稿では,IoTプライバシとセキュリティラベルに含まれるコンテンツの設計領域を調査し,テストする消費者だけでなく,プライバシとセキュリティの専門家との一連のインタビューと調査の結果について報告する。 専門家がiotデバイスのプライバシとセキュリティを比較して購入決定を知らせる際に,専門家が消費者にとって重要と考える要因を特定するために,22のプライバシとセキュリティの専門家による3回のdelphiプロセスに従って,専門家の意識調査を実施します。 それぞれの要因が消費者にリスクを伝達するものであると批判的な専門家が考えていることに基づいて、これらの要因を2つのレイヤに分散させました。 我々は,これらの要因の選択を支持する専門家の理論的根拠と議論について報告する。 さらに,専門家が特定したプライバシー情報やセキュリティ情報を消費者がどのように認識するかを検討するために,少なくとも1つのiotデバイス(スマートホームデバイスやウェアラブル)を購入した15人の参加者を対象に,半構造化インタビューを実施した。 専門家による試行と消費者調査の結果に基づいて、消費者がより情報のあるIoT関連購入決定を行うのを助けるための、プライバシとセキュリティラベルのプロトタイプを提案する。

Information about the privacy and security of Internet of Things (IoT) devices is not readily available to consumers who want to consider it before making purchase decisions. While legislators have proposed adding succinct, consumer accessible, labels, they do not provide guidance on the content of these labels. In this paper, we report on the results of a series of interviews and surveys with privacy and security experts, as well as consumers, where we explore and test the design space of the content to include on an IoT privacy and security label. We conduct an expert elicitation study by following a three-round Delphi process with 22 privacy and security experts to identify the factors that experts believed are important for consumers when comparing the privacy and security of IoT devices to inform their purchase decisions. Based on how critical experts believed each factor is in conveying risk to consumers, we distributed these factors across two layers---a primary layer to display on the product package itself or prominently on a website, and a secondary layer available online through a web link or a QR code. We report on the experts' rationale and arguments used to support their choice of factors. Moreover, to study how consumers would perceive the privacy and security information specified by experts, we conducted a series of semi-structured interviews with 15 participants, who had purchased at least one IoT device (smart home device or wearable). Based on the results of our expert elicitation and consumer studies, we propose a prototype privacy and security label to help consumers make more informed IoT-related purchase decisions.
翻訳日:2023-06-03 23:21:06 公開日:2020-02-11
# Transformer を用いたオンライン CTC/attention End-to-End 音声認識アーキテクチャ

Transformer-based Online CTC/attention End-to-End Speech Recognition Architecture ( http://arxiv.org/abs/2001.08290v2 )

ライセンス: Link先を確認
Haoran Miao, Gaofeng Cheng, Changfeng Gao, Pengyuan Zhang and Yonghong Yan(参考訳) 近年,Transformerは音声認識(ASR)分野で成功を収めている。 しかし、オンライン音声認識のためのTransformerベースのエンドツーエンド(E2E)モデルをデプロイすることは困難である。 本稿では,Transformer ベースのオンライン CTC/attention E2E ASR アーキテクチャを提案する。これは,チャンク自己注意エンコーダ (chunk-SAE) とモノトニック・トランケート・アテンション (MTA) ベースの自己注意デコーダ (SAD) を含む。 まず、チャンクSAEは、スピーチを孤立したチャンクに分割する。 計算コストを削減し,性能を向上させるために,状態再利用チャンクSAEを提案する。 センシティブなことに、MTAベースのSADは音声特徴を単調に切り刻み、切り刻まれた特徴に注意を向ける。 オンライン認識を支援するために、状態再利用チャンクSAEとMTAベースのSADをオンラインCTC/アテンションアーキテクチャに統合する。 HKUST Mandarin ASRベンチマークで提案したオンラインモデルを評価し,320msのレイテンシで23.66%の文字誤り率(CER)を達成した。 我々のオンラインモデルでは、オフラインベースラインと比較して0.19%の絶対CER劣化が得られ、Long Short-Term Memory(LSTM)ベースのオンラインE2Eモデルよりも大幅に改善されています。

Recently, Transformer has gained success in automatic speech recognition (ASR) field. However, it is challenging to deploy a Transformer-based end-to-end (E2E) model for online speech recognition. In this paper, we propose the Transformer-based online CTC/attention E2E ASR architecture, which contains the chunk self-attention encoder (chunk-SAE) and the monotonic truncated attention (MTA) based self-attention decoder (SAD). Firstly, the chunk-SAE splits the speech into isolated chunks. To reduce the computational cost and improve the performance, we propose the state reuse chunk-SAE. Sencondly, the MTA based SAD truncates the speech features monotonically and performs attention on the truncated features. To support the online recognition, we integrate the state reuse chunk-SAE and the MTA based SAD into online CTC/attention architecture. We evaluate the proposed online models on the HKUST Mandarin ASR benchmark and achieve a 23.66% character error rate (CER) with a 320 ms latency. Our online model yields as little as 0.19% absolute CER degradation compared with the offline baseline, and achieves significant improvement over our prior work on Long Short-Term Memory (LSTM) based online E2E models.
翻訳日:2023-01-11 05:30:23 公開日:2020-02-11
# 多目的最適化のためのスケーラブルでカスタマイズ可能なベンチマーク問題

Scalable and Customizable Benchmark Problems for Many-Objective Optimization ( http://arxiv.org/abs/2001.11591v2 )

ライセンス: Link先を確認
Ivan Reinaldo Meneghini, Marcos Antonio Alves, Ant\'onio Gaspar-Cunha, Frederico Gadelha Guimar\~aes(参考訳) 多目的問題(MaOP)を解くことは、多目的最適化(MOO)分野において依然として重要な課題である。 アルゴリズム性能を測定する方法の1つは、よく定義された数学的定式化、既知の解、様々な特徴と困難を伴う人工的な問題であるベンチマーク関数(テスト関数またはテストスイートとも呼ばれる)を使用することである。 本稿では,maopsのスケーラブルでカスタマイズ可能なベンチマーク問題のパラメータ化生成手法を提案する。 他のベンチマークにある機能やいくつかの新機能の問題を再現する問題を生成することができる。 ここでは,変数数や目標数,バイアス,欺き,マルチモダリティ,堅牢で非ロバストな解,パレートフロントの形状,制約など,特定の特徴を制御できるパラメータを変化させることで,無限個のmoo問題を生成することができる生成型ベンチマークの概念を提案する。 提案したGPD (Generalized Position-Distance) チューナブルベンチマークジェネレータは,Db, Thiele, Laumanns and Zitzler (DTLZ), Walking Fish Group (WFG) などの他のベンチマークで使用されている,テスト関数を構築するための基本的なアプローチである位置距離パラダイムを使用している。 さまざまな変数や目的のスケーラブルな問題が含まれており、異なる特性を持つparetoフロントを提供する。 結果として得られる関数は理解しやすく、簡単に実装でき、高速に計算でき、Paretoの最適解が知られている。

Solving many-objective problems (MaOPs) is still a significant challenge in the multi-objective optimization (MOO) field. One way to measure algorithm performance is through the use of benchmark functions (also called test functions or test suites), which are artificial problems with a well-defined mathematical formulation, known solutions and a variety of features and difficulties. In this paper we propose a parameterized generator of scalable and customizable benchmark problems for MaOPs. It is able to generate problems that reproduce features present in other benchmarks and also problems with some new features. We propose here the concept of generative benchmarking, in which one can generate an infinite number of MOO problems, by varying parameters that control specific features that the problem should have: scalability in the number of variables and objectives, bias, deceptiveness, multimodality, robust and non-robust solutions, shape of the Pareto front, and constraints. The proposed Generalized Position-Distance (GPD) tunable benchmark generator uses the position-distance paradigm, a basic approach to building test functions, used in other benchmarks such as Deb, Thiele, Laumanns and Zitzler (DTLZ), Walking Fish Group (WFG) and others. It includes scalable problems in any number of variables and objectives and it presents Pareto fronts with different characteristics. The resulting functions are easy to understand and visualize, easy to implement, fast to compute and their Pareto optimal solutions are known.
翻訳日:2023-01-06 19:08:00 公開日:2020-02-11
# ドメイン適応に関するプライマー

A Primer on Domain Adaptation ( http://arxiv.org/abs/2001.09994v2 )

ライセンス: Link先を確認
Pirmin Lemberger and Ivan Panico(参考訳) 標準教師付き機械学習では、アルゴリズムのトレーニングに使用されるソースサンプルの分布は、予測を行うはずのターゲットサンプルの分布と同じである、と仮定している。 しかし、どのデータサイエンティストも確認するだろうが、実際にはそうではない。 このような状況に対処する統計的および数値的な手法の集合は、長い歴史を持つ分野である領域適応として知られている。 数え切れない数のメソッドと、明確で普遍的に受け入れられる用語の欠如は、しかしながら、このトピックを新参者にとっておそろしいものにすることができる。 Therefore, rather than aiming at completeness, which leads to exhibiting a tedious catalog of methods, this pedagogical review aims at a coherent presentation of four important special cases: (1) prior shift, a situation in which training samples were selected according to their labels without any knowledge of their actual distribution in the target, (2) covariate shift which deals with a situation where training examples were picked according to their features but with some selection bias, (3) concept shift where the dependence of the labels on the features defers between the source and the target, and last but not least (4) subspace mapping which deals with a situation where features in the target have been subjected to an unknown distortion with respect to the source features. それぞれのケースでまず直観を構築し、次に適切な数学的フレームワークを提供し、最終的には実践的なアプリケーションを記述する。

Standard supervised machine learning assumes that the distribution of the source samples used to train an algorithm is the same as the one of the target samples on which it is supposed to make predictions. However, as any data scientist will confirm, this is hardly ever the case in practice. The set of statistical and numerical methods that deal with such situations is known as domain adaptation, a field with a long and rich history. The myriad of methods available and the unfortunate lack of a clear and universally accepted terminology can however make the topic rather daunting for the newcomer. Therefore, rather than aiming at completeness, which leads to exhibiting a tedious catalog of methods, this pedagogical review aims at a coherent presentation of four important special cases: (1) prior shift, a situation in which training samples were selected according to their labels without any knowledge of their actual distribution in the target, (2) covariate shift which deals with a situation where training examples were picked according to their features but with some selection bias, (3) concept shift where the dependence of the labels on the features defers between the source and the target, and last but not least (4) subspace mapping which deals with a situation where features in the target have been subjected to an unknown distortion with respect to the source features. In each case we first build an intuition, next we provide the appropriate mathematical framework and eventually we describe a practical application.
翻訳日:2023-01-06 07:39:25 公開日:2020-02-11
# DFKI Cabin Simulator:Visual In-Cabinモニタリング機能のテストプラットフォーム

DFKI Cabin Simulator: A Test Platform for Visual In-Cabin Monitoring Functions ( http://arxiv.org/abs/2002.03749v2 )

ライセンス: Link先を確認
Hartmut Feld, Bruno Mirbach, Jigyasa Katrolia, Mohamed Selim, Oliver Wasenm\"uller, Didier Stricker(参考訳) 本稿では,視覚的シーン分析と占有監視機能のためのテストプラットフォームを提案する。 テストプラットフォームはdfkiで開発された運転シミュレータに基づいており、リアルなインカビンモックアップとリアルな運転体験のための広角投影システムで構成されている。 プラットフォームには広角2D/3Dカメラシステムが搭載されており、シミュレータのモックアップ全体を監視している。 また、カメラの2Dおよび3Dビデオストリームと同期して乗員の身体の動きを追跡し記録できる地上の真実参照センサシステムも付属している。 このようにして得られたテストプラットフォームは、新しい車載インタフェース、高度なドライバーアシスタントシステム、自動運転の実現に重要な多数のインカビン監視機能を検証する基盤となる。 考慮される機能には、占有者の存在検出、サイズ、および3d-pose推定、運転意図認識がある。 さらに、当社のプラットフォームは、大規模なインキャビンベンチマークデータセットの作成の基礎となるでしょう。

We present a test platform for visual in-cabin scene analysis and occupant monitoring functions. The test platform is based on a driving simulator developed at the DFKI, consisting of a realistic in-cabin mock-up and a wide-angle projection system for a realistic driving experience. The platform has been equipped with a wide-angle 2D/3D camera system monitoring the entire interior of the vehicle mock-up of the simulator. It is also supplemented with a ground truth reference sensor system that allows to track and record the occupant's body movements synchronously with the 2D and 3D video streams of the camera. Thus, the resulting test platform will serve as a basis to validate numerous in-cabin monitoring functions, which are important for the realization of novel human-vehicle interfaces, advanced driver assistant systems, and automated driving. Among the considered functions are occupant presence detection, size and 3D-pose estimation and driver intention recognition. In addition, our platform will be the basis for the creation of large-scale in-cabin benchmark datasets.
翻訳日:2023-01-06 02:06:27 公開日:2020-02-11
# 重み付きL2空間における有限ヒルベルト変換

Finite Hilbert Transform in Weighted L2 Spaces ( http://arxiv.org/abs/2002.02071v2 )

ライセンス: Link先を確認
Jason You(参考訳) 重み付きヒルベルト変換のいくつかの新しい性質が得られた。 mu が 0 ならば、2つのプランシェレル様方程式と等方性性質が導かれる。 mu が実数であれば、強制性を導出し、2つの反復列を構築して反転を求める。 提案した反復列は |eta|<pi/4 の純虚数定数 mu=i*eta の場合に適用できる。 mu=0.0および3.0の場合、有限ヒルベルト変換のチェビシェフ級数表現を用いて計算機シミュレーション結果を示す。 本論文は, いくつかのイメージング応用において, ハーフスキャンに有用である。

Several new properties of weighted Hilbert transform are obtained. If mu is zero, two Plancherel-like equations and the isotropic properties are derived. For mu is real number, a coerciveness is derived and two iterative sequences are constructed to find the inversion. The proposed iterative sequences are applicable to the case of pure imaginary constant mu=i*eta with |eta|<pi/4 . For mu=0.0 and 3.0 , we present the computer simulation results by using the Chebyshev series representation of finite Hilbert transform. The results in this paper are useful to the half scan in several imaging applications.
翻訳日:2023-01-03 09:54:01 公開日:2020-02-11
# ランク付け学習における検索インテントバイアスの除去

Eliminating Search Intent Bias in Learning to Rank ( http://arxiv.org/abs/2002.03203v2 )

ライセンス: Link先を確認
Yingcheng Sun and Richard Kolacinski and Kenneth Loparo(参考訳) クリックスルーデータは、検索品質を向上させるための貴重なリソースであることが証明されている。 検索エンジンは簡単にクリックデータを収集できるが、データに現れるバイアスはデータの有効利用を困難にする。 バイアスの影響を測定するために,多くのクリックモデルが文献に提案されている。 しかし、どのモデルも異なる検索意図を持つユーザ(例えば、情報、ナビゲーションなど)が異なるクリック動作を持つという観察を説明できない。 本稿では,ユーザ検索意図の違いがクリック行動にどのように影響するかを調査し,ユーザ検索意図と文書との関連性の間にバイアスが存在することを確かめる。 そこで本研究では,既存のクリックモデルの多くに適用可能な検索意図バイアス仮説を提案する。 実験の結果,検索意図仮説を採用すると,クリックモデルがユーザのクリックをよりよく解釈し,検索性能が大幅に向上することが示された。

Click-through data has proven to be a valuable resource for improving search-ranking quality. Search engines can easily collect click data, but biases introduced in the data can make it difficult to use the data effectively. In order to measure the effects of biases, many click models have been proposed in the literature. However, none of the models can explain the observation that users with different search intent (e.g., informational, navigational, etc.) have different click behaviors. In this paper, we study how differences in user search intent can influence click activities and determined that there exists a bias between user search intent and the relevance of the document relevance. Based on this observation, we propose a search intent bias hypothesis that can be applied to most existing click models to improve their ability to learn unbiased relevance. Experimental results demonstrate that after adopting the search intent hypothesis, click models can better interpret user clicks and substantially improve retrieval performance.
翻訳日:2023-01-02 22:37:58 公開日:2020-02-11
# 心肺停止後予後予測のための生理駆動計算モデル

A Physiology-Driven Computational Model for Post-Cardiac Arrest Outcome Prediction ( http://arxiv.org/abs/2002.03309v2 )

ライセンス: Link先を確認
Han B. Kim, Hieu Nguyen, Qingchu Jin, Sharmila Tamby, Tatiana Gelaf Romer, Eric Sung, Ran Liu, Joseph Greenstein, Jose I. Suarez, Christian Storm, Raimond Winslow, Robert D. Stevens(参考訳) 心停止(ca)から蘇生した患者は神経障害や死亡のリスクが高いが、実用的方法は正確かつ信頼性の高い予後に欠ける。 本研究の目的は,集中治療室(icu)入所後早期の高次元患者データを活用し,ca後の予後予測のための計算モデルを構築することである。 我々は、生理的時系列(PTS)データと機械学習(ML)分類器の訓練によりモデル性能を向上させることができると仮定した。 電子健康記録(EHR)のみから抽出した特徴と,ICU入院後24時間で収集したPTS(PTS24)から抽出した特徴と,PTS24とEHRを組み合わせたモデルを比較した。 ICU退院時の生存率と神経学的予後について検討した。 EHR-PTS24は、生存予測(AUC 0.85, 0.80, 0.68)と神経学的結果(0.87, 0.83, 0.78)において、EMHとPTS24のみを使用したモデルよりも高い識別(AUC)を持っていた。 最高のML分類器は、生存率 (AUC 0.85 vs 0.70) と神経学的結果予測 (AUC 0.87 vs 0.75) の基準ロジスティック回帰モデル (APACHE III) よりも高い評価を得た。 特徴分析の結果,CA後回復に関連する因子が明らかとなった。 その結果, MLモデルによるCA後予測モデルの有効性が証明され, PTSが短期成績確率を符号化した後のごく初期段階に記録されることが示唆された。

Patients resuscitated from cardiac arrest (CA) face a high risk of neurological disability and death, however pragmatic methods are lacking for accurate and reliable prognostication. The aim of this study was to build computational models to predict post-CA outcome by leveraging high-dimensional patient data available early after admission to the intensive care unit (ICU). We hypothesized that model performance could be enhanced by integrating physiological time series (PTS) data and by training machine learning (ML) classifiers. We compared three models integrating features extracted from the electronic health records (EHR) alone, features derived from PTS collected in the first 24hrs after ICU admission (PTS24), and models integrating PTS24 and EHR. Outcomes of interest were survival and neurological outcome at ICU discharge. Combined EHR-PTS24 models had higher discrimination (area under the receiver operating characteristic curve [AUC]) than models which used either EHR or PTS24 alone, for the prediction of survival (AUC 0.85, 0.80 and 0.68 respectively) and neurological outcome (0.87, 0.83 and 0.78). The best ML classifier achieved higher discrimination than the reference logistic regression model (APACHE III) for survival (AUC 0.85 vs 0.70) and neurological outcome prediction (AUC 0.87 vs 0.75). Feature analysis revealed previously unknown factors to be associated with post-CA recovery. Results attest to the effectiveness of ML models for post-CA predictive modeling and suggest that PTS recorded in very early phase after resuscitation encode short-term outcome probabilities.
翻訳日:2023-01-02 14:16:47 公開日:2020-02-11
# 顔行動単位検出のための上・中・下層領域学習

Upper, Middle and Lower Region Learning for Facial Action Unit Detection ( http://arxiv.org/abs/2002.04023v2 )

ライセンス: Link先を確認
Yao Xia(参考訳) 顔表情分析には、顔行動単位(AUs)検出が不可欠である。 AUは顔のごく一部にしか発生しないため、AU検出に有用な領域ベース学習が広く認識されている。 ほとんどの地域に基づく研究は、AUが起こる小さな地域に焦点を当てている。 特定の領域に集中することはアイデンティティの影響を排除するのに役立つが、情報を失うリスクをもたらす。 バランスを見つけるのは困難です。 本研究では,簡単な戦略を提案する。 顔は、上、中、下の3つの広い領域に分け、それが起こる場所に基づいてグループAUに分けます。 本稿では,3つの領域ベースアテンションネットワーク(TRA-Net)という,エンドツーエンドのディープラーニングフレームワークを提案する。 グローバルな特徴を抽出した後、TRA-Netはハードアテンションモジュールを使用して3つの特徴マップを抽出する。 各地域固有の特徴マップは独立したブランチに供給される。 各ブランチに対して、3つの連続ソフトアテンションモジュールを使用して最終AU検出のための高レベル特徴を抽出する。 DISFAデータセットでは、このモデルがAU1, AU2, AU4の検出において最も高いF1スコアを達成し、最先端の手法と比較して高い精度で生成する。

Facial action units (AUs) detection is fundamental to facial expression analysis. As AU occurs only in a small area of the face, region-based learning has been widely recognized useful for AU detection. Most region-based studies focus on a small region where the AU occurs. Focusing on a specific region helps eliminate the influence of identity, but bringing a risk for losing information. It is challenging to find balance. In this study, I propose a simple strategy. I divide the face into three broad regions, upper, middle, and lower region, and group AUs based on where it occurs. I propose a new end-to-end deep learning framework named three regions based attention network (TRA-Net). After extracting the global feature, TRA-Net uses a hard attention module to extract three feature maps, each of which contains only a specific region. Each region-specific feature map is fed to an independent branch. For each branch, three continuous soft attention modules are used to extract higher-level features for final AU detection. In the DISFA dataset, this model achieves the highest F1 scores for the detection of AU1, AU2, and AU4, and produces the highest accuracy in comparison with the state-of-the-art methods.
翻訳日:2023-01-02 08:08:15 公開日:2020-02-11
# 逆データ暗号化

Adversarial Data Encryption ( http://arxiv.org/abs/2002.03793v2 )

ライセンス: Link先を確認
Yingdong Hu, Liang Zhang, Wei Shan, Xiaoxiao Qin, Jing Qi, Zhenzhou Wu, Yang Yuan(参考訳) ビッグデータ時代の多くの組織は、データ共有のジレンマに直面しています。 通常のデータ共有は、人間中心の議論やコミュニケーション、特に医療シナリオにおいて必要となる。 しかし、保護されていないデータ共有はデータ漏洩につながる可能性がある。 敵の攻撃に触発されて,人間にとって暗号化されたデータがオリジナル版と同一に見えるようにデータ暗号化を行う手法を提案するが,機械学習では誤解を招く。 本手法の有効性を示すため,世界有数の神経系センターを有する北京天丹病院と共同研究を行った。 私たちは3ドルの医師を招き、現実世界の医療画像に基づいて暗号化方法を手作業で検査します。 その結果, 暗号化画像は医師による診断に利用できるが, 機械学習では利用できないことがわかった。

In the big data era, many organizations face the dilemma of data sharing. Regular data sharing is often necessary for human-centered discussion and communication, especially in medical scenarios. However, unprotected data sharing may also lead to data leakage. Inspired by adversarial attack, we propose a method for data encryption, so that for human beings the encrypted data look identical to the original version, but for machine learning methods they are misleading. To show the effectiveness of our method, we collaborate with the Beijing Tiantan Hospital, which has a world leading neurological center. We invite $3$ doctors to manually inspect our encryption method based on real world medical images. The results show that the encrypted images can be used for diagnosis by the doctors, but not by machine learning methods.
翻訳日:2023-01-02 07:50:42 公開日:2020-02-11
# ブラックボックスモデルに対する解釈可能なコンパニオン

Interpretable Companions for Black-Box Models ( http://arxiv.org/abs/2002.03494v2 )

ライセンス: Link先を確認
Danqing Pan, Tong Wang, Satoshi Hara(参考訳) 事前訓練されたブラックボックス分類器に対する解釈可能な共役モデルを提案する。 任意の入力に対して、ユーザーは高い精度でブラックボックスモデルから予測を受信するか、説明無しにするか、あるいは、解釈可能な予測をわずかに低い精度で得るために、コンパニオンルールを使用することができる。 コンパニオンモデルはブラックボックスモデルのデータと予測から訓練され、透明性-正確性曲線とモデルの複雑さの下での客観的結合領域が訓練される。 我々のモデルは、常に解釈可能なモデルを選択し、常に予測タスクにブラックボックスモデルを使用するというジレンマに直面している実践者に対して柔軟な選択を提供する。 共役モデルの価値を示すために,100人以上の人間評価を設計し,人間に対する解釈可能性を得るために,許容可能な精度損失を調査する。

We present an interpretable companion model for any pre-trained black-box classifiers. The idea is that for any input, a user can decide to either receive a prediction from the black-box model, with high accuracy but no explanations, or employ a companion rule to obtain an interpretable prediction with slightly lower accuracy. The companion model is trained from data and the predictions of the black-box model, with the objective combining area under the transparency--accuracy curve and model complexity. Our model provides flexible choices for practitioners who face the dilemma of choosing between always using interpretable models and always using black-box models for a predictive task, so users can, for any given input, take a step back to resort to an interpretable prediction if they find the predictive performance satisfying, or stick to the black-box model if the rules are unsatisfying. To show the value of companion models, we design a human evaluation on more than a hundred people to investigate the tolerable accuracy loss to gain interpretability for humans.
翻訳日:2023-01-02 07:30:49 公開日:2020-02-11
# 相対$\alpha$-エントロピーの情報幾何学による一般化ベイズ的クラム{e}r-ラオ不等式

Generalized Bayesian Cram\'{e}r-Rao Inequality via Information Geometry of Relative $\alpha$-Entropy ( http://arxiv.org/abs/2002.04732v1 )

ライセンス: Link先を確認
Kumar Vijay Mishra and M. Ashok Kumar(参考訳) 相対$\alpha$-エントロピーは相対エントロピーのR'enyiアナログであり、情報理論問題において顕著に現れる。 この量に関する最近の情報幾何学的な研究により、Clam\'{e}r-Raoの不等式が一般化され、基礎となるパラメトリック確率分布のエスコートの推定器の分散に対する低い境界が与えられる。 しかし、この枠組みはベイジアンの枠組みにはまだ見当たらない。 本稿では,相対$\alpha$-エントロピーに基づく一般リーマン計量を提案し,一般化ベイズ的クラム'{e}r-ラオ不等式を得る。 これは、基底分布の非バイアス推定子から始まる$\alpha$-escort分布に対する非バイアス推定子の分散に対する下界を確立する。 エントロピー次数がユニティに近づくときの極限の場合、この枠組みは従来のベイズ的クラム\'{e}r-ラオ不等式に還元される。 さらに、事前性が存在しない場合、同じ枠組みが決定論的クレー=ラオ不等式を与える。

The relative $\alpha$-entropy is the R\'enyi analog of relative entropy and arises prominently in information-theoretic problems. Recent information geometric investigations on this quantity have enabled the generalization of the Cram\'{e}r-Rao inequality, which provides a lower bound for the variance of an estimator of an escort of the underlying parametric probability distribution. However, this framework remains unexamined in the Bayesian framework. In this paper, we propose a general Riemannian metric based on relative $\alpha$-entropy to obtain a generalized Bayesian Cram\'{e}r-Rao inequality. This establishes a lower bound for the variance of an unbiased estimator for the $\alpha$-escort distribution starting from an unbiased estimator for the underlying distribution. We show that in the limiting case when the entropy order approaches unity, this framework reduces to the conventional Bayesian Cram\'{e}r-Rao inequality. Further, in the absence of priors, the same framework yields the deterministic Cram\'{e}r-Rao inequality.
翻訳日:2023-01-02 02:56:53 公開日:2020-02-11
# モンテカルロ鏡のワッサーシュタイン制御

Wasserstein Control of Mirror Langevin Monte Carlo ( http://arxiv.org/abs/2002.04363v1 )

ライセンス: Link先を確認
Kelvin Shuangjian Zhang, Gabriel Peyr\'e, Jalal Fadili, Marcelo Pereyra(参考訳) 離散ランジュバン拡散は、log-lipschitz-smoothおよび(強)log-concaveである高次元ターゲット密度からサンプリングするための効率的なモンテカルロ法である。 特に、ユークリッドのランゲヴィン・モンテカルロサンプリングアルゴリズムは近年多くの注目を集めており、その非漸近収束特性と滑らかさと対数凹凸が収束速度で果たす役割を詳細に理解している。 これらの正則性を持たない分布は、ログ密度の局所幾何をキャプチャする計量を持つリーマン的ランジュバン拡散を考えることで対処できる。 しかし、そのようなリーマンランジュバン拡散の離散化から導かれるモンテカルロアルゴリズムは解析が難しいことで悪名高い。 本稿では,ヘッセン多様体上のランジュバン拡散を考察し,ミラー・ディセントスキームと密接な関係を持つ離散化について検討する。 結果として生じるヘッセンリーマン・ランジュバン・モンテカルロアルゴリズムのサンプリング誤差について,非漸近上界を初めて確立した。 この境界は、ヘッセン構造をキャプチャするリーマン計量接地コストによって引き起こされるワッサーシュタイン距離に従って測定され、自己一致様条件と密接に関連している。 アッパーバウンドは、例えば、イテレートが半径を明示した目標密度の周りのワッサースタイン球に向かって収縮することを意味する。 我々の理論は既存のユークリッドの結果を復元し、高度に非平坦な幾何学に関連する幅広いヘッセン測度に対処することができる。

Discretized Langevin diffusions are efficient Monte Carlo methods for sampling from high dimensional target densities that are log-Lipschitz-smooth and (strongly) log-concave. In particular, the Euclidean Langevin Monte Carlo sampling algorithm has received much attention lately, leading to a detailed understanding of its non-asymptotic convergence properties and of the role that smoothness and log-concavity play in the convergence rate. Distributions that do not possess these regularity properties can be addressed by considering a Riemannian Langevin diffusion with a metric capturing the local geometry of the log-density. However, the Monte Carlo algorithms derived from discretizations of such Riemannian Langevin diffusions are notoriously difficult to analyze. In this paper, we consider Langevin diffusions on a Hessian-type manifold and study a discretization that is closely related to the mirror-descent scheme. We establish for the first time a non-asymptotic upper-bound on the sampling error of the resulting Hessian Riemannian Langevin Monte Carlo algorithm. This bound is measured according to a Wasserstein distance induced by a Riemannian metric ground cost capturing the Hessian structure and closely related to a self-concordance-like condition. The upper-bound implies, for instance, that the iterates contract toward a Wasserstein ball around the target density whose radius is made explicit. Our theory recovers existing Euclidean results and can cope with a wide variety of Hessian metrics related to highly non-flat geometries.
翻訳日:2023-01-02 02:56:14 公開日:2020-02-11
# 音声分類のためのアウト・オブ・ディストリビューションデータを用いた学習

Learning with Out-of-Distribution Data for Audio Classification ( http://arxiv.org/abs/2002.04683v1 )

ライセンス: Link先を確認
Turab Iqbal, Yin Cao, Qiuqiang Kong, Mark D. Plumbley, Wenwu Wang(参考訳) 教師付き機械学習では、トレーニングデータが正しくラベル付けされているという仮定は必ずしも満たされない。 本稿では,データセットがout-of-distribution(OOD)インスタンスで破損した分類タスクのラベル付けエラーの事例について検討する。 我々は,OODインスタンスを破棄するよりも,特定のOODインスタンスの検出とリラベリングが学習に肯定的な影響を与えることを示した。 提案手法は,分布内に存在するデータに基づいて学習し,検出とリラベルを行う補助分類器を用いる。 これに必要なデータ量は少ないことが示されている。 FSDnoisy18kオーディオデータセットで実験が行われ、OODインスタンスが非常に多い。 提案手法は畳み込みニューラルネットワークの性能を有意なマージンで向上させる。 他のノイズロバスト技術との比較も同様に奨励されている。

In supervised machine learning, the assumption that training data is labelled correctly is not always satisfied. In this paper, we investigate an instance of labelling error for classification tasks in which the dataset is corrupted with out-of-distribution (OOD) instances: data that does not belong to any of the target classes, but is labelled as such. We show that detecting and relabelling certain OOD instances, rather than discarding them, can have a positive effect on learning. The proposed method uses an auxiliary classifier, trained on data that is known to be in-distribution, for detection and relabelling. The amount of data required for this is shown to be small. Experiments are carried out on the FSDnoisy18k audio dataset, where OOD instances are very prevalent. The proposed method is shown to improve the performance of convolutional neural networks by a significant margin. Comparisons with other noise-robust techniques are similarly encouraging.
翻訳日:2023-01-02 02:55:25 公開日:2020-02-11
# 動的時間ゆがみ下における時系列の厳密な索引付け

Exact Indexing of Time Series under Dynamic Time Warping ( http://arxiv.org/abs/2002.04187v1 )

ライセンス: Link先を確認
Zhengxin Li(参考訳) dynamic time warping (dtw) は時系列のロバストな類似性尺度である。 しかし、三角不等式を満足せず、計算複雑性が高く、大規模データセットの類似性探索における応用を厳しく制限している。 通常、DTWにおける類似性探索を高速化するために、境界距離を低くする。 残念なことに、不等長の時系列を測り、望ましい厳密性を持つ効果的な下界距離がまだ存在しない。 本稿では,シーケンス拡張とLB_Keoghをシームレスに組み合わせた,新しい下界距離LB_Keogh+を提案する。 不等長列に使用することができ、計算複雑性が低い。 加えて、LB_Keogh+はシーケンスを任意の適切な長さまで拡張できるが、タイトさは著しく低下しない。 次に、LB_Keogh+に基づいてDTWの下での時系列の正確なインデックスを考案する。 次に,いくつかの定理を導入し,類似性探索において虚偽の棄却がないことを保証するための,関連する証明を完結する。 最後に、実世界のデータセットで広範な実験が行われる。 実験結果から,提案手法は不等長列の類似性探索を行うことができることがわかった。

Dynamic time warping (DTW) is a robust similarity measure of time series. However, it does not satisfy triangular inequality and has high computational complexity, severely limiting its applications in similarity search on large-scale datasets. Usually, we resort to lower bounding distances to speed up similarity search under DTW. Unfortunately, there is still a lack of an effective lower bounding distance that can measure unequal-length time series and has desirable tightness. In the paper, we propose a novel lower bounding distance LB_Keogh+, which is a seamless combination of sequence extension and LB_Keogh. It can be used for unequal-length sequences and has low computational complexity. Besides, LB_Keogh+ can extend sequences to an arbitrary suitable length, without significantly reducing tightness. Next, based on LB_Keogh+, an exact index of time series under DTW is devised. Then, we introduce several theorems and complete the relevant proofs to guarantee no false dismissals in our similarity search. Finally, extensive experiments are conducted on real-world datasets. Experimental results indicate that our proposed method can perform similarity search of unequal-length sequences with high tightness and good pruning power.
翻訳日:2023-01-02 02:49:38 公開日:2020-02-11
# ネットワーク埋め込みのための頂点強化ランダムウォーク

Vertex-reinforced Random Walk for Network Embedding ( http://arxiv.org/abs/2002.04497v1 )

ライセンス: Link先を確認
Wenyi Xiao, Huan Zhao, Vincent W. Zheng, Yangqiu Song(参考訳) 本稿では,ネットワーク埋め込みにおけるランダムウォークの基本問題について検討する。 我々は,非マルコフ的ランダムウォーク(頂点強化ランダムウォーク(VRRW)の変種)を用いて,ランダムウォークパスの歴史を完全に活用することを提案する。 vrrwの行き詰まり問題を解決するために,ランダムウォークが行き詰まりセットから飛び出すのを助けるエクスプロレーション・エクスプロレーション機構を導入する。 新しいランダムウォークアルゴリズムはVRRWと同じ収束特性を共有しており、安定したネットワーク埋め込みを学習することができる。 2つのリンク予測ベンチマークデータセットと3つのノード分類ベンチマークデータセットの実験結果から,提案手法である strengthen2vec は,ランダムウォークに基づく埋め込み手法を高いマージンで上回ることができることがわかった。

In this paper, we study the fundamental problem of random walk for network embedding. We propose to use non-Markovian random walk, variants of vertex-reinforced random walk (VRRW), to fully use the history of a random walk path. To solve the getting stuck problem of VRRW, we introduce an exploitation-exploration mechanism to help the random walk jump out of the stuck set. The new random walk algorithms share the same convergence property of VRRW and thus can be used to learn stable network embeddings. Experimental results on two link prediction benchmark datasets and three node classification benchmark datasets show that our proposed approach reinforce2vec can outperform state-of-the-art random walk based embedding methods by a large margin.
翻訳日:2023-01-02 02:49:20 公開日:2020-02-11
# 加速度による分散低減座標降下--有限サム問題への驚くべき応用による新しい方法

Variance Reduced Coordinate Descent with Acceleration: New Method With a Surprising Application to Finite-Sum Problems ( http://arxiv.org/abs/2002.04670v1 )

ライセンス: Link先を確認
Filip Hanzely, Dmitry Kovalev and Peter Richtarik(参考訳) 本稿では,ASVRCDによる確率分散低減座標降下の高速化版を提案する。 SEGAやSVRCDのような他の分散化座標降下法と同様に、各イテレーションで部分微分のランダムブロックにアクセスしながら、非分離および非滑らかな正規化器を含む問題に対処することができる。 しかし、ASVRCDはネステロフの勢いを取り入れており、SEGAとSVRCDの両方に対して良好なイテレーションの複雑さを保証する。 我々の理論の副産物として、Allen-Zhu (2017) の変種がASVRCDの特定の場合であることが示され、有限和の目的に対して最適なオラクル複雑性を回復する。

We propose an accelerated version of stochastic variance reduced coordinate descent -- ASVRCD. As other variance reduced coordinate descent methods such as SEGA or SVRCD, our method can deal with problems that include a non-separable and non-smooth regularizer, while accessing a random block of partial derivatives in each iteration only. However, ASVRCD incorporates Nesterov's momentum, which offers favorable iteration complexity guarantees over both SEGA and SVRCD. As a by-product of our theory, we show that a variant of Allen-Zhu (2017) is a specific case of ASVRCD, recovering the optimal oracle complexity for the finite sum objective.
翻訳日:2023-01-02 02:49:07 公開日:2020-02-11
# 太陽光発電用ソーラーコレクタの電気効率評価

Evaluation of electrical efficiency of photovoltaic thermal solar collector ( http://arxiv.org/abs/2002.05542v1 )

ライセンス: Link先を確認
Mohammad Hossein Ahmadi, Alireza Baghban, Milad Sadeghzadeh, Mohammad Zamen, Amir Mosavi, Shahaboddin Shamshirband, Ravinder Kumar, Mohammad Mohammadi-Khanaposhtani(参考訳) 太陽エネルギーは、広く利用され、再生可能エネルギーの中では最小のエネルギを持つ再生可能エネルギー資源である。 本研究では、ニューラルネットワーク(anns)、最小二乗サポートベクターマシン(lssvm)、ニューロファジー(neuro-fuzzy)の機械学習手法を用いて、太陽光発電熱集熱器(pv/t)の熱性能予測モデルを構築した。 提案モデルでは, 入射温度, 流量, 熱, 太陽放射, 太陽熱を入力変数として検討した。 データセットは、新しいソーラーコレクターシステムから実験的測定によって抽出された。 導入したアプローチの信頼性を検証し、その性能を評価するために異なる分析を行う。 提案した LSSVM モデルは ANFIS と ANNs モデルより優れていた。 LSSVMモデルは、実験室の計測が高価で時間を要する場合や、そのような値を達成するには洗練された解釈が必要であると報告されている。

Solar energy is a renewable resource of energy that is broadly utilized and has the least emissions among renewable energies. In this study, machine learning methods of artificial neural networks (ANNs), least squares support vector machines (LSSVM), and neuro-fuzzy are used for advancing prediction models for the thermal performance of a photovoltaic-thermal solar collector (PV/T). In the proposed models, the inlet temperature, flow rate, heat, solar radiation, and the sun heat have been considered as the inputs variables. Data set has been extracted through experimental measurements from a novel solar collector system. Different analyses are performed to examine the credibility of the introduced approaches and evaluate their performance. The proposed LSSVM model outperformed ANFIS and ANNs models. LSSVM model is reported suitable when the laboratory measurements are costly and time-consuming, or achieving such values requires sophisticated interpretations.
翻訳日:2023-01-02 02:48:27 公開日:2020-02-11
# 強化学習を用いた個別商品の知的選択と配置

Towards Intelligent Pick and Place Assembly of Individualized Products Using Reinforcement Learning ( http://arxiv.org/abs/2002.08333v1 )

ライセンス: Link先を確認
Caterina Neef, Dario Luipers, Jan Bollenbacher, Christian Gebel and Anja Richert(参考訳) 個人化製造業は、ますます多様で特定の消費者の要求と期待を満たす手段として重要なアプローチになりつつある。 追加製造など製造プロセスの実装には様々な解決策があるが、その後の自動組立は依然として困難な課題である。 この問題に対するアプローチとして,強化学習を実践し,協調ロボットにタスクの選択と配置を成功させる方法を教えることを目的とする。 連続的に変化する製造環境における個別化製品の組み立てには、シミュレーションされた幾何学的パラメータと動的パラメータが変化する。 メタ学習が可能な強化学習アルゴリズムを使用して、タスクはまずシミュレーションでトレーニングされる。 その後、アルゴリズムの堅牢性を確認するためにトレーニングでシミュレートされていない新しい要素が導入される現実世界環境で実行される。 ロボットは、触覚センサー、エリアスキャンカメラ、環境とオブジェクトの高度マップを生成するために使用される3Dカメラから入力データを取得する。 機械学習アルゴリズムとハードウェアコンポーネントの選択と、概略生産シナリオを実現するためのさらなる研究課題は、提示された研究の結果である。

Individualized manufacturing is becoming an important approach as a means to fulfill increasingly diverse and specific consumer requirements and expectations. While there are various solutions to the implementation of the manufacturing process, such as additive manufacturing, the subsequent automated assembly remains a challenging task. As an approach to this problem, we aim to teach a collaborative robot to successfully perform pick and place tasks by implementing reinforcement learning. For the assembly of an individualized product in a constantly changing manufacturing environment, the simulated geometric and dynamic parameters will be varied. Using reinforcement learning algorithms capable of meta-learning, the tasks will first be trained in simulation. They will then be performed in a real-world environment where new factors are introduced that were not simulated in training to confirm the robustness of the algorithms. The robot will gain its input data from tactile sensors, area scan cameras, and 3D cameras used to generate heightmaps of the environment and the objects. The selection of machine learning algorithms and hardware components as well as further research questions to realize the outlined production scenario are the results of the presented work.
翻訳日:2023-01-02 02:48:10 公開日:2020-02-11
# 慣性航法問題から生じる行列微分方程式に対するシンプレクティック幾何学的手法

Symplectic Geometric Methods for Matrix Differential Equations Arising from Inertial Navigation Problems ( http://arxiv.org/abs/2002.04315v1 )

ライセンス: Link先を確認
Xin-Long Luo and Geng Sun(参考訳) 本稿では、シンプレクティック性や直交性といった慣性航法問題に起因する行列微分方程式で表される力学系の幾何的および代数的性質について考察する。 さらに、シンプレクティック幾何アルゴリズムの応用分野を偶次元ハミルトン系から奇次元力学系へと拡張する。 最後に,本論文の理論的結果を示す数値実験を行った。

This article explores some geometric and algebraic properties of the dynamical system which is represented by matrix differential equations arising from inertial navigation problems, such as the symplecticity and the orthogonality. Furthermore, it extends the applicable fields of symplectic geometric algorithms from the even dimensional Hamiltonian system to the odd dimensional dynamical system. Finally, some numerical experiments are presented and illustrate the theoretical results of this paper.
翻訳日:2023-01-02 02:47:53 公開日:2020-02-11
# 病理学者による前立腺生検のグリーソングレーディングの人工知能支援

Artificial Intelligence Assistance Significantly Improves Gleason Grading of Prostate Biopsies by Pathologists ( http://arxiv.org/abs/2002.04500v1 )

ライセンス: Link先を確認
Wouter Bulten, Maschenka Balkenhol, Jean-Jo\"el Awoumou Belinga, Am\'erico Brilhante, Asl{\i} \c{C}ak{\i}r, Xavier Farr\'e, Katerina Geronatsiou, Vincent Molini\'e, Guilherme Pereira, Paromita Roy, G\"unter Saile, Paulo Salles, Ewout Schaafsma, Jo\"elle Tschui, Anne-Marie Vos, Hester van Boven, Robert Vink, Jeroen van der Laak, Christina Hulsbergen-van de Kaa, Geert Litjens(参考訳) Gleasonスコアは前立腺癌患者にとって最も重要な予後マーカーであるが、観察者の大きな変動に悩まされている。 ディープラーニングに基づく人工知能(AI)システムは、グリーソングレーディングで病理学者レベルのパフォーマンスを達成することが証明されている。 しかし、そのようなシステムの性能は、アーティファクト、異物組織、その他の異常の存在下で低下する可能性がある。 病理学者は自身の専門知識をAIシステムからのフィードバックと統合することで、個々の病理学者とシステムの両方を上回る相乗効果をもたらす可能性がある。 AIアシストに関する誇大宣伝にもかかわらず、このトピックに関する既存の文献は、病理領域内で限定されている。 前立腺生検におけるAI支援の有用性を検討した。 14人の観察者からなるパネルは、AIの助けなしに160の生検を行った。 AIを使用することで、専門家基準との合意は大幅に増加した(コーエンのカッパは0.799対0.872; p=0.018)。 以上の結果から,グリーソングレーディングのためのAIシステムの付加価値が示されたが,さらに重要なことは,病理学者とAIのシナジーの利点を示している。

While the Gleason score is the most important prognostic marker for prostate cancer patients, it suffers from significant observer variability. Artificial Intelligence (AI) systems, based on deep learning, have proven to achieve pathologist-level performance at Gleason grading. However, the performance of such systems can degrade in the presence of artifacts, foreign tissue, or other anomalies. Pathologists integrating their expertise with feedback from an AI system could result in a synergy that outperforms both the individual pathologist and the system. Despite the hype around AI assistance, existing literature on this topic within the pathology domain is limited. We investigated the value of AI assistance for grading prostate biopsies. A panel of fourteen observers graded 160 biopsies with and without AI assistance. Using AI, the agreement of the panel with an expert reference standard significantly increased (quadratically weighted Cohen's kappa, 0.799 vs 0.872; p=0.018). Our results show the added value of AI systems for Gleason grading, but more importantly, show the benefits of pathologist-AI synergy.
翻訳日:2023-01-02 02:47:46 公開日:2020-02-11
# ビデオベース顔認識における教師なしドメイン適応のためのデュアルトリプレットメトリック学習

Dual-Triplet Metric Learning for Unsupervised Domain Adaptation in Video-Based Face Recognition ( http://arxiv.org/abs/2002.04206v1 )

ライセンス: Link先を確認
George Ekladious, Hugo Lemoine, Eric Granger, Kaveh Kamali, Salim Moudache(参考訳) ディープラーニングモデルのスケーラビリティと複雑さは、例えばビデオ監視のように、新しいカメラごとにラベル付き画像データを微調整して、ソースドメイン、例えば実験室の設定、ターゲットドメイン、すなわち運用環境から取得したビデオ間のドメインシフトを低減させる多くのビジュアル認識アプリケーションにおいて、依然として重要な問題である。 顔認識(fr)や人物再同定のような多くのビデオ監視アプリケーションでは、ビデオカメラでキャプチャされたクエリ画像をギャラリー内の対応する参照画像に割り当てるためにペアワイズマッチング器が使用される。 ビデオカメラの異なる構成と運用条件は、ペア距離分布に大きな変化をもたらす可能性があるため、新しいカメラの認識性能は低下する。 本稿では,新しいビデオカメラでキャプチャした未ラベルトラックレットを用いて,シームズネットワークのCNN埋め込みに適応する新しい深部ドメイン適応法を提案する。 この目的のために、2つのトリプレットがソースカメラからの映像データと新しいターゲットカメラを使って構築されるメトリック学習のために、2つのトリプレットロスが導入される。 デュアルトリプレットを構成するために、ソースカメラが教師として振る舞う相互教師付き学習アプローチが導入され、ターゲットカメラに初期埋め込みを提供する。 そして、学生は教師に、例えば初期カメラ校正中に収集された正と負のペアを反復的にラベル付けする。 ソースとターゲットの両方の埋め込みは、ペア間の距離分布が整列するように同時に学習し続ける。 検証には,提案手法を用いて異なるトレーニングシナリオ下でディープシームズネットワークをトレーニングし,COX-S2V上の静止映像FRとプライベートビデオベースFRデータセットの最先端技術と比較する。

The scalability and complexity of deep learning models remains a key issue in many of visual recognition applications like, e.g., video surveillance, where fine tuning with labeled image data from each new camera is required to reduce the domain shift between videos captured from the source domain, e.g., a laboratory setting, and the target domain, i.e, an operational environment. In many video surveillance applications, like face recognition (FR) and person re-identification, a pair-wise matcher is used to assign a query image captured using a video camera to the corresponding reference images in a gallery. The different configurations and operational conditions of video cameras can introduce significant shifts in the pair-wise distance distributions, resulting in degraded recognition performance for new cameras. In this paper, a new deep domain adaptation (DA) method is proposed to adapt the CNN embedding of a Siamese network using unlabeled tracklets captured with a new video cameras. To this end, a dual-triplet loss is introduced for metric learning, where two triplets are constructed using video data from a source camera, and a new target camera. In order to constitute the dual triplets, a mutual-supervised learning approach is introduced where the source camera acts as a teacher, providing the target camera with an initial embedding. Then, the student relies on the teacher to iteratively label the positive and negative pairs collected during, e.g., initial camera calibration. Both source and target embeddings continue to simultaneously learn such that their pair-wise distance distributions become aligned. For validation, the proposed metric learning technique is used to train deep Siamese networks under different training scenarios, and is compared to state-of-the-art techniques for still-to-video FR on the COX-S2V and a private video-based FR dataset.
翻訳日:2023-01-02 02:42:35 公開日:2020-02-11
# 医用画像のボリュームセマンティクスセグメンテーションのためのエッジゲートcnn

Edge-Gated CNNs for Volumetric Semantic Segmentation of Medical Images ( http://arxiv.org/abs/2002.04207v1 )

ライセンス: Link先を確認
Ali Hatamizadeh, Demetri Terzopoulos and Andriy Myronenko(参考訳) テクスチャとエッジは画像認識に異なる情報をもたらす。 エッジとバウンダリは形状情報をエンコードし、テクスチャは領域の外観を示す。 コンピュータビジョンと医用画像解析アプリケーションにおける畳み込みニューラルネットワーク(CNN)の成功にもかかわらず、主にテクスチャ抽象化が学習され、しばしば不正確な境界線化につながる。 医療画像では、専門家の手動セグメンテーションはしばしば臓器の境界に依存しており、例えば、手動で肝臓をセグメンテーションするために、医療従事者はまずエッジを特定し、その後セグメンテーションマスクを埋めます。 これらの観測により,既存のエンコーダデコーダアーキテクチャを用いてエッジ情報とテクスチャ情報の両方を処理可能な,Edge-Gated CNN (EG-CNN) と呼ばれるプラグイン・アンド・プレイモジュールを提案する。 EG-CNNは、エンコーダのエッジを強調することを学び、補助エッジ監視によってクリップ境界を予測し、元のCNN出力と出力を融合する。 各種CNNを用いたEG-CNNの有効性を,脳腫瘍と腎臓のセマンティックセグメンテーションのためのBraTS 19とKiTS 19の2つの公開データセットで評価した。 EG-CNNの追加により,セグメント化精度と一般化性能が一貫して向上することを示す。

Textures and edges contribute different information to image recognition. Edges and boundaries encode shape information, while textures manifest the appearance of regions. Despite the success of Convolutional Neural Networks (CNNs) in computer vision and medical image analysis applications, predominantly only texture abstractions are learned, which often leads to imprecise boundary delineations. In medical imaging, expert manual segmentation often relies on organ boundaries; for example, to manually segment a liver, a medical practitioner usually identifies edges first and subsequently fills in the segmentation mask. Motivated by these observations, we propose a plug-and-play module, dubbed Edge-Gated CNNs (EG-CNNs), that can be used with existing encoder-decoder architectures to process both edge and texture information. The EG-CNN learns to emphasize the edges in the encoder, to predict crisp boundaries by an auxiliary edge supervision, and to fuse its output with the original CNN output. We evaluate the effectiveness of the EG-CNN with various mainstream CNNs on two publicly available datasets, BraTS 19 and KiTS 19 for brain tumor and kidney semantic segmentation. We demonstrate how the addition of EG-CNN consistently improves segmentation accuracy and generalization performance.
翻訳日:2023-01-02 02:42:03 公開日:2020-02-11
# Hi-Net:マルチモーダルMR画像合成のためのハイブリッドフュージョンネットワーク

Hi-Net: Hybrid-fusion Network for Multi-modal MR Image Synthesis ( http://arxiv.org/abs/2002.05000v1 )

ライセンス: Link先を確認
Tao Zhou, Huazhu Fu, Geng Chen, Jianbing Shen, and Ling Shao(参考訳) 磁気共鳴イメージング(MRI)は、異なるコントラスト(モダリティ)の画像を提供するために広く用いられる神経イメージング技術である。 このマルチモーダルデータの融合は、多くのタスクにおけるモデルパフォーマンス向上に特に有効であることが証明された。 しかし、データ品質の低下と頻繁な患者ドロップアウトのため、すべての患者に対するすべてのモダリティの収集は依然として困難である。 医用画像合成は、既存の画像から欠落したモダリティを合成する効果的な解法として提案されている。 本稿では,マルチモーダルmr画像合成のための新しいハイブリッド・フュージョン・ネットワーク(hi-net)を提案する。 当社のHi-Netでは,モダリティ固有のネットワークを用いて個々のモダリティの表現を学習し,融合ネットワークを用いてマルチモーダルデータの一般的な潜在表現を学習する。 そして、複数のモーダル合成ネットワークを設計し、各モーダルから潜在表現と階層的特徴を密結合させ、生成器として機能して対象画像を合成する。 さらに,複数のモード間の相関を効果的に活用するために,混合核融合ブロック(mfb)を提案し,異なる核融合戦略(要素和,積,最大化など)を適応的に重み付ける。 広汎な実験により,提案モデルが他の最先端の医用画像合成法より優れていることが示された。

Magnetic resonance imaging (MRI) is a widely used neuroimaging technique that can provide images of different contrasts (i.e., modalities). Fusing this multi-modal data has proven particularly effective for boosting model performance in many tasks. However, due to poor data quality and frequent patient dropout, collecting all modalities for every patient remains a challenge. Medical image synthesis has been proposed as an effective solution to this, where any missing modalities are synthesized from the existing ones. In this paper, we propose a novel Hybrid-fusion Network (Hi-Net) for multi-modal MR image synthesis, which learns a mapping from multi-modal source images (i.e., existing modalities) to target images (i.e., missing modalities). In our Hi-Net, a modality-specific network is utilized to learn representations for each individual modality, and a fusion network is employed to learn the common latent representation of multi-modal data. Then, a multi-modal synthesis network is designed to densely combine the latent representation with hierarchical features from each modality, acting as a generator to synthesize the target images. Moreover, a layer-wise multi-modal fusion strategy is presented to effectively exploit the correlations among multiple modalities, in which a Mixed Fusion Block (MFB) is proposed to adaptively weight different fusion strategies (i.e., element-wise summation, product, and maximization). Extensive experiments demonstrate that the proposed model outperforms other state-of-the-art medical image synthesis methods.
翻訳日:2023-01-02 02:40:16 公開日:2020-02-11
# ガウス行列を超えた凸ペナルテッド線形回帰に対する漸近誤差

Asymptotic errors for convex penalized linear regression beyond Gaussian matrices ( http://arxiv.org/abs/2002.04372v1 )

ライセンス: Link先を確認
C\'edric Gerbelot, Alia Abbara and Florent Krzakala(参考訳) 雑音線形観測から係数ベクトル $x_{0}$ in $r^{n}$ を学習する問題を考える。 $y=fx_{0}+w$ in $r^{m}$ 高次元極限では、$\alpha=m/n$ で無限大となる。 ラッソや弾性ネットのようなペナリズド凸回帰推定器によって得られる漸近的平均二乗誤差を、任意のスペクトルの回転不変データ行列に対応する非常に一般的なランダム行列のクラスに対して、統計的物理学からヒューリスティックな方法で最初に推測される明示的な公式の厳密な導出を提供する。 この証明は、ベクトル近似メッセージパッシング (oracle-VAMP) のオラクルバージョンの収束解析と、その状態進化方程式の性質に基づいている。 本手法は, ベクトル近似メッセージパッシング, douglas-rachford 分割, 近位降下アルゴリズムのリンクを活用し, 大規模問題に対するi.i.d.行列による先行結果の拡張を行った。 その結果を具体例で示し,漸近的ではあるが,非常に適度なサイズであっても数値と非常によく一致していることを示す。

We consider the problem of learning a coefficient vector $x_{0}$ in $R^{N}$ from noisy linear observations $y=Fx_{0}+w$ in $R^{M}$ in the high dimensional limit $M,N$ to infinity with $\alpha=M/N$ fixed. We provide a rigorous derivation of an explicit formula -- first conjectured using heuristic methods from statistical physics -- for the asymptotic mean squared error obtained by penalized convex regression estimators such as the LASSO or the elastic net, for a class of very generic random matrices corresponding to rotationally invariant data matrices with arbitrary spectrum. The proof is based on a convergence analysis of an oracle version of vector approximate message-passing (oracle-VAMP) and on the properties of its state evolution equations. Our method leverages on and highlights the link between vector approximate message-passing, Douglas-Rachford splitting and proximal descent algorithms, extending previous results obtained with i.i.d. matrices for a large class of problems. We illustrate our results on some concrete examples and show that even though they are asymptotic, our predictions agree remarkably well with numerics even for very moderate sizes.
翻訳日:2023-01-02 02:39:03 公開日:2020-02-11
# 海洋生物は一度の視点しか見ない

Marine life through You Only Look Once's perspective ( http://arxiv.org/abs/2003.00836v1 )

ライセンス: Link先を確認
Herman Stavelin, Adil Rasheed, Omer San, Arne Johan Hestnes(参考訳) 人類への注目が高まり、地球と野生生物が変化し、持続可能で責任ある資源の収集がますます強調されるようになった。 ノルウェー政府は海洋野生生物の保全のために、ノルウェーのフィヨルドや海洋における様々な種類の野生生物の存在と豊富さについて概観する必要があると判断した。 本稿では,カメラ画像中の魚を検出する物体検出手法を適用し,解析する。 データはノルウェーのfulehukにある沈んだデータセンターから採取された。 You Only Look Once (YOLO)バージョン3を実装し、99,961イメージと$\sim 0.88$のmAPからなるデータセットを作成します。 また、YOLO内の中間結果を調査し、オブジェクト検出の実施方法について考察する。

With the rise of focus on man made changes to our planet and wildlife therein, more and more emphasis is put on sustainable and responsible gathering of resources. In an effort to preserve maritime wildlife the Norwegian government has decided that it is necessary to create an overview over the presence and abundance of various species of wildlife in the Norwegian fjords and oceans. In this paper we apply and analyze an object detection scheme that detects fish in camera images. The data is sampled from a submerged data station at Fulehuk in Norway. We implement You Only Look Once (YOLO) version 3 and create a dataset consisting of 99,961 images with a mAP of $\sim 0.88$. We also investigate intermediate results within YOLO, gaining insight into how it performs object detection.
翻訳日:2023-01-02 02:32:00 公開日:2020-02-11
# 研究論文の2大タイトルとキーワード生成コーパス

Two Huge Title and Keyword Generation Corpora of Research Articles ( http://arxiv.org/abs/2002.04689v1 )

ライセンス: Link先を確認
Erion \c{C}ano, Ond\v{r}ej Bojar(参考訳) ニューラルネットワークを用いたシーケンス・ツー・シーケンス学習の最近の進歩は、自動生成されたテキスト要約と文書キーワードの品質を大幅に向上させ、さらに大きなトレーニングコーパスの必要性を規定している。 研究論文のメタデータは通常オンラインで見つけやすく、様々なタスクの研究に使うことができる。 本稿では,テキスト要約(OAGSX)とキーワード生成(OAGKX)の2つの巨大なデータセットを紹介する。 データは、研究プロファイルと出版物のネットワークであるOpen Academic Graphから取得された。 我々は各レコードを慎重に処理し、他の研究者のパフォーマンスベースラインを作成するために、両方のタスクの抽出的、抽象的手法を試した。 さらに、出力をプレビューするこれらのメソッドのパフォーマンスについて説明する。 近い将来、より特定の分野から研究論文のサブセットを導出するために、2つのセットにトピックモデリングを適用したい。

Recent developments in sequence-to-sequence learning with neural networks have considerably improved the quality of automatically generated text summaries and document keywords, stipulating the need for even bigger training corpora. Metadata of research articles are usually easy to find online and can be used to perform research on various tasks. In this paper, we introduce two huge datasets for text summarization (OAGSX) and keyword generation (OAGKX) research, containing 34 million and 23 million records, respectively. The data were retrieved from the Open Academic Graph which is a network of research profiles and publications. We carefully processed each record and also tried several extractive and abstractive methods of both tasks to create performance baselines for other researchers. We further illustrate the performance of those methods previewing their outputs. In the near future, we would like to apply topic modeling on the two sets to derive subsets of research articles from more specific disciplines.
翻訳日:2023-01-02 02:31:35 公開日:2020-02-11
# POMDPの強化学習:分割ロールアウトと政策イテレーションと自律的シーケンス修復問題への応用

Reinforcement Learning for POMDP: Partitioned Rollout and Policy Iteration with Application to Autonomous Sequential Repair Problems ( http://arxiv.org/abs/2002.04175v1 )

ライセンス: Link先を確認
Sushmita Bhattacharya, Sahil Badyal, Thomas Wheeler, Stephanie Gil, Dimitri Bertsekas(参考訳) 本稿では,有限状態と制御空間,および部分状態観測を用いた無限遠地平線割引動的計画問題を考える。 本稿では,マルチステップルックアヘッド,既知の基本方針付きロールアウト,端末コスト関数近似を用いたアルゴリズムについて議論する。 このアルゴリズムは、ニューラルネットワーク分類器を用いて逐次ポリシーを近似する近似ポリシー反復スキームにおけるポリシー改善にも用いられる。 提案手法の新たな特徴は,拡張信念空間の定式化と,複数のニューラルネットワークでトレーニングされた分割アーキテクチャの利用による分散計算に適している点である。 ロボットがパイプラインの状態に関する部分的な情報に基づいて、複数の破壊箇所を持つパイプラインを検査し、修復するシーケンシャル修復問題に対して、シミュレーションの手法を適用する。

In this paper we consider infinite horizon discounted dynamic programming problems with finite state and control spaces, and partial state observations. We discuss an algorithm that uses multistep lookahead, truncated rollout with a known base policy, and a terminal cost function approximation. This algorithm is also used for policy improvement in an approximate policy iteration scheme, where successive policies are approximated by using a neural network classifier. A novel feature of our approach is that it is well suited for distributed computation through an extended belief space formulation and the use of a partitioned architecture, which is trained with multiple neural networks. We apply our methods in simulation to a class of sequential repair problems where a robot inspects and repairs a pipeline with potentially several rupture sites under partial information about the state of the pipeline.
翻訳日:2023-01-02 02:31:21 公開日:2020-02-11
# 人間のタスクパフォーマンスを改善するための合理化

Leveraging Rationales to Improve Human Task Performance ( http://arxiv.org/abs/2002.04202v1 )

ライセンス: Link先を確認
Devleena Das, Sonia Chernova(参考訳) 多くのアプリケーション領域にまたがる機械学習(ML)システムは、人間以上のパフォーマンスを示すものになりつつある。 このようなモデルの普及に対応して、説明可能なAI(XAI)の分野は、機械学習手法の透明性と解釈可能性を高める技術の開発を目指している。 本稿では,XAI と ML コミュニティでこれまで検討されていなかった問題について考察する。 人間のユーザを上回る性能を持つ計算システムを考えると,人間の性能向上にAI能力を活用することができるのか? チェスのゲームにおいて,平均的なプレイヤーのパフォーマンスを上回った計算ゲームエンジンが広く利用可能であるという文脈で,この疑問を考察する。 本稿では,2つのベースラインに対して複数日間のユーザ調査を行った結果,ユーティリティベースの計算手法の合理化を自動生成する手法であるratione-generating algorithmを提案する。 その結果,AIの内部タスクモデルから自動生成される合理性は,システムが何をしているかを説明するだけでなく,ユーザに対して指示し,最終的にタスク性能を改善するためにも利用できることが示された。

Machine learning (ML) systems across many application areas are increasingly demonstrating performance that is beyond that of humans. In response to the proliferation of such models, the field of Explainable AI (XAI) has sought to develop techniques that enhance the transparency and interpretability of machine learning methods. In this work, we consider a question not previously explored within the XAI and ML communities: Given a computational system whose performance exceeds that of its human user, can explainable AI capabilities be leveraged to improve the performance of the human? We study this question in the context of the game of Chess, for which computational game engines that surpass the performance of the average player are widely available. We introduce the Rationale-Generating Algorithm, an automated technique for generating rationales for utility-based computational methods, which we evaluate with a multi-day user study against two baselines. The results show that our approach produces rationales that lead to statistically significant improvement in human task performance, demonstrating that rationales automatically generated from an AI's internal task model can be used not only to explain what the system is doing, but also to instruct the user and ultimately improve their task performance.
翻訳日:2023-01-02 02:31:06 公開日:2020-02-11
# 低レベル対話による局所領域の画像属性の調整

Adjusting Image Attributes of Localized Regions with Low-level Dialogue ( http://arxiv.org/abs/2002.04678v1 )

ライセンス: Link先を確認
Tzu-Hsiang Lin, Alexander Rudnicky, Trung Bui, Doo Soon Kim, Jean Oh(参考訳) 自然言語画像編集(NLIE)は、自然言語を使って画像を編集することを目的としている。 初心者は画像編集技術に精通していないため、その指示はしばしば曖昧であり、複雑な編集手順に対応する高いレベルの抽象化を含んでいる。 この経験不足に動機づけられて,初心者に低レベルの命令用語を用いて画像編集を教えることにより,学習曲線の円滑化を目指す。 そこで我々は,NLIEの低レベル命令を探索するタスク指向対話システムを開発した。 本システムでは,編集操作のレベルで言語を基礎として,ユーザが選択するオプションを提案する。 低レベルの表現を強制されたが、ユーザ評価の結果、25%のユーザが、システムの使いやすさに気付き、モチベーションに共鳴していることがわかった。 分析の結果,提案した低レベル言語インタフェースの利用に一般的に適応していることがわかった。 本研究では,対象のセグメンテーションがユーザ満足度の重要な要因であることを示す。 本研究は,音声編集や産業設計といった画像編集以外の問題領域に適用可能な,低レベルの直接言語対応マッピング手法の利点を示す。

Natural Language Image Editing (NLIE) aims to use natural language instructions to edit images. Since novices are inexperienced with image editing techniques, their instructions are often ambiguous and contain high-level abstractions that tend to correspond to complex editing steps to accomplish. Motivated by this inexperience aspect, we aim to smooth the learning curve by teaching the novices to edit images using low-level commanding terminologies. Towards this end, we develop a task-oriented dialogue system to investigate low-level instructions for NLIE. Our system grounds language on the level of edit operations, and suggests options for a user to choose from. Though compelled to express in low-level terms, a user evaluation shows that 25% of users found our system easy-to-use, resonating with our motivation. An analysis shows that users generally adapt to utilizing the proposed low-level language interface. In this study, we identify that object segmentation as the key factor to the user satisfaction. Our work demonstrates the advantages of the low-level, direct language-action mapping approach that can be applied to other problem domains beyond image editing such as audio editing or industrial design.
翻訳日:2023-01-02 02:23:48 公開日:2020-02-11
# 安静状態におけるデフォルトモードネットワークに基づく運動画像性能の有効相関

Effective Correlates of Motor Imagery Performance based on Default Mode Network in Resting-State ( http://arxiv.org/abs/2002.08468v1 )

ライセンス: Link先を確認
Jae-Geun Yoon and Minji Lee(参考訳) 運動画像に基づく脳-コンピュータインタフェース(MI-BCI)は、様々な筋肉の動きを想像してデバイスとコミュニケーションを制御できる。 しかし、ほとんどの研究では、MI-BCIを使用するのに十分な性能を持たない「BCIリテラシー」の問題が報告されている。 したがって、パフォーマンスの低い課題を理解し、パフォーマンスの変動の原因を見つけることは依然として重要な課題である。 本研究では,安静時脳波の有効接続を用いたMI性能予測器を提案する。 その結果,miパフォーマンス群とmiパフォーマンス群では,23%のmiパフォーマンス差がみられた。 また, 安静時脳波における右側頭頂側から左側頭頂側への接続はMI性能と有意に相関していた(r=-0.37。 これらの知見は、BCIの識字性を理解し、対象に適する選択肢を検討するのに役立つ。

Motor imagery based brain-computer interfaces (MI-BCIs) allow the control of devices and communication by imagining different muscle movements. However, most studies have reported a problem of "BCI-illiteracy" that does not have enough performance to use MI-BCI. Therefore, understanding subjects with poor performance and finding the cause of performance variation is still an important challenge. In this study, we proposed predictors of MI performance using effective connectivity in resting-state EEG. As a result, the high and low MI performance groups had a significant difference as 23% MI performance difference. We also found that connection from right lateral parietal to left lateral parietal in resting-state EEG was correlated significantly with MI performance (r = -0.37). These findings could help to understand BCI-illiteracy and to consider alternatives that are appropriate for the subject.
翻訳日:2023-01-02 02:23:30 公開日:2020-02-11
# データ融合転送学習を用いた3次元非対称インセプションネットワークに基づくハイパースペクトル分類

Hyperspectral Classification Based on 3D Asymmetric Inception Network with Data Fusion Transfer Learning ( http://arxiv.org/abs/2002.04227v1 )

ライセンス: Link先を確認
Haokui Zhang, Yu Liu, Bei Fang, Ying Li, Lingqiao Liu and Ian Reid(参考訳) 近年,畳み込みニューラルネットワーク(cnn)によりハイパースペクトル画像(hsi)分類が改善されている。 rgbデータセットと異なるため、異なるhsiデータセットは一般に様々なリモートセンサーによってキャプチャされ、異なるスペクトル構成を持つ。 さらに、それぞれのhsiデータセットは、非常に限られたトレーニングサンプルしか含んでおらず、ディープcnnを使用するとオーバーフィットしがちである。 本稿では,まず3次元非対称インセプションネットワークainetを提供し,オーバーフィッティング問題を克服する。 HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。 また,提案するデータ融合転送学習戦略は,分類性能の向上に有用である。 大規模な実験の結果、提案手法はパヴィア大学、インドパインズ、ケネディ宇宙センター(KSC)など、いくつかのHSIベンチマークで最先端の手法を全て破った。 コードは、https://github.com/UniLauX/AINet.comで参照できる。

Hyperspectral image(HSI) classification has been improved with convolutional neural network(CNN) in very recent years. Being different from the RGB datasets, different HSI datasets are generally captured by various remote sensors and have different spectral configurations. Moreover, each HSI dataset only contains very limited training samples and thus it is prone to overfitting when using deep CNNs. In this paper, we first deliver a 3D asymmetric inception network, AINet, to overcome the overfitting problem. With the emphasis on spectral signatures over spatial contexts of HSI data, AINet can convey and classify the features effectively. In addition, the proposed data fusion transfer learning strategy is beneficial in boosting the classification performance. Extensive experiments show that the proposed approach beat all of the state-of-art methods on several HSI benchmarks, including Pavia University, Indian Pines and Kennedy Space Center(KSC). Code can be found at: https://github.com/UniLauX/AINet.
翻訳日:2023-01-02 02:23:09 公開日:2020-02-11
# 勾配領域エッジマージによる塩分向上

Saliency Enhancement using Gradient Domain Edges Merging ( http://arxiv.org/abs/2002.04380v1 )

ライセンス: Link先を確認
Dominique Beaini, Sofiane Achiche, Alexandre Duperre, Maxime Raison(参考訳) 近年,画像の境界を見つけるエッジ検出や,画像内の重要な物体を見つける健全な物体検出など,コンピュータビジョンにおけるバイナリ問題の解決が急速に進んでいる。 この進歩は、複雑で抽象的な特徴を抽出できるディープラーニングと畳み込みニューラルネットワーク(CNN)の台頭によって起こった。 しかしながら、エッジ検出とサリエンシはまだ2つの異なる分野であり、人間はその境界に基づいてサリエントオブジェクトを検出することは直感的であるが、相互に相互作用しない。 CNNでは、エッジと表面が交差しないため、これらの機能はうまくマージされていない。 現在の作業において、主な目的は、サリエンシーマップとエッジをマージし、サリエンシーの性能を向上させる方法を開発することである。 そこで我々は,salient object detectionの画像領域情報とエッジ検出の勾配領域情報とを高速に結合できるgdm(gradient-domain merge)を開発した。 これにより,dut-omronデータセットにおけるf-measureの平均値が3.4倍高く,ecssdデータセットでは6.6倍に向上したエッジを用いたサリエンシ向上が提案されている(参照)。 SEEアルゴリズムは前処理のためのSEE-Preと後処理のためのSEE-Postの2つの部分に分けられる。

In recent years, there has been a rapid progress in solving the binary problems in computer vision, such as edge detection which finds the boundaries of an image and salient object detection which finds the important object in an image. This progress happened thanks to the rise of deep-learning and convolutional neural networks (CNN) which allow to extract complex and abstract features. However, edge detection and saliency are still two different fields and do not interact together, although it is intuitive for a human to detect salient objects based on its boundaries. Those features are not well merged in a CNN because edges and surfaces do not intersect since one feature represents a region while the other represents boundaries between different regions. In the current work, the main objective is to develop a method to merge the edges with the saliency maps to improve the performance of the saliency. Hence, we developed the gradient-domain merging (GDM) which can be used to quickly combine the image-domain information of salient object detection with the gradient-domain information of the edge detection. This leads to our proposed saliency enhancement using edges (SEE) with an average improvement of the F-measure of at least 3.4 times higher on the DUT-OMRON dataset and 6.6 times higher on the ECSSD dataset, when compared to competing algorithm such as denseCRF and BGOF. The SEE algorithm is split into 2 parts, SEE-Pre for preprocessing and SEE-Post pour postprocessing.
翻訳日:2023-01-02 02:22:19 公開日:2020-02-11
# 背景マッティング

Background Matting ( http://arxiv.org/abs/2002.04433v1 )

ライセンス: Link先を確認
Hossein Javidnia, Fran\c{c}ois Piti\'e(参考訳) art alpha matting法の現状は、主に、アルファを推定するための二次的かつ唯一のガイダンスとしてtrimapに依存している。 本稿では,アルファ計算の過程における背景情報とトリマップの活用効果について検討する。 この目的を達成するため、AlphaGanが採用され、背景情報を追加入力チャネルとして処理するように変更される。 画像とビデオのマッチングにおける背景情報の影響を分析するために, 微弱で歪んだ背景のトレーニングなど, 広範囲にわたる実験を行った。 Adobe composition-1kデータセットで行った定量的評価に基づいて、提案したパイプラインはAlphaMattingベンチマークメトリクスを使用して、アートメソッドの状態を著しく上回る。

The current state of the art alpha matting methods mainly rely on the trimap as the secondary and only guidance to estimate alpha. This paper investigates the effects of utilising the background information as well as trimap in the process of alpha calculation. To achieve this goal, a state of the art method, AlphaGan is adopted and modified to process the background information as an extra input channel. Extensive experiments are performed to analyse the effect of the background information in image and video matting such as training with mildly and heavily distorted backgrounds. Based on the quantitative evaluations performed on Adobe Composition-1k dataset, the proposed pipeline significantly outperforms the state of the art methods using AlphaMatting benchmark metrics.
翻訳日:2023-01-02 02:21:55 公開日:2020-02-11
# CT画像による膵癌の新規かつ効率的な腫瘍検出フレームワーク

A Novel and Efficient Tumor Detection Framework for Pancreatic Cancer via CT Images ( http://arxiv.org/abs/2002.04493v1 )

ライセンス: Link先を確認
Zhengdong Zhang, Shuai Li, Ziyang Wang and Yun Lu(参考訳) 近年,Deep Convolutional Neural Networks (DCNNs) が医療画像解析において堅牢な性能を示し,多くの深層学習に基づく腫瘍検出法が開発されている。 近年,造影CT(Content-enhanced Computed Tomography)による膵腫瘍の自動検出が膵癌の診断とステージングに広く応用されている。 伝統的な手作りの手法は低レベルの特徴のみを抽出する。 しかし、通常の畳み込みニューラルネットワークでは、効果的なコンテキスト情報を十分に活用できず、検出結果が劣る。 本稿では,複数のスケールでコンテキスト情報を完全に活用することを目的とした,新規かつ効率的な膵腫瘍検出フレームワークを設計する。 より具体的には、提案手法の貢献は主に機能ピラミッドネットワークの拡張、自己適応的機能融合、依存関係計算(dc)モジュールの3つのコンポーネントで構成されている。 まず、低レベルの正確なローカライゼーション情報を完全抽出し、伝播するボトムアップパス増強を行う。 次に、Self-Adaptive Feature Fusionは提案した領域に基づいて、よりリッチなコンテキスト情報を複数のスケールでエンコードする。 最後に、dcモジュールは提案と周囲の組織間の相互作用情報をキャプチャするために特別に設計されている。 auc 0.9455を用いて膵癌の腫瘍を効率的に高精度に検出する手法を実証した。

As Deep Convolutional Neural Networks (DCNNs) have shown robust performance and results in medical image analysis, a number of deep-learning-based tumor detection methods were developed in recent years. Nowadays, the automatic detection of pancreatic tumors using contrast-enhanced Computed Tomography (CT) is widely applied for the diagnosis and staging of pancreatic cancer. Traditional hand-crafted methods only extract low-level features. Normal convolutional neural networks, however, fail to make full use of effective context information, which causes inferior detection results. In this paper, a novel and efficient pancreatic tumor detection framework aiming at fully exploiting the context information at multiple scales is designed. More specifically, the contribution of the proposed method mainly consists of three components: Augmented Feature Pyramid networks, Self-adaptive Feature Fusion and a Dependencies Computation (DC) Module. A bottom-up path augmentation to fully extract and propagate low-level accurate localization information is established firstly. Then, the Self-adaptive Feature Fusion can encode much richer context information at multiple scales based on the proposed regions. Finally, the DC Module is specifically designed to capture the interaction information between proposals and surrounding tissues. Experimental results achieve competitive performance in detection with the AUC of 0.9455, which outperforms other state-of-the-art methods to our best of knowledge, demonstrating the proposed framework can detect the tumor of pancreatic cancer efficiently and accurately.
翻訳日:2023-01-02 02:21:46 公開日:2020-02-11
# FPCRF(Feature Pairwise Conditional Random Field)を用いた畳み込みニューラルネットワークによる足跡生成

Building Footprint Generation by IntegratingConvolution Neural Network with Feature PairwiseConditional Random Field (FPCRF) ( http://arxiv.org/abs/2002.04600v1 )

ライセンス: Link先を確認
Qingyu Li, Yilei Shi, Xin Huang, Xiao Xiang Zhu(参考訳) 建築フットプリントマップは、3Dビルディングモデリング、都市計画、災害管理など、多くのリモートセンシングアプリケーションにとって不可欠である。 建物の複雑さのため、リモートセンシングによる建物のフットプリントの正確かつ信頼性の高い生成は依然として困難な課題である。 本研究では,畳み込みニューラルネットワーク(cnn)とグラフモデルを統合するエンドツーエンド構築足跡生成手法を提案する。 CNNは特徴抽出器として機能し、グラフモデルは空間的相関を考慮することができる。 さらに,特徴対条件付きランダムフィールド(FPCRF)をグラフモデルとして実装し,シャープな境界ときめ細かいセグメンテーションを実現する。 1) ミュンヘン, パリ, ローマ, チューリッヒの都市のプラネタスコープ衛星画像, (2) ポツダム市のisprsベンチマークデータ, (3) dstlカグルデータセット, (4) オースティン, シカゴ, キサップ郡, 西チロル, ウィーンのインリア航空画像ラベリングデータである。 グラフモデルとしてFPCRFを用いたエンドツーエンドの建築フットプリント生成フレームワークは,現在の最先端技術であるCNNのみを用いて,建築フットプリント生成の精度をさらに向上させることができる。

Building footprint maps are vital to many remote sensing applications, such as 3D building modeling, urban planning, and disaster management. Due to the complexity of buildings, the accurate and reliable generation of the building footprint from remote sensing imagery is still a challenging task. In this work, an end-to-end building footprint generation approach that integrates convolution neural network (CNN) and graph model is proposed. CNN serves as the feature extractor, while the graph model can take spatial correlation into consideration. Moreover, we propose to implement the feature pairwise conditional random field (FPCRF) as a graph model to preserve sharp boundaries and fine-grained segmentation. Experiments are conducted on four different datasets: (1) Planetscope satellite imagery of the cities of Munich, Paris, Rome, and Zurich; (2) ISPRS benchmark data from the city of Potsdam, (3) Dstl Kaggle dataset; and (4) Inria Aerial Image Labeling data of Austin, Chicago, Kitsap County, Western Tyrol, and Vienna. It is found that the proposed end-to-end building footprint generation framework with the FPCRF as the graph model can further improve the accuracy of building footprint generation by using only CNN, which is the current state-of-the-art.
翻訳日:2023-01-02 02:21:26 公開日:2020-02-11
# 監視カメラからの視覚に基づく戦闘検出

Vision-based Fight Detection from Surveillance Cameras ( http://arxiv.org/abs/2002.04355v1 )

ライセンス: Link先を確認
\c{S}eymanur Akt{\i}, G\"ozde Ay\c{s}e Tataro\u{g}lu, Haz{\i}m Kemal Ekenel(参考訳) 視覚に基づく行動認識は、コンピュータビジョンとパターン認識の最も難しい研究テーマの1つである。 その特定の応用、すなわち公共の場所や刑務所などの監視カメラからの戦闘を検出することは、これらの暴力的な事件を迅速に制御することが望まれる。 本稿では、この研究課題に対処し、LSTMに基づく解決手法を探求する。 また、注意層も利用する。 さらに、YouTubeで利用可能な監視カメラビデオの戦闘シーンで構成される新しいデータセットが収集されている。 このデータセットは公開されています。 ホッケーファイト,ペリキュラ,および新たに収集したファイトデータセットに関する広範な実験から,xception model,bi-lstm,および注意を統合した提案手法が,ファイトシーン分類の最先端精度を向上させることが確認された。

Vision-based action recognition is one of the most challenging research topics of computer vision and pattern recognition. A specific application of it, namely, detecting fights from surveillance cameras in public areas, prisons, etc., is desired to quickly get under control these violent incidents. This paper addresses this research problem and explores LSTM-based approaches to solve it. Moreover, the attention layer is also utilized. Besides, a new dataset is collected, which consists of fight scenes from surveillance camera videos available at YouTube. This dataset is made publicly available. From the extensive experiments conducted on Hockey Fight, Peliculas, and the newly collected fight datasets, it is observed that the proposed approach, which integrates Xception model, Bi-LSTM, and attention, improves the state-of-the-art accuracy for fight scene classification.
翻訳日:2023-01-02 02:14:34 公開日:2020-02-11
# 外形からの3次元内部構造予測に関する調査研究

A Survey On 3D Inner Structure Prediction from its Outer Shape ( http://arxiv.org/abs/2002.04571v1 )

ライセンス: Link先を確認
Mohamed Mejri, Antoine Richard, C\'edric Pradalier(参考訳) 樹木の内部構造の解析は、森林の専門家、生物科学者、木材産業にとって非常に重要である。 伝統的に、CTスキャナーは木の正確な内部表現を得る最も効率的な方法と考えられている。 しかし,この方法は重要な投資を必要とし,コスト効率を低下させる。 本研究の目的は,外部樹皮形状から木の内部密度を予測するニューラルネットワークに基づく手法を設計することである。 本稿では,木の内部欠陥分布を樹皮形状から予測する上で,画像から画像へ(2d),ボリュームからボリュームへ(3d),畳み込み型長期記憶型ニューラルネットワークアーキテクチャを比較した。 これらのモデルは、木の内部密度とその対応する外部表面の1800 ctスキャンされた体積構造からなる合成データセットで訓練される。

The analysis of the internal structure of trees is highly important for both forest experts, biological scientists, and the wood industry. Traditionally, CT-scanners are considered as the most efficient way to get an accurate inner representation of the tree. However, this method requires an important investment and reduces the cost-effectiveness of this operation. Our goal is to design neural-network-based methods to predict the internal density of the tree from its external bark shape. This paper compares different image-to-image(2D), volume-to-volume(3D) and Convolutional Long Short Term Memory based neural network architectures in the context of the prediction of the defect distribution inside trees from their external bark shape. Those models are trained on a synthetic dataset of 1800 CT-scanned look-like volumetric structures of the internal density of the trees and their corresponding external surface.
翻訳日:2023-01-02 02:14:19 公開日:2020-02-11
# 不確実性を伴う新しさの発見

Finding novelty with uncertainty ( http://arxiv.org/abs/2002.04626v1 )

ライセンス: Link先を確認
Jacob C. Reinhold, Yufan He, Shizhong Han, Yunqiang Chen, Dashan Gao, Junghoon Lee, Jerry L. Prince, Aaron Carass(参考訳) 医用画像は疾患や疾患の検出・特徴付けによく用いられるが, 疾患にまたがる病理の出現が多岐にわたるため, 自動的に診断・分類が困難である。 この課題に対処するために,健常なCT画像から磁気共鳴画像への変換を学習し,同時にボクセルによる不確実性を計算するベイズディープラーニング手法を提案する。 画像の病理領域に高い不確かさが生じるため、この不確実性は教師なしの異常分割に使用できる。 そこで本研究では,2種類の不確かさをscibilic uncertaintyと呼ばれる新しい量に組み合わせることにより,教師なしの異常分割タスクにおける実験結果を奨励する。

Medical images are often used to detect and characterize pathology and disease; however, automatically identifying and segmenting pathology in medical images is challenging because the appearance of pathology across diseases varies widely. To address this challenge, we propose a Bayesian deep learning method that learns to translate healthy computed tomography images to magnetic resonance images and simultaneously calculates voxel-wise uncertainty. Since high uncertainty occurs in pathological regions of the image, this uncertainty can be used for unsupervised anomaly segmentation. We show encouraging experimental results on an unsupervised anomaly segmentation task by combining two types of uncertainty into a novel quantity we call scibilic uncertainty.
翻訳日:2023-01-02 02:14:07 公開日:2020-02-11
# 医用画像翻訳における不確かさの検証

Validating uncertainty in medical image translation ( http://arxiv.org/abs/2002.04639v1 )

ライセンス: Link先を確認
Jacob C. Reinhold, Yufan He, Shizhong Han, Yunqiang Chen, Dashan Gao, Junghoon Lee, Jerry L. Prince, Aaron Carass(参考訳) 医療画像は、研究者や臨床医を助ける定量的な価値を生み出すために、ディープニューラルネットワークへの入力としてますます使われる。 しかし、標準のディープニューラルネットワークは、それらの量的値における不確かさの信頼できる尺度を提供していない。 最近の研究で、トレーニングとテストでドロップアウトを使用することで、不確実性の推定が可能になることが示されている。 そこで本研究では,CT-to-MR画像翻訳タスクにおいて,ドロップアウトを用いてててんかんおよびアラート的不確かさを推定する。 両タイプの不確実性は、定義通り、出力の不確実性推定の信頼性を提供する。

Medical images are increasingly used as input to deep neural networks to produce quantitative values that aid researchers and clinicians. However, standard deep neural networks do not provide a reliable measure of uncertainty in those quantitative values. Recent work has shown that using dropout during training and testing can provide estimates of uncertainty. In this work, we investigate using dropout to estimate epistemic and aleatoric uncertainty in a CT-to-MR image translation task. We show that both types of uncertainty are captured, as defined, providing confidence in the output uncertainty estimates.
翻訳日:2023-01-02 02:13:52 公開日:2020-02-11
# グローバル,actローカル:dnnの一般化とノードレベルのsnrとの関連

Think Global, Act Local: Relating DNN generalisation and node-level SNR ( http://arxiv.org/abs/2002.04687v1 )

ライセンス: Link先を確認
Paul Norridge(参考訳) 優れたDNNの一般化の背景にある理由は、まだ明らかな疑問である。 本稿では,ネットワーク内のノードの信号対雑音比に着目して問題を検討する。 情報理論の原理から、DNNノード出力のSNR表現を導出することが可能である。 この式を用いて、ノードの重みがSNR(または等価な情報レート)をどれだけよく最適化するかを定量化する。 これらの数値を適用して、良いSNR性能を促進する重み集合が良い一般化を示すことを示す例を示す。 さらに, 優れたSNR挙動を示す重み集合の品質を同定し, 優れた一般化を促進することができる。 これにより、これらの結果がネットワークトレーニングと正規化にどのように関係するかが議論される。 最後に,これらの観察をトレーニング設計に活用する方法を明らかにした。

The reasons behind good DNN generalisation remain an open question. In this paper we explore the problem by looking at the Signal-to-Noise Ratio of nodes in the network. Starting from information theory principles, it is possible to derive an expression for the SNR of a DNN node output. Using this expression we construct figures-of-merit that quantify how well the weights of a node optimise SNR (or, equivalently, information rate). Applying these figures-of-merit, we give examples indicating that weight sets that promote good SNR performance also exhibit good generalisation. In addition, we are able to identify the qualities of weight sets that exhibit good SNR behaviour and hence promote good generalisation. This leads to a discussion of how these results relate to network training and regularisation. Finally, we identify some ways that these observations can be used in training design.
翻訳日:2023-01-02 02:05:45 公開日:2020-02-11
# カーネルと変分推論を用いた大規模テンソル回帰

Large Scale Tensor Regression using Kernels and Variational Inference ( http://arxiv.org/abs/2002.04704v1 )

ライセンス: Link先を確認
Robert Hu, Geoff K. Nicholls, Dino Sejdinovic(参考訳) 潜在因子がサイド情報の関数として表される場合のテンソル因子化モデルの固有弱を概説し、この弱さを緩和する新しい方法を提案する。 提案手法は,高次元データを対象とした大規模予測ツールであるtextit{Kernel Fried Tensor}(KFT) を作成した。 以上の結果から,産業予測に広く用いられている実績のある2つのアルゴリズムである, <textit{LightGBM} と \textit{Field Aware Factorization Machines}(FFM) に対して優れた性能を示した。 また、KFTのための変分推論フレームワークを開発し、3つの大規模データセットのキャリブレーションされた不確実性推定と予測を関連付ける。 さらに、KFTは定数やガウス雑音の観点から不定形側情報に対して頑健であることが実証的に示されている。

We outline an inherent weakness of tensor factorization models when latent factors are expressed as a function of side information and propose a novel method to mitigate this weakness. We coin our method \textit{Kernel Fried Tensor}(KFT) and present it as a large scale forecasting tool for high dimensional data. Our results show superior performance against \textit{LightGBM} and \textit{Field Aware Factorization Machines}(FFM), two algorithms with proven track records widely used in industrial forecasting. We also develop a variational inference framework for KFT and associate our forecasts with calibrated uncertainty estimates on three large scale datasets. Furthermore, KFT is empirically shown to be robust against uninformative side information in terms of constants and Gaussian noise.
翻訳日:2023-01-02 02:05:22 公開日:2020-02-11
# マシンラーニングによる脳波診断

Machine-Learning-Based Diagnostics of EEG Pathology ( http://arxiv.org/abs/2002.05115v1 )

ライセンス: Link先を確認
Lukas Alexander Wilhelm Gemein, Robin Tibor Schirrmeister, Patryk Chrab\k{a}szcz, Daniel Wilson, Joschka Boedecker, Andreas Schulze-Bonhage, Frank Hutter, Tonio Ball(参考訳) 機械学習(ML)手法は臨床脳波分析を自動化する可能性がある。 それらは機能ベース(手作り機能付き)とエンドツーエンドアプローチ(学習機能付き)に分類される。 脳波病理のデコードに関するこれまでの研究は、限られた数の機能、デコーダ、またはその両方を分析してきた。 I)より精巧な機能ベースのEEG分析とII)両方のアプローチの詳細な比較については、まず包括的な機能ベースのフレームワークを開発し、次に、このフレームワークを最先端のエンドツーエンドメソッドと比較する。 本研究の目的は,脳波を最適化した時間的畳み込みネットワーク(TCN)を含む機能ベースフレームワークとディープニューラルネットワークを,病理学と非病理学の脳波分類の課題に適用することである。 厳密な比較のために、約3000の脳波記録を含むテンプル大学病院 (TUH) 異常脳波コーパス (v2.0.0) を選択した。 その結果,提案手法は最先端のディープニューラルネットワークと同レベルの精度を実現できることがわかった。 両アプローチの精度は81~86\%という驚くほど狭い範囲にある。 さらに, 可視化と解析により, 両手法が時空間電極位置におけるデルタおよびテタ帯域パワーなど, データの類似した側面を用いたことが示された。 本研究は, 臨床ラベルの不完全一致により, 現在の2次脳波診断の精度が90%近く飽和する可能性があり, 臨床脳波の専門家が稀な領域など, 既に臨床的に有用であると主張している。 提案した機能ベースのフレームワークをオープンソースにし、EEG機械学習研究のための新しいツールを提供する。

Machine learning (ML) methods have the potential to automate clinical EEG analysis. They can be categorized into feature-based (with handcrafted features), and end-to-end approaches (with learned features). Previous studies on EEG pathology decoding have typically analyzed a limited number of features, decoders, or both. For a I) more elaborate feature-based EEG analysis, and II) in-depth comparisons of both approaches, here we first develop a comprehensive feature-based framework, and then compare this framework to state-of-the-art end-to-end methods. To this aim, we apply the proposed feature-based framework and deep neural networks including an EEG-optimized temporal convolutional network (TCN) to the task of pathological versus non-pathological EEG classification. For a robust comparison, we chose the Temple University Hospital (TUH) Abnormal EEG Corpus (v2.0.0), which contains approximately 3000 EEG recordings. The results demonstrate that the proposed feature-based decoding framework can achieve accuracies on the same level as state-of-the-art deep neural networks. We find accuracies across both approaches in an astonishingly narrow range from 81--86\%. Moreover, visualizations and analyses indicated that both approaches used similar aspects of the data, e.g., delta and theta band power at temporal electrode locations. We argue that the accuracies of current binary EEG pathology decoders could saturate near 90\% due to the imperfect inter-rater agreement of the clinical labels, and that such decoders are already clinically useful, such as in areas where clinical EEG experts are rare. We make the proposed feature-based framework available open source and thus offer a new tool for EEG machine learning research.
翻訳日:2023-01-02 02:04:16 公開日:2020-02-11
# ネットワークフローダイナミクスのスパースサンプリングのためのグラフフーリエ変換のニューラルネットワーク近似

Neural Network Approximation of Graph Fourier Transforms for Sparse Sampling of Networked Flow Dynamics ( http://arxiv.org/abs/2002.05508v1 )

ライセンス: Link先を確認
Alessio Pagani, Zhuangkun Wei, Ricardo Silva, Weisi Guo(参考訳) インフラ監視は安全な運用と持続可能性に不可欠である。 水分散ネットワーク(WDN)は、複雑なカスケード力学を持つ大規模ネットワーククリティカルシステムであり、予測が難しい。 ユビキタスモニタリングは高価であり、重要な課題は、部分的スパース監視データから汚染のダイナミクスを推測することである。 既存のアプローチでは、基本的な監視ポイントの最小セットを見つけるためにマルチ目的最適化を使用しているが、パフォーマンス保証や理論的枠組みは欠落している。 そこで我々はまず,ネットワーク汚染拡散ダイナミクスを圧縮し,本質的なデータ収集点を推論性能保証とともに同定するグラフフーリエ変換(GFT)演算子を開発した。 次に、自動エンコーダ(AE)にインスパイアされたニューラルネットワーク(NN)を構築し、GFTサンプリングプロセスを一般化し、初期サンプリングセットからさらにアンダーサンプリングし、非常に小さなデータポイントによって、実および人工のWDN上での汚染ダイナミクスを大まかに再構築することができる。 各種汚染源を試験し, 試料の約5~10%を用いて高精度な再構成を行った。 ニューラルネットワークによる圧縮とアンダーサンプルリカバリの一般的なアプローチは、広範囲のネットワークインフラストラクチャに適用することで、ディジタルツインを実現することができる。

Infrastructure monitoring is critical for safe operations and sustainability. Water distribution networks (WDNs) are large-scale networked critical systems with complex cascade dynamics which are difficult to predict. Ubiquitous monitoring is expensive and a key challenge is to infer the contaminant dynamics from partial sparse monitoring data. Existing approaches use multi-objective optimisation to find the minimum set of essential monitoring points, but lack performance guarantees and a theoretical framework. Here, we first develop Graph Fourier Transform (GFT) operators to compress networked contamination spreading dynamics to identify the essential principle data collection points with inference performance guarantees. We then build autoencoder (AE) inspired neural networks (NN) to generalize the GFT sampling process and under-sample further from the initial sampling set, allowing a very small set of data points to largely reconstruct the contamination dynamics over real and artificial WDNs. Various sources of the contamination are tested and we obtain high accuracy reconstruction using around 5-10% of the sample set. This general approach of compression and under-sampled recovery via neural networks can be applied to a wide range of networked infrastructures to enable digital twins.
翻訳日:2023-01-02 02:03:47 公開日:2020-02-11
# ガウス過程による複数の金融シリーズの含意

Gaussian process imputation of multiple financial series ( http://arxiv.org/abs/2002.05789v1 )

ライセンス: Link先を確認
Taco de Wolff, Alejandro Cuevas, Felipe Tobar(参考訳) 金融信号処理において、金融指標、株価、為替レートといった複数の時系列は、市場が潜んでいる状態に依存しているため強く結びついているので、共同で分析する必要がある。 我々は,多出力ガウス過程(MOGP)を表現的共分散関数でモデル化することで,金融時系列間の関係を学習することに集中する。 これらの金融シリーズ間の市場依存の学習は、金融観測のインプットと予測に不可欠である。 提案モデルは、チャネル間の相関が分析される2つの実世界の金融データセットで実験的に検証される。 我々は,本モデルと他のMOGPと,実際の財務データに対する独立ガウス過程を比較した。

In Financial Signal Processing, multiple time series such as financial indicators, stock prices and exchange rates are strongly coupled due to their dependence on the latent state of the market and therefore they are required to be jointly analysed. We focus on learning the relationships among financial time series by modelling them through a multi-output Gaussian process (MOGP) with expressive covariance functions. Learning these market dependencies among financial series is crucial for the imputation and prediction of financial observations. The proposed model is validated experimentally on two real-world financial datasets for which their correlations across channels are analysed. We compare our model against other MOGPs and the independent Gaussian process on real financial data.
翻訳日:2023-01-02 02:03:24 公開日:2020-02-11
# 一般化カーネルベース動的モード分解

Generalized Kernel-Based Dynamic Mode Decomposition ( http://arxiv.org/abs/2002.04375v1 )

ライセンス: Link先を確認
Patrick Heas, Cedric Herzet, Benoit Combes(参考訳) 高次元再現核ヒルベルト空間における縮小モデリングは、効率的に非線形ダイナミクスを近似する機会を与える。 本研究では,カーネルベースの動的モード分解と呼ばれる最近の手法を一般化した低階制約最適化とカーネルベースの計算に基づくアルゴリズムを考案する。 このアルゴリズムは数値シミュレーションや計算複雑性によって証明される近似精度の利得によって特徴づけられる。

Reduced modeling in high-dimensional reproducing kernel Hilbert spaces offers the opportunity to approximate efficiently non-linear dynamics. In this work, we devise an algorithm based on low rank constraint optimization and kernel-based computation that generalizes a recent approach called "kernel-based dynamic mode decomposition". This new algorithm is characterized by a gain in approximation accuracy, as evidenced by numerical simulations, and in computational complexity.
翻訳日:2023-01-02 01:55:34 公開日:2020-02-11
# 不確実性伝播のためのバイフィデリティデータを用いたニューラルネットワークの伝達学習について

On transfer learning of neural networks using bi-fidelity data for uncertainty propagation ( http://arxiv.org/abs/2002.04495v1 )

ライセンス: Link先を確認
Subhayan De, Jolene Britton, Matthew Reynolds, Ryan Skinner, Kenneth Jansen, and Alireza Doostan(参考訳) 高い表現性のため、近年、ニューラルネットワークはエンジニアリングシステムの入力を関心のある出力にマッピングするためのサロゲートモデルとして使用されている。 訓練されたニューラルネットワークは、不確実な定量化アプリケーションにおいて、計算コストのかかるモデルの繰り返し評価の必要性を評価・除去するために、計算コストがかかる。 しかしながら、ニューラルネットワーク、特にディープニューラルネットワークの高度にパラメータ化された構成を考えると、正確なトレーニングには計算コストの高いシステムでは利用できない大量のシミュレーションデータが必要となる。 本稿では,不確実性伝播の問題を緩和するために,高忠実度モデルと低忠実度モデルの両方から生成されたトレーニングデータを用いたトランスファー学習手法の適用について検討する。 本稿では,この2つのデータセットをトレーニング手順中に結合する2つの戦略,すなわち,標準移動学習と両忠実重み付き学習について検討する。 前者のアプローチでは、入力を関心の出力にマッピングするニューラルネットワークモデルが、低忠実度データに基づいて訓練される。 そして、高忠実度データを用いて、低忠実度ネットワークの上層層(s)のパラメータを適応させたり、より単純なニューラルネットワークを訓練して低忠実度ネットワークの出力を高忠実度モデルにマッピングする。 後者のアプローチでは、小さな高忠実度データセットでトレーニングされたガウスプロセスモデルによって生成されたデータを使用して、低忠実度ネットワークパラメータ全体を更新する。 パラメータ更新は、ガウス過程モデルによって与えられる学習率とともに確率勾配勾配の変種によって行われる。 3つの数値例を用いて,標準的なトレーニングアプローチによるトランスファー学習によって達成された精度向上に焦点をあてたbi-fidelity transfer learning法の有用性を示す。

Due to their high degree of expressiveness, neural networks have recently been used as surrogate models for mapping inputs of an engineering system to outputs of interest. Once trained, neural networks are computationally inexpensive to evaluate and remove the need for repeated evaluations of computationally expensive models in uncertainty quantification applications. However, given the highly parameterized construction of neural networks, especially deep neural networks, accurate training often requires large amounts of simulation data that may not be available in the case of computationally expensive systems. In this paper, to alleviate this issue for uncertainty propagation, we explore the application of transfer learning techniques using training data generated from both high- and low-fidelity models. We explore two strategies for coupling these two datasets during the training procedure, namely, the standard transfer learning and the bi-fidelity weighted learning. In the former approach, a neural network model mapping the inputs to the outputs of interest is trained based on the low-fidelity data. The high-fidelity data is then used to adapt the parameters of the upper layer(s) of the low-fidelity network, or train a simpler neural network to map the output of the low-fidelity network to that of the high-fidelity model. In the latter approach, the entire low-fidelity network parameters are updated using data generated via a Gaussian process model trained with a small high-fidelity dataset. The parameter updates are performed via a variant of stochastic gradient descent with learning rates given by the Gaussian process model. Using three numerical examples, we illustrate the utility of these bi-fidelity transfer learning methods where we focus on accuracy improvement achieved by transfer learning over standard training approaches.
翻訳日:2023-01-02 01:55:10 公開日:2020-02-11
# 機械学習パイプラインのデバッグ

Debugging Machine Learning Pipelines ( http://arxiv.org/abs/2002.04640v1 )

ライセンス: Link先を確認
Raoni Louren\c{c}o and Juliana Freire and Dennis Shasha(参考訳) 機械学習タスクは、量的および質的な結論に達するために複雑な計算パイプラインを使用する。 パイプライン内のアクティビティのいくつかが誤ったアウトプットを生成する場合、パイプラインは失敗するか、誤った結果を生み出す可能性がある。 失敗と予期せぬ行動の根本原因を推測することは困難であり、通常は多くの人間の思考を必要とする。 そこで本研究では,失敗の原因を自動的に推測し,失敗の簡潔な説明を導出する手法を提案する。 詳細な実験評価を通じて,我々のアプローチのコスト,精度,リコールを,最先端技術と比較して評価した。 ソースコードと実験データは再現性と拡張のために利用できます。

Machine learning tasks entail the use of complex computational pipelines to reach quantitative and qualitative conclusions. If some of the activities in a pipeline produce erroneous or uninformative outputs, the pipeline may fail or produce incorrect results. Inferring the root cause of failures and unexpected behavior is challenging, usually requiring much human thought, and is both time-consuming and error-prone. We propose a new approach that makes use of iteration and provenance to automatically infer the root causes and derive succinct explanations of failures. Through a detailed experimental evaluation, we assess the cost, precision, and recall of our approach compared to the state of the art. Our source code and experimental data will be available for reproducibility and enhancement.
翻訳日:2023-01-02 01:53:48 公開日:2020-02-11
# IPBoost -- 整数プログラミングによる非凸ブースティング

IPBoost -- Non-Convex Boosting via Integer Programming ( http://arxiv.org/abs/2002.04679v1 )

ライセンス: Link先を確認
Marc E. Pfetsch and Sebastian Pokutta(参考訳) 近年,機械学習問題に対する非凸最適化手法が注目されている。 本稿では,整数型プログラミングによる分類における非凸型ブースティングを考察し,凸型ブースティングアプローチの欠点を回避しつつ,このアプローチの現実的実用性を示す。 現在の最先端技術と同等かそれ以上の成果を報告します。

Recently non-convex optimization approaches for solving machine learning problems have gained significant attention. In this paper we explore non-convex boosting in classification by means of integer programming and demonstrate real-world practicability of the approach while circumventing shortcomings of convex boosting approaches. We report results that are comparable to or better than the current state-of-the-art.
翻訳日:2023-01-02 01:53:36 公開日:2020-02-11
# Manifold Smoothness Lossによる半教師付きグラフ畳み込みネットワークの正規化

Regularizing Semi-supervised Graph Convolutional Networks with a Manifold Smoothness Loss ( http://arxiv.org/abs/2002.07031v1 )

ライセンス: Link先を確認
Qilin Li, Wanquan Liu, Ling Li(参考訳) 既存のグラフ畳み込みネットワークは、近傍集約スキームに焦点を当てている。 半教師付き学習に適用すると、ラベル付きデータの小さなポット上のクロスエントロピー損失でネットワークが訓練されるため、オーバーフィッティングの問題に陥ることが多い。 本稿では,正規化として損失関数に追加できるグラフ構造に関して定義された教師なし多様体の滑らかさ損失を提案する。 提案する損失と反復拡散過程との接続を抽出し,損失の最小化は無限階層による隣り合わせ予測と同値であることを示す。 我々は,多層パーセプトロンおよび既存のグラフネットワークの実験を行い,提案した損失を追加することにより,連続的に性能を向上させることを示す。

Existing graph convolutional networks focus on the neighborhood aggregation scheme. When applied to semi-supervised learning, they often suffer from the overfitting problem as the networks are trained with the cross-entropy loss on a small potion of labeled data. In this paper, we propose an unsupervised manifold smoothness loss defined with respect to the graph structure, which can be added to the loss function as a regularization. We draw connections between the proposed loss with an iterative diffusion process, and show that minimizing the loss is equivalent to aggregate neighbor predictions with infinite layers. We conduct experiments on multi-layer perceptron and existing graph networks, and demonstrate that adding the proposed loss can improve the performance consistently.
翻訳日:2023-01-02 01:47:22 公開日:2020-02-11
# セマンティックニューラルネットワークのアンサンブルを用いた火器検出とセグメンテーション

Firearm Detection and Segmentation Using an Ensemble of Semantic Neural Networks ( http://arxiv.org/abs/2003.00805v1 )

ライセンス: Link先を確認
Alexander Egiazarov, Vasileios Mavroeidis, Fabio Massimo Zennaro, Kamer Vishi(参考訳) 近年、世界中のテロ攻撃が急増している。 このような攻撃は通常、大勢の人が集まる公共の場所で起こり、最も被害を被り、最も注目を集める。 監視カメラは強力なツールであると仮定されているが、人間がビデオ監視を自警的に監視できる能力の制限や、パッシブに動作している単純な理由から、犯罪防止効果は明確ではない。 本稿では,武器の個々の構成要素に関するより小さな問題の組に,武器を検知・配置する問題を分解する,意味的畳み込みニューラルネットワークのアンサンブルに基づく武器検出システムを提案する。 This approach has computational and practical advantages: a set of simpler neural networks dedicated to specific tasks requires less computational resources and can be trained in parallel; the overall output of the system given by the aggregation of the outputs of individual networks can be tuned by a user to trade-off false positives and false negatives; finally, according to ensemble theory, the output of the overall system will be robust and reliable even in the presence of weak individual models. 個々のネットワークとシステム全体の精度を評価することを目的としたシミュレーションシステムの評価を行った。 合成データと実世界のデータの結果は有望であり、このアプローチは単一の深い畳み込みニューラルネットワークに基づくモノリシックなアプローチに比べて有利である可能性が示唆された。

In recent years we have seen an upsurge in terror attacks around the world. Such attacks usually happen in public places with large crowds to cause the most damage possible and get the most attention. Even though surveillance cameras are assumed to be a powerful tool, their effect in preventing crime is far from clear due to either limitation in the ability of humans to vigilantly monitor video surveillance or for the simple reason that they are operating passively. In this paper, we present a weapon detection system based on an ensemble of semantic Convolutional Neural Networks that decomposes the problem of detecting and locating a weapon into a set of smaller problems concerned with the individual component parts of a weapon. This approach has computational and practical advantages: a set of simpler neural networks dedicated to specific tasks requires less computational resources and can be trained in parallel; the overall output of the system given by the aggregation of the outputs of individual networks can be tuned by a user to trade-off false positives and false negatives; finally, according to ensemble theory, the output of the overall system will be robust and reliable even in the presence of weak individual models. We evaluated our system running simulations aimed at assessing the accuracy of individual networks and the whole system. The results on synthetic data and real-world data are promising, and they suggest that our approach may have advantages compared to the monolithic approach based on a single deep convolutional neural network.
翻訳日:2023-01-02 01:46:46 公開日:2020-02-11
# コンピュータビジョンのためのメタラーニングにおけるパラメータチューニングについて

On Parameter Tuning in Meta-learning for Computer Vision ( http://arxiv.org/abs/2003.00837v1 )

ライセンス: Link先を確認
Farid Ghareh Mohammadi, M. Hadi Amini, and Hamid R. Arabnia(参考訳) 学習学習はメタラーニング(MTL)において重要な役割を担い、最適な学習モデルを得る。 本稿では,訓練情報に制限のあるデータセットの未認識カテゴリに対するmage認識について検討する。 この目的を達成するためにゼロショット学習(ZSL)アルゴリズムをデプロイする。 また,パラメータチューニングが意味的オートエンコーダ(SAE)の性能に及ぼす影響についても検討する。 さらに,メタ学習におけるパラメータチューニング問題,特にゼロショット学習に着目する。 組込みパラメータの組み合わせにより,チューニング-SAEの精度が向上した。 パラメータチューニングの利点と欠点とその画像分類への応用についても検討した。

Learning to learn plays a pivotal role in meta-learning (MTL) to obtain an optimal learning model. In this paper, we investigate mage recognition for unseen categories of a given dataset with limited training information. We deploy a zero-shot learning (ZSL) algorithm to achieve this goal. We also explore the effect of parameter tuning on performance of semantic auto-encoder (SAE). We further address the parameter tuning problem for meta-learning, especially focusing on zero-shot learning. By combining different embedded parameters, we improved the accuracy of tuned-SAE. Advantages and disadvantages of parameter tuning and its application in image classification are also explored.
翻訳日:2023-01-02 01:46:26 公開日:2020-02-11
# 文書画像におけるデータ取り込みのための機械学習フレームワーク

A Machine Learning Framework for Data Ingestion in Document Images ( http://arxiv.org/abs/2003.00838v1 )

ライセンス: Link先を確認
Han Fu, Yunyu Bai, Zhuo Li, Jun Shen, Jianling Sun(参考訳) 多くの分野、特に金融業界において、文書画像が構造化されたデータ表現に変換できるシステムに対する大量の需要を育むため、紙文書は情報チャネルとして広く利用されている。 本稿では、ユーザがアップロードした画像を処理し、json形式できめ細かいデータを返す、文書画像におけるデータ取り込みのための機械学習フレームワークを提案する。 モデルアーキテクチャ、設計戦略、既存のソリューションとの区別、開発中に学んだ教訓について詳述する。 ステートストリートでは合成データと実世界データの両方について豊富な実験を行っている。 実験の結果,本手法の有効性と有効性を示した。

Paper documents are widely used as an irreplaceable channel of information in many fields, especially in financial industry, fostering a great amount of demand for systems which can convert document images into structured data representations. In this paper, we present a machine learning framework for data ingestion in document images, which processes the images uploaded by users and return fine-grained data in JSON format. Details of model architectures, design strategies, distinctions with existing solutions and lessons learned during development are elaborated. We conduct abundant experiments on both synthetic and real-world data in State Street. The experimental results indicate the effectiveness and efficiency of our methods.
翻訳日:2023-01-02 01:46:19 公開日:2020-02-11
# 自己注意ネットワークを用いた特徴重要度推定

Feature Importance Estimation with Self-Attention Networks ( http://arxiv.org/abs/2002.04464v1 )

ライセンス: Link先を確認
Bla\v{z} \v{S}krlj, Sa\v{s}o D\v{z}eroski, Nada Lavra\v{c} and Matej Petkovi\v{c}(参考訳) ブラックボックスニューラルネットワークモデルは、産業や科学で広く使われているが、理解と解釈が難しい。 近年,ニューラルネットワークモデルの内部動作に関する洞察を提供するアテンションメカニズムが導入されている。 本稿では、命題(タブラル)データから得られたモデルを説明する手段として、注目に基づくニューラルネットワーク機構を用いて特徴重要度を推定する。 提案した自己注意ネットワーク(SAN)アーキテクチャによって評価された特徴重要度推定は、モデル解釈に広く用いられている確立されたReliefF、Mutual Information、ランダムフォレストに基づく推定と比較される。 実データ集合と合成データ集合のアルゴリズム間における特徴重要度推定のスケールフリー比較を行い,特徴重要度推定の類似性と相違について検討し,sansが他の手法と類似する特徴を同定したことを示す。 SANが特徴的相互作用を識別できることを実証し、いくつかの重要な特徴の相互作用を超えて注目が拡張され、検討された学習タスクに関連するより大きな特徴部分を検出することを示唆した。

Black-box neural network models are widely used in industry and science, yet are hard to understand and interpret. Recently, the attention mechanism was introduced, offering insights into the inner workings of neural language models. This paper explores the use of attention-based neural networks mechanism for estimating feature importance, as means for explaining the models learned from propositional (tabular) data. Feature importance estimates, assessed by the proposed Self-Attention Network (SAN) architecture, are compared with the established ReliefF, Mutual Information and Random Forest-based estimates, which are widely used in practice for model interpretation. For the first time we conduct scale-free comparisons of feature importance estimates across algorithms on ten real and synthetic data sets to study the similarities and differences of the resulting feature importance estimates, showing that SANs identify similar high-ranked features as the other methods. We demonstrate that SANs identify feature interactions which in some cases yield better predictive performance than the baselines, suggesting that attention extends beyond interactions of just a few key features and detects larger feature subsets relevant for the considered learning task.
翻訳日:2023-01-02 01:38:23 公開日:2020-02-11
# マルチエージェント強化学習のための構造化通信学習

Learning Structured Communication for Multi-agent Reinforcement Learning ( http://arxiv.org/abs/2002.04235v1 )

ライセンス: Link先を確認
Junjie Sheng, Xiangfeng Wang, Bo Jin, Junchi Yan, Wenhao Li, Tsung-Hui Chang, Jun Wang, Hongyuan Zha(参考訳) 本稿では,マルチエージェント強化学習(marl)環境下での大規模マルチエージェント通信機構について検討する。 本稿では,MARL文献における通信構造に関する一般的なトポロジの分類を要約する。 そこで我々は,より柔軟で効率的な通信トポロジを用いて,LSC(Learning Structured Communication)と呼ばれる新しいフレームワークを提案する。 本フレームワークにより,アダプティブエージェントのグルーピングは,階層型ルーティングプロトコルと組み合わせた補助タスクによって生成されるエピソード上で,異なる階層構造を形成することができる。 生成したトポロジが与えられたら、階層グラフニューラルネットワークが学習され、グループ間およびグループ間通信間の効果的なメッセージ情報生成と伝搬が可能となる。 既存の通信機構とは対照的に,本手法は階層型通信のための明示的かつ学習可能な設計である。 課題実験により,提案するlscは高い通信効率,スケーラビリティ,グローバル協調能力を有することが示された。

This work explores the large-scale multi-agent communication mechanism under a multi-agent reinforcement learning (MARL) setting. We summarize the general categories of topology for communication structures in MARL literature, which are often manually specified. Then we propose a novel framework termed as Learning Structured Communication (LSC) by using a more flexible and efficient communication topology. Our framework allows for adaptive agent grouping to form different hierarchical formations over episodes, which is generated by an auxiliary task combined with a hierarchical routing protocol. Given each formed topology, a hierarchical graph neural network is learned to enable effective message information generation and propagation among inter- and intra-group communications. In contrast to existing communication mechanisms, our method has an explicit while learnable design for hierarchical communication. Experiments on challenging tasks show the proposed LSC enjoys high communication efficiency, scalability, and global cooperation capability.
翻訳日:2023-01-02 01:29:03 公開日:2020-02-11
# 時系列データの異常/異常検出に関する一検討

A review on outlier/anomaly detection in time series data ( http://arxiv.org/abs/2002.04236v1 )

ライセンス: Link先を確認
Ane Bl\'azquez-Garc\'ia, Angel Conde, Usue Mori, Jose A. Lozano(参考訳) 最近の技術進歩は、データ収集に大きなブレークスルーをもたらし、大量のデータを時間とともに収集し、時系列を生成することを可能にする。 このデータのマイニングは、ここ数年で研究者や実践者にとって重要なタスクとなり、エラーや関心のある出来事を表す異常や異常の検出も行われている。 本研究の目的は,時系列の文脈における異常検出手法の構造化と包括性を提供することである。 この目的のために、外乱検出技術の特徴を特徴づける主な側面に基づいて分類を提示する。

Recent advances in technology have brought major breakthroughs in data collection, enabling a large amount of data to be gathered over time and thus generating time series. Mining this data has become an important task for researchers and practitioners in the past few years, including the detection of outliers or anomalies that may represent errors or events of interest. This review aims to provide a structured and comprehensive state-of-the-art on outlier detection techniques in the context of time series. To this end, a taxonomy is presented based on the main aspects that characterize an outlier detection technique.
翻訳日:2023-01-02 01:28:49 公開日:2020-02-11
# 自動機能工学によるリフティング解釈可能性-パフォーマンストレードオフ

Lifting Interpretability-Performance Trade-off via Automated Feature Engineering ( http://arxiv.org/abs/2002.04267v1 )

ライセンス: Link先を確認
Alicja Gosiewska and Przemyslaw Biecek(参考訳) 複雑なブラックボックス予測モデルは高い性能を持つが、解釈可能性の欠如は信頼の欠如、安定性の欠如、概念ドリフトに対する感受性といった問題を引き起こす。 一方、解釈可能なモデルの良好な精度を達成するには、特徴工学に関連するより時間を要する。 タイムレスな機能エンジニアリングなしで、解釈可能で正確なモデルをトレーニングできますか? 本稿では, 弾性ブラックボックスを代理モデルとして用いて, よりシンプルで不透明で, 正確かつ解釈可能なガラスボックスモデルを作成する方法を提案する。 新しいモデルは、代理モデルの助けを借りて抽出された新しいエンジニアリングされた特徴に基づいて作成される。 OpenMLデータベースから複数の表形式のデータセットに対して,大規模ベンチマークによる解析を行う。 2つの結果があります 1) 複素モデルからの情報抽出は線形モデルの性能を向上させる可能性がある。 2) 複雑な機械学習モデルが線形モデルを上回るという一般的な神話に疑問を呈する。

Complex black-box predictive models may have high performance, but lack of interpretability causes problems like lack of trust, lack of stability, sensitivity to concept drift. On the other hand, achieving satisfactory accuracy of interpretable models require more time-consuming work related to feature engineering. Can we train interpretable and accurate models, without timeless feature engineering? We propose a method that uses elastic black-boxes as surrogate models to create a simpler, less opaque, yet still accurate and interpretable glass-box models. New models are created on newly engineered features extracted with the help of a surrogate model. We supply the analysis by a large-scale benchmark on several tabular data sets from the OpenML database. There are two results 1) extracting information from complex models may improve the performance of linear models, 2) questioning a common myth that complex machine learning models outperform linear models.
翻訳日:2023-01-02 01:28:40 公開日:2020-02-11
# Plackett-Luceモデルに基づく文脈情報を用いたオンライン事前選択

Online Preselection with Context Information under the Plackett-Luce Model ( http://arxiv.org/abs/2002.04275v1 )

ライセンス: Link先を確認
Adil El Mesaoudi-Paul, Viktor Bengs, Eyke H\"ullermeier(参考訳) 本稿では,一つの代替品(アーム)を選択する代わりに,学習者が代替品のサブセットとして事前選択を行うことを前提とした,コンテキスト的マルチアームバンディット問題の拡張について考察する。 より具体的には、各イテレーションで学習者は、特徴ベクトルの観点で記述された、一連のアームとコンテキストが提示される。 学習者のタスクは、これらのアームの1ドルを事前に選択することであり、最終選択は2番目のステップで行われる。 我々の設定では、各アームには潜在(コンテキスト依存)ユーティリティがあり、プリセレクションに対するフィードバックはPlanet-Luceモデルに従って生成されると仮定する。 本稿では、よく知られたUPBアルゴリズムにインスパイアされたCPPLアルゴリズムを提案し、このアルゴリズムを合成データと実データに基づいて評価する。 特に,問題設定の主な動機となったオンラインアルゴリズム選択シナリオについて考察する。 ここでは、ある問題クラス(SATなど)のインスタンス(コンテキストを定義する)は異なるアルゴリズム(アーム)で解決できるが、実際に実行されるのはこれらのアルゴリズムのわずか$k$のみである。

We consider an extension of the contextual multi-armed bandit problem, in which, instead of selecting a single alternative (arm), a learner is supposed to make a preselection in the form of a subset of alternatives. More specifically, in each iteration, the learner is presented a set of arms and a context, both described in terms of feature vectors. The task of the learner is to preselect $k$ of these arms, among which a final choice is made in a second step. In our setup, we assume that each arm has a latent (context-dependent) utility, and that feedback on a preselection is produced according to a Plackett-Luce model. We propose the CPPL algorithm, which is inspired by the well-known UCB algorithm, and evaluate this algorithm on synthetic and real data. In particular, we consider an online algorithm selection scenario, which served as a main motivation of our problem setting. Here, an instance (which defines the context) from a certain problem class (such as SAT) can be solved by different algorithms (the arms), but only $k$ of these algorithms can actually be run.
翻訳日:2023-01-02 01:28:06 公開日:2020-02-11
# ニューラルルールアンサンブル:スパース特徴相互作用をニューラルネットワークにエンコードする

Neural Rule Ensembles: Encoding Sparse Feature Interactions into Neural Networks ( http://arxiv.org/abs/2002.04319v1 )

ライセンス: Link先を確認
Gitesh Dawer, Yangzi Guo, Sida Liu, Adrian Barbu(参考訳) 人工ニューラルネットワークは、非常に強力な学習方法の基礎を形成する。 完全に接続されたニューラルネットワークを多くの無関係な変数を持つデータに適用することは、しばしば過度に適合する。 この問題を回避するために、どの機能とそれらの機能相互作用が関係しているかに関する事前知識をこれらのネットワークにエンコードすることができる。 本研究では,決定木を用いてそれらの特徴とその相互作用を捉え,抽出された関係をニューラルネットワークにエンコードするマッピングを定義する。 これは、完全接続されたニューラルネットワークの初期化に関連する懸念に対処する。 同時に、機能選択を通じて、アートツリーベースのアプローチと比較して、コンパクト表現の学習を可能にする。 経験的評価とシミュレーションにより、完全連結ニューラルネットワークと木ベースアプローチよりも優れていることが示されている。

Artificial Neural Networks form the basis of very powerful learning methods. It has been observed that a naive application of fully connected neural networks to data with many irrelevant variables often leads to overfitting. In an attempt to circumvent this issue, a prior knowledge pertaining to what features are relevant and their possible feature interactions can be encoded into these networks. In this work, we use decision trees to capture such relevant features and their interactions and define a mapping to encode extracted relationships into a neural network. This addresses the initialization related concern of fully connected neural networks. At the same time through feature selection it enables learning of compact representations compared to state of the art tree-based approaches. Empirical evaluations and simulation studies show the superiority of such an approach over fully connected neural networks and tree-based approaches
翻訳日:2023-01-02 01:27:31 公開日:2020-02-11
# ニューラルネットワークを用いた学習特徴相互作用の局所最適化に関する研究

A study of local optima for learning feature interactions using neural networks ( http://arxiv.org/abs/2002.04322v1 )

ライセンス: Link先を確認
Yangzi Guo, Adrian Barbu(参考訳) バイオインフォマティクス、高エネルギー物理学、電力分布など多くの分野において、少数の変数が選択され、それらの相互作用が明示的にモデル化されて応答を予測する非線形モデルを学ぶことが望ましい。 原則として、ニューラルネットワーク(NN)は非線形特徴相互作用をモデル化できるので、このタスクを達成することができる。 しかし、NNは優れた一般化を得るために大量のトレーニングデータを必要とする。 本稿では,NNが比較的少量のトレーニングデータに基づいて訓練されるデータスターベッド方式について検討する。 この目的のために,線形モデルの一般化を改良したnnsの特徴選択について検討する。 特徴選択と特徴相互作用を伴う極端なデータの場合、XORのようなデータを無関係変数で調べる。 XOR-likeデータ上のクロスエントロピー損失関数は多くの非等価な局所最適値を持ち、非関連変数の数とともに局所最適値の数が指数関数的に増加することを実験的に観察した。 ローカルなミニマと特徴選択に対処するため,無関係な変数であってもNNがより優れたローカルなミニマを見つける能力を向上させるノードプルーニングと特徴選択アルゴリズムを提案する。 最後に,実データセット上でのnnの性能をpruningを用いて向上させ,少数の機能でコンパクトネットワークを得ることができ,予測と解釈性が良好であることを示す。

In many fields such as bioinformatics, high energy physics, power distribution, etc., it is desirable to learn non-linear models where a small number of variables are selected and the interaction between them is explicitly modeled to predict the response. In principle, neural networks (NNs) could accomplish this task since they can model non-linear feature interactions very well. However, NNs require large amounts of training data to have a good generalization. In this paper we study the datastarved regime where a NN is trained on a relatively small amount of training data. For that purpose we study feature selection for NNs, which is known to improve generalization for linear models. As an extreme case of data with feature selection and feature interactions we study the XOR-like data with irrelevant variables. We experimentally observed that the cross-entropy loss function on XOR-like data has many non-equivalent local optima, and the number of local optima grows exponentially with the number of irrelevant variables. To deal with the local minima and for feature selection we propose a node pruning and feature selection algorithm that improves the capability of NNs to find better local minima even when there are irrelevant variables. Finally, we show that the performance of a NN on real datasets can be improved using pruning, obtaining compact networks on a small number of features, with good prediction and interpretability.
翻訳日:2023-01-02 01:27:19 公開日:2020-02-11
# グラフ畳み込みガウス過程によるリンク予測

Graph Convolutional Gaussian Processes For Link Prediction ( http://arxiv.org/abs/2002.04337v1 )

ライセンス: Link先を確認
Felix L. Opolka, Pietro Li\`o(参考訳) リンク予測は、グラフの欠落したエッジを明らかにすることを目的としている。 我々は、単純グラフ畳み込みを用いて変換されるガウス過程を用いてこの問題に対処し、ドメインの帰納的バイアスをよりよく活用する。 ガウス過程モデルを大規模グラフに拡張するために,疑似入力をグラフ構造領域に配置する変分帰納点法を提案する。 我々は,何千ものノードを持つ8つの大規模グラフ上でモデルを評価し,既存のガウスプロセスモデルに対する一貫性と最先端のグラフニューラルネットワークアプローチとの競合性能を報告した。

Link prediction aims to reveal missing edges in a graph. We address this task with a Gaussian process that is transformed using simplified graph convolutions to better leverage the inductive bias of the domain. To scale the Gaussian process model to large graphs, we introduce a variational inducing point method that places pseudo inputs on a graph-structured domain. We evaluate our model on eight large graphs with up to thousands of nodes and report consistent improvements over existing Gaussian process models as well as competitive performance when compared to state-of-the-art graph neural network approaches.
翻訳日:2023-01-02 01:26:57 公開日:2020-02-11
# インクリメンタル高速サブクラス判別分析

Incremental Fast Subclass Discriminant Analysis ( http://arxiv.org/abs/2002.04348v1 )

ライセンス: Link先を確認
Kateryna Chumachenko, Jenni Raitoharju, Moncef Gabbouj, Alexandros Iosifidis(参考訳) 本稿では,Fast Subclass Discriminant Analysis (fastSDA) の段階的解を提案する。 我々は、近似カーネル化された変種とともに、正確で近似線形解を示す。 増分バッチサイズが異なる8つの画像データセットに対する大規模な実験は、トレーニング時間と精度がfastSDAソリューションに等しいか近いか、その他の方法よりも優れていることを示す。

This paper proposes an incremental solution to Fast Subclass Discriminant Analysis (fastSDA). We present an exact and an approximate linear solution, along with an approximate kernelized variant. Extensive experiments on eight image datasets with different incremental batch sizes show the superiority of the proposed approach in terms of training time and accuracy being equal or close to fastSDA solution and outperforming other methods.
翻訳日:2023-01-02 01:26:46 公開日:2020-02-11
# 畳み込み支持ベクターマシン

Convolutional Support Vector Machine ( http://arxiv.org/abs/2002.07221v1 )

ライセンス: Link先を確認
Wei-Chang Yeh(参考訳) サポートベクターマシン(SVM)とディープラーニング(例えば、畳み込みニューラルネットワーク(CNN))は、それぞれ小型データとビッグデータにおける2つの最も有名なアルゴリズムである。 それでも、小さなデータセットは非常に重要で、コストがかかり、短時間で取得するのは容易ではない。 本稿では、より小さなデータセットをマイニングする精度と効率を改善するために、CNNとSVMの両方の利点を持つ新しい畳み込みSVM(CSVM)を提案する。 提案したCSVMは、CNNの畳み込み製品に適応して、データセットに深く隠された新しい情報を学ぶ。 さらに、SSO(Swarm Optimization)を改良してCSVMをトレーニングして分類器を更新し、SSOの適合度として従来のSVMを実装して精度を推定する。 CSVMの性能を評価するため,分類問題に対する5つのよく知られたベンチマークデータベースの実験を行った。 数値実験は,SVM,3層人工NN(ANN),4層ANNを用いて行ったものと比較した。 これらの実験の結果,提案するcsvmの分類精度が効果的に向上することを確認した。

The support vector machine (SVM) and deep learning (e.g., convolutional neural networks (CNNs)) are the two most famous algorithms in small and big data, respectively. Nonetheless, smaller datasets may be very important, costly, and not easy to obtain in a short time. This paper proposes a novel convolutional SVM (CSVM) that has both advantages of CNN and SVM to improve the accuracy and effectiveness of mining smaller datasets. The proposed CSVM adapts the convolution product from CNN to learn new information hidden deeply in the datasets. In addition, it uses a modified simplified swarm optimization (SSO) to help train the CSVM to update classifiers, and then the traditional SVM is implemented as the fitness for the SSO to estimate the accuracy. To evaluate the performance of the proposed CSVM, experiments were conducted to test five well-known benchmark databases for the classification problem. Numerical experiments compared favorably with those obtained using SVM, 3-layer artificial NN (ANN), and 4-layer ANN. The results of these experiments verify that the proposed CSVM with the proposed SSO can effectively increase classification accuracy.
翻訳日:2023-01-02 01:20:33 公開日:2020-02-11
# 実世界画像認識のためのaiオンラインフィルタ

AI Online Filters to Real World Image Recognition ( http://arxiv.org/abs/2002.08242v1 )

ライセンス: Link先を確認
Hai Xiao, Jin Shang and Mengyuan Huang(参考訳) ラベル付きデータセットでトレーニングされたディープニューラルネットワークは、現在多くのビジョンやロボティクスアプリケーションで広く使われている。 AIの観点では、これらは反射モデルと呼ばれ、自己進化や環境の変化に積極的に適応しないという事実に言及している。 インテリジェントロボット制御の需要が多くのハイレベルなタスクに拡大するにつれて、強化学習と状態ベースモデルがますます重要な役割を果たす。 本稿では,コンピュータビジョンとロボット工学の領域において,画像認識反射モデルに強化制御を加えることで,全体的な性能の向上,特にタスク反射モデルが期待する以上の広い環境範囲に到達させる手法について検討する。 環境センシングとaiに基づく自己適応エージェントのモデリングと共通のインフラストラクチャに従うことで、複数のタイプのai制御エージェントを実装する。 最後に,これらのエージェントをベースラインで比較した結果と,実世界の画像認識性能を向上する上でのメリットの洞察に富んだ分析を行った。

Deep artificial neural networks, trained with labeled data sets are widely used in numerous vision and robotics applications today. In terms of AI, these are called reflex models, referring to the fact that they do not self-evolve or actively adapt to environmental changes. As demand for intelligent robot control expands to many high level tasks, reinforcement learning and state based models play an increasingly important role. Herein, in computer vision and robotics domain, we study a novel approach to add reinforcement controls onto the image recognition reflex models to attain better overall performance, specifically to a wider environment range beyond what is expected of the task reflex models. Follow a common infrastructure with environment sensing and AI based modeling of self-adaptive agents, we implement multiple types of AI control agents. To the end, we provide comparative results of these agents with baseline, and an insightful analysis of their benefit to improve overall image recognition performance in real world.
翻訳日:2023-01-02 01:19:54 公開日:2020-02-11
# GANの平滑性と安定性

Smoothness and Stability in GANs ( http://arxiv.org/abs/2002.04185v1 )

ライセンス: Link先を確認
Casey Chu, Kentaro Minami, Kenji Fukumizu(参考訳) gan(generative adversarial network)は、訓練中に不安定な行動を示す。 本研究では,様々な種類のGANの安定性を理解するための理論的枠組みを開発する。 特に,GANとジェネレータのアーキテクチャによって最小化される分散によって満たされなければならない条件を,勾配降下で訓練された場合,ジェネレータの最終的な定常性を保証する条件を導出する。 既存の GAN 変種はこれらの条件のいくつかを満たすが、全てではない。 コンベックス解析,最適輸送,カーネル再生などのツールを用いて,これらの条件を同時に満たすGANを構築する。 このプロセスでは,リプシッツ制約,勾配ペナルティ,スムーズなアクティベーション機能など,既存のGAN安定化技術の必要性を説明・明らかにする。

Generative adversarial networks, or GANs, commonly display unstable behavior during training. In this work, we develop a principled theoretical framework for understanding the stability of various types of GANs. In particular, we derive conditions that guarantee eventual stationarity of the generator when it is trained with gradient descent, conditions that must be satisfied by the divergence that is minimized by the GAN and the generator's architecture. We find that existing GAN variants satisfy some, but not all, of these conditions. Using tools from convex analysis, optimal transport, and reproducing kernels, we construct a GAN that fulfills these conditions simultaneously. In the process, we explain and clarify the need for various existing GAN stabilization techniques, including Lipschitz constraints, gradient penalties, and smooth activation functions.
翻訳日:2023-01-02 01:19:10 公開日:2020-02-11
# infinity learning:集合定常観測によるマルコフ連鎖の学習

Infinity Learning: Learning Markov Chains from Aggregate Steady-State Observations ( http://arxiv.org/abs/2002.04186v1 )

ライセンス: Link先を確認
Jianfei Gao, Mohamed A. Zahran, Amit Sheoran, Sonia Fahmy, Bruno Ribeiro(参考訳) 我々は,連続時間マルコフ連鎖(ctmc)系列モデルについて,シーケンスの例を使わずに学習するタスクについて検討する。 問題を困難にするため、予測したい状態がトレーニングデータに記録されていないと仮定する。 具体的には、CTMCの遷移速度といくつかの既知の遷移速度に関するパラメトリックモデルを考えると、その定常状態分布を観測されていない状態に外挿したい。 CTMCを定常状態から学習する技術的な障害は、勾配を計算するチェーンルールが、定常状態に到達するために必要な任意の長いシーケンスで機能しないことである。 この最適化課題を克服するために,CTMC状態のサブセットしか観測できない場合でも学習しながら,ランダムにストップした推定器を用いて,定常状態の計算に必要な無限の和を回避し,確率勾配降下法である$\infty$-SGDを提案する。 実世界のテストベッドと合成実験に$\infty$-sgdを適用し、その正確性、観測されていない条件下での定常分布を外挿する能力(重負荷、光負荷下でのトレーニング)、そして既存のメソッドのテーラーメイド拡張さえ失敗する難しいシナリオを成功させた。

We consider the task of learning a parametric Continuous Time Markov Chain (CTMC) sequence model without examples of sequences, where the training data consists entirely of aggregate steady-state statistics. Making the problem harder, we assume that the states we wish to predict are unobserved in the training data. Specifically, given a parametric model over the transition rates of a CTMC and some known transition rates, we wish to extrapolate its steady state distribution to states that are unobserved. A technical roadblock to learn a CTMC from its steady state has been that the chain rule to compute gradients will not work over the arbitrarily long sequences necessary to reach steady state ---from where the aggregate statistics are sampled. To overcome this optimization challenge, we propose $\infty$-SGD, a principled stochastic gradient descent method that uses randomly-stopped estimators to avoid infinite sums required by the steady state computation, while learning even when only a subset of the CTMC states can be observed. We apply $\infty$-SGD to a real-world testbed and synthetic experiments showcasing its accuracy, ability to extrapolate the steady state distribution to unobserved states under unobserved conditions (heavy loads, when training under light loads), and succeeding in difficult scenarios where even a tailor-made extension of existing methods fails.
翻訳日:2023-01-02 01:18:56 公開日:2020-02-11
# エントロピー最適特徴を持つスパース核近似の一般化保証

Generalization Guarantees for Sparse Kernel Approximation with Entropic Optimal Features ( http://arxiv.org/abs/2002.04195v1 )

ライセンス: Link先を確認
Liang Ding, Rui Tuo, Shahin Shahrampour(参考訳) その成功にもかかわらず、カーネルメソッドは実際には膨大な計算コストに苦しむ。 本稿では,n$入力に対するカーネル拡張に代えて,カーネル特性間のエントロピーを最大化する新しい最適設計法を提案する。 この処理により、エントロピー最適特徴(EOF)に対するカーネル拡張が実現し、特徴の相違によりデータ表現が劇的に向上する。 穏やかな技術的仮定の下で、我々の一般化境界は、$O(N^{\frac{1}{4}})$特徴(対数的因子を無視する)で最適統計精度(すなわち$O(1/\sqrt{N})$)を達成できることを示している。 われわれのデザインの健全な特徴は、時間と空間コストを大幅に削減する空間性である。 ベンチマークデータセットにおける数値実験により,eofがカーネル近似の最先端よりも優れていることを検証した。

Despite their success, kernel methods suffer from a massive computational cost in practice. In this paper, in lieu of commonly used kernel expansion with respect to $N$ inputs, we develop a novel optimal design maximizing the entropy among kernel features. This procedure results in a kernel expansion with respect to entropic optimal features (EOF), improving the data representation dramatically due to features dissimilarity. Under mild technical assumptions, our generalization bound shows that with only $O(N^{\frac{1}{4}})$ features (disregarding logarithmic factors), we can achieve the optimal statistical accuracy (i.e., $O(1/\sqrt{N})$). The salient feature of our design is its sparsity that significantly reduces the time and space cost. Our numerical experiments on benchmark datasets verify the superiority of EOF over the state-of-the-art in kernel approximation.
翻訳日:2023-01-02 01:18:10 公開日:2020-02-11
# 一般リプシッツ正規化は分布ロバスト性に等しい

Generalised Lipschitz Regularisation Equals Distributional Robustness ( http://arxiv.org/abs/2002.04197v1 )

ライセンス: Link先を確認
Zac Cranko, Zhan Shi, Xinhua Zhang, Richard Nock, Simon Kornblith(参考訳) 逆の例の問題は、普遍近似子のようなエキゾチックな関数クラスに適用できるほど一般的である正規化の理論の必要性を強調している。 これに対し,輸送コストの不確実性セットで定義された分布的ロバスト性と正規化の関係について,非常に一般的な等式結果を与える。 この理論により、非常に穏やかな仮定でリプシッツ正規化モデルのロバスト性が(丁寧に)証明できる。 理論的応用として,敵対学習と分布ロバスト性の関係を解明する新たな結果を示す。 次に、実験により実証されたカーネル分類器のリプシッツ正則化を実現するための新しい結果を与える。

The problem of adversarial examples has highlighted the need for a theory of regularisation that is general enough to apply to exotic function classes, such as universal approximators. In response, we give a very general equality result regarding the relationship between distributional robustness and regularisation, as defined with a transportation cost uncertainty set. The theory allows us to (tightly) certify the robustness properties of a Lipschitz-regularised model with very mild assumptions. As a theoretical application we show a new result explicating the connection between adversarial learning and distributional robustness. We then give new results for how to achieve Lipschitz regularisation of kernel classifiers, which are demonstrated experimentally.
翻訳日:2023-01-02 01:17:53 公開日:2020-02-11
# ニューラルネットワークにおけるきめ細かい不確かさモデリング

Fine-grained Uncertainty Modeling in Neural Networks ( http://arxiv.org/abs/2002.04205v1 )

ライセンス: Link先を確認
Rahul Soni, Naresh Shah, Jimmy D. Moore(参考訳) 既存の不確実性モデリングアプローチは、分布内データセットから分布外点を検出する。 この議論を拡張して、より細かい不確実性を検出します。 (a) 特定の点 (b) 不確実な点ですが データの分布内で (c)。 Out-of-distriion ポイント。 提案手法は, 信頼度の高いnn決定を正し, 外れ点を検出し, 上位2つの予測間の臨界点について不確定な場合には, 「私は知らない」と言うように学習する。 さらに、決定多様体の重複するクラス分布を定量化し、モデル解釈可能性におけるその意味を解明するメカニズムを提供する。 最初のステップで,提案手法はネットワークから抽出したカーネル活性化ベクトル(kav)を用いてクラス分布を構築する。 2番目のステップでは、二乗マハラノビス距離のチ二乗分布に基づいて、アルゴリズムは階層的な決定規則によりテストポイントの信頼度を決定する。 本手法は所定のニューラルネットワーク上にあり,クラス分布統計を推定するためにトレーニングデータの単一のスキャンが必要であり,ディープネットワークやより広いプレソフトマックス層に対して高度にスケーラブルである。 副作用として,本手法は追加訓練を必要とせず,敵攻撃を防ぐのに有効である。 ソフトマックス層が評価段階でロバストな不確実性層に置き換えられると直接達成される。

Existing uncertainty modeling approaches try to detect an out-of-distribution point from the in-distribution dataset. We extend this argument to detect finer-grained uncertainty that distinguishes between (a). certain points, (b). uncertain points but within the data distribution, and (c). out-of-distribution points. Our method corrects overconfident NN decisions, detects outlier points and learns to say ``I don't know'' when uncertain about a critical point between the top two predictions. In addition, we provide a mechanism to quantify class distributions overlap in the decision manifold and investigate its implications in model interpretability. Our method is two-step: in the first step, the proposed method builds a class distribution using Kernel Activation Vectors (kav) extracted from the Network. In the second step, the algorithm determines the confidence of a test point by a hierarchical decision rule based on the chi-squared distribution of squared Mahalanobis distances. Our method sits on top of a given Neural Network, requires a single scan of training data to estimate class distribution statistics, and is highly scalable to deep networks and wider pre-softmax layer. As a positive side effect, our method helps to prevent adversarial attacks without requiring any additional training. It is directly achieved when the Softmax layer is substituted by our robust uncertainty layer at the evaluation phase.
翻訳日:2023-01-02 01:10:35 公開日:2020-02-11
# edxrfスペクトルのマルチターゲット積層一般化による土壌特性予測の改善

Improved prediction of soil properties with Multi-target Stacked Generalisation on EDXRF spectra ( http://arxiv.org/abs/2002.04312v1 )

ライセンス: Link先を確認
Everton Jose Santana and Felipe Rodrigues dos Santos and Saulo Martiello Mastelini and Fabio Luiz Melquiades and Sylvio Barbon Jr(参考訳) 機械学習(ML)アルゴリズムは、土壌品質パラメータと非破壊的手法の評価に使用されている。 分光分析法の中では、エネルギー分散X線蛍光(EDXRF)は従来の方法よりも速く、環境に優しく、安価である。 しかしながら、edxrfスペクトルデータ解析におけるいくつかの課題は、正確な結果を提供するためのより効率的な方法を必要とする。 MTR(Multi-target Regression)手法を用いることで,複数のパラメータの予測が可能となり,相関パラメータの活用により全体的な予測性能が向上する。 本研究では,Multi-target Stacked Generalisation (MTSG)を提案する。 MTSG法と5 MTR法を比較し,土壌の肥育度を10パラメータ予測した。 ランダムフォレストとサポートベクトルマシン(リニアカーネルとラジアルカーネル)は、各MSRメソッドに組み込まれた学習アルゴリズムとして使用された。 その結果、MTR法は従来のML法よりも優れていることが示され、5つのパラメータの予測誤差が低減された。 特に、MTSGはリン、全有機炭素、カチオン交換能の最低誤差を得た。 放射状カーネルを用いた支持ベクターマシンの相対性能を観測すると,ベース飽和率の予測が19%向上した。 最後に,提案手法は平均誤差を0.67 (シングルターゲット) から 0.64 に削減し,グローバル改善率4.48%を示した。

Machine Learning (ML) algorithms have been used for assessing soil quality parameters along with non-destructive methodologies. Among spectroscopic analytical methodologies, energy dispersive X-ray fluorescence (EDXRF) is one of the more quick, environmentally friendly and less expensive when compared to conventional methods. However, some challenges in EDXRF spectral data analysis still demand more efficient methods capable of providing accurate outcomes. Using Multi-target Regression (MTR) methods, multiple parameters can be predicted, and also taking advantage of inter-correlated parameters the overall predictive performance can be improved. In this study, we proposed the Multi-target Stacked Generalisation (MTSG), a novel MTR method relying on learning from different regressors arranged in stacking structure for a boosted outcome. We compared MTSG and 5 MTR methods for predicting 10 parameters of soil fertility. Random Forest and Support Vector Machine (with linear and radial kernels) were used as learning algorithms embedded into each MTR method. Results showed the superiority of MTR methods over the Single-target Regression (the traditional ML method), reducing the predictive error for 5 parameters. Particularly, MTSG obtained the lowest error for phosphorus, total organic carbon and cation exchange capacity. When observing the relative performance of Support Vector Machine with a radial kernel, the prediction of base saturation percentage was improved in 19%. Finally, the proposed method was able to reduce the average error from 0.67 (single-target) to 0.64 analysing all targets, representing a global improvement of 4.48%.
翻訳日:2023-01-02 01:10:00 公開日:2020-02-11
# 故障データの分類問題に対する非侵入的補正アルゴリズム

A Non-Intrusive Correction Algorithm for Classification Problems with Corrupted Data ( http://arxiv.org/abs/2002.04658v1 )

ライセンス: Link先を確認
Jun Hou, Tong Qin, Kailiang Wu, Dongbin Xiu(参考訳) 劣化したトレーニングデータを含む多クラス分類問題に対して,新しい補正アルゴリズムを提案する。 このアルゴリズムは、モデル予測に補正手順を追加することによって、訓練された分類モデルを後処理するという意味で、非インタラクティブである。 補正手順は、ロジスティック回帰、さまざまなアーキテクチャのニューラルネットワークなど、任意の近似子と結合することができる。 トレーニングデータセットが十分に大きい場合、修正されたモデルがトレーニングデータに破損がないかのように正しい分類結果を提供することを示す。 有限サイズのデータセットの場合、補正されたモデルは、補正アルゴリズムのないモデルと比較して、かなり良い回復結果が得られる。 本論文のすべての理論的結果は, 数値的な例によって検証されている。

A novel correction algorithm is proposed for multi-class classification problems with corrupted training data. The algorithm is non-intrusive, in the sense that it post-processes a trained classification model by adding a correction procedure to the model prediction. The correction procedure can be coupled with any approximators, such as logistic regression, neural networks of various architectures, etc. When training dataset is sufficiently large, we prove that the corrected models deliver correct classification results as if there is no corruption in the training data. For datasets of finite size, the corrected models produce significantly better recovery results, compared to the models without the correction algorithm. All of the theoretical findings in the paper are verified by our numerical examples.
翻訳日:2023-01-02 01:09:16 公開日:2020-02-11
# CoDeepNEATとKerasを用いたニューラルネットワークアーキテクチャの神経進化

Neuroevolution of Neural Network Architectures Using CoDeepNEAT and Keras ( http://arxiv.org/abs/2002.04634v1 )

ライセンス: Link先を確認
Jonas da Silveira Bohrer, Bruno Iochins Grisci and Marcio Dorn(参考訳) 機械学習はコンピュータサイエンスや統計学において、明示的な指示を必要とせず、代わりにデータサンプルから学習パターンを頼りに推論を自動化するアルゴリズムを通して計算タスクを実行するための大きな研究分野である。 機械学習プロジェクトに関わる作業の大部分は、与えられた問題を解決するのに最適なタイプのアルゴリズムを定義することである。 ニューラルネットワーク(特にディープニューラルネットワーク)は、この分野における主要なソリューションである。 しかし、ネットワーク自体は、アーキテクチャ上の選択によって、まったく異なる結果を生み出すことができます。 与えられた問題の最適なネットワークトポロジーと構成を見つけることは、考慮すべき多くのパラメータのためにドメインの知識とテストの労力を必要とする課題である。 本研究の目的は、トポロジーとハイパーパラメータ選択のタスクを自動化する神経進化分野から確立された進化技法を適応的に実装することである。 一般的な機械学習フレームワークであるKerasをバックエンドとして使用し、結果と元のアルゴリズムに関する提案された変更を提示する。 この実装はgithub(https://github.com/sbcblab/keras-codeepneat)で利用可能である。

Machine learning is a huge field of study in computer science and statistics dedicated to the execution of computational tasks through algorithms that do not require explicit instructions but instead rely on learning patterns from data samples to automate inferences. A large portion of the work involved in a machine learning project is to define the best type of algorithm to solve a given problem. Neural networks - especially deep neural networks - are the predominant type of solution in the field. However, the networks themselves can produce very different results according to the architectural choices made for them. Finding the optimal network topology and configurations for a given problem is a challenge that requires domain knowledge and testing efforts due to a large number of parameters that need to be considered. The purpose of this work is to propose an adapted implementation of a well-established evolutionary technique from the neuroevolution field that manages to automate the tasks of topology and hyperparameter selection. It uses a popular and accessible machine learning framework - Keras - as the back-end, presenting results and proposed changes concerning the original algorithm. The implementation is available at GitHub (https://github.com/sbcblab/Keras-CoDeepNEAT) with documentation and examples to reproduce the experiments performed for this work.
翻訳日:2023-01-02 01:01:37 公開日:2020-02-11
# Mask & Focus:学習概念による会話モデリング

Mask & Focus: Conversation Modelling by Learning Concepts ( http://arxiv.org/abs/2003.04976v1 )

ライセンス: Link先を確認
Gaurav Pandey, Dinesh Raghu and Sachindra Joshi(参考訳) シーケンスモデルへのシーケンスは、入力シーケンスと出力シーケンスのすべての単語間の相関を捉えようとする。 これは、単語間の相関が実際に非常に強い機械翻訳において非常に有用であるが、その相関がより抽象的なレベルであるような会話モデリングでは問題となる。 対照的に、人間は会話の文脈で議論される基本的な概念に集中し、それに応じて反応を生成する傾向にある。 本稿では,この応答生成機構を,文脈と応答の基本的な概念を教師なしで学習することによって模倣しようとする。 提案したモデルはMask \& Focusと呼ばれ、入力コンテキストを一連の概念にマッピングし、応答の概念を生成する。 コンテキストと応答の概念を合わせて、最終的な応答を生成する。 学習データから文脈概念を自動学習するために,入力中の単語「emph{mask}」を入力し,マスキングが応答生成に与える影響を観察する。 我々は,文脈概念に関して高い相互情報を持つ応答概念を学習するためにモデルを訓練し,文脈概念に基づいてemph{focus}にモデルを誘導する。 Mask \& Focusは、対話のためのいくつかの確立されたメトリクスにおいて、既存のベースラインよりも大幅に改善されている。

Sequence to sequence models attempt to capture the correlation between all the words in the input and output sequences. While this is quite useful for machine translation where the correlation among the words is indeed quite strong, it becomes problematic for conversation modelling where the correlation is often at a much abstract level. In contrast, humans tend to focus on the essential concepts discussed in the conversation context and generate responses accordingly. In this paper, we attempt to mimic this response generating mechanism by learning the essential concepts in the context and response in an unsupervised manner. The proposed model, referred to as Mask \& Focus maps the input context to a sequence of concepts which are then used to generate the response concepts. Together, the context and the response concepts generate the final response. In order to learn context concepts from the training data automatically, we \emph{mask} words in the input and observe the effect of masking on response generation. We train our model to learn those response concepts that have high mutual information with respect to the context concepts, thereby guiding the model to \emph{focus} on the context concepts. Mask \& Focus achieves significant improvement over the existing baselines in several established metrics for dialogues.
翻訳日:2023-01-02 01:01:17 公開日:2020-02-11
# 3言語音声からパーキンソン病を分類するための畳み込みニューラルネットワークと伝達学習戦略

Convolutional Neural Networks and a Transfer Learning Strategy to Classify Parkinson's Disease from Speech in Three Different Languages ( http://arxiv.org/abs/2002.04374v1 )

ライセンス: Link先を確認
J. C. V\'asquez-Correa, T. Arias-Vergara, C. D. Rios-Urrego, M. Schuster, J. Rusz, J. R. Orozco-Arroyave, E. N\"oth(参考訳) パーキンソン病患者は、コミュニケーション能力に影響する異なる言語障害を発症する。 患者の音声の自動評価により、コンピュータ支援ツールの開発により、疾患重症度の診断と評価を支援することができる。 本稿では,パーキンソン病を3つの言語(スペイン語,ドイツ語,チェコ語)で分類する手法を提案する。 提案手法では,3言語間の時間周波数表現と伝達学習戦略を訓練した畳み込みニューラルネットワークを検討する。 転送学習方式は、ニューラルネットワークの重みがテストセットで使用されるものとは異なる言語からの発話で初期化されると、モデルの精度を向上させることを目的としている。 提案手法は,分類器の重み付け初期化に使用するベースモデルが十分に頑健である場合に,最大8倍の精度でモデルの精度を向上させることを示唆している。 また, 転帰学習後に得られた結果は, 転校学習戦略を使わずに訓練した者よりも, 具体性に敏感な場合が多い。

Parkinson's disease patients develop different speech impairments that affect their communication capabilities. The automatic assessment of the speech of the patients allows the development of computer aided tools to support the diagnosis and the evaluation of the disease severity. This paper introduces a methodology to classify Parkinson's disease from speech in three different languages: Spanish, German, and Czech. The proposed approach considers convolutional neural networks trained with time frequency representations and a transfer learning strategy among the three languages. The transfer learning scheme aims to improve the accuracy of the models when the weights of the neural network are initialized with utterances from a different language than the used for the test set. The results suggest that the proposed strategy improves the accuracy of the models in up to 8\% when the base model used to initialize the weights of the classifier is robust enough. In addition, the results obtained after the transfer learning are in most cases more balanced in terms of specificity-sensitivity than those trained without the transfer learning strategy.
翻訳日:2023-01-02 01:00:31 公開日:2020-02-11
# スーパーブルーム:ブルームフィルターがTransformerと出会う

Superbloom: Bloom filter meets Transformer ( http://arxiv.org/abs/2002.04723v1 )

ライセンス: Link先を確認
John Anderson, Qingqing Huang, Walid Krichene, Steffen Rendle, Li Zhang(参考訳) 自然言語モデルにおける単語片の概念を不透明なID上の機械学習タスクに拡張する。 これは、Bloomフィルタと同様に、より小さな空間で各idを複数のハッシュトークンにマッピングするためにハッシュ関数を適用することで達成される。 これらのブルームフィルタダイジェストに多層トランスフォーマーを適用することで,高精度なモデルが得られることを示す。 ハッシュなしで同様のサイズのモデルより優れており、同じ計算予算でサンプルソフトマックスを用いて訓練された、はるかに大きなサイズのモデルよりも優れている。 我々は,多層トランスフォーマーをブルームフィルタダイジェストに使用し,ハッシュ入力のあいまいさを除去することが重要であることを考察した。 これは、大きな語彙サイズで問題を解決する方法の代替となると信じている。

We extend the idea of word pieces in natural language models to machine learning tasks on opaque ids. This is achieved by applying hash functions to map each id to multiple hash tokens in a much smaller space, similarly to a Bloom filter. We show that by applying a multi-layer Transformer to these Bloom filter digests, we are able to obtain models with high accuracy. They outperform models of a similar size without hashing and, to a large degree, models of a much larger size trained using sampled softmax with the same computational budget. Our key observation is that it is important to use a multi-layer Transformer for Bloom filter digests to remove ambiguity in the hashed input. We believe this provides an alternative method to solving problems with large vocabulary size.
翻訳日:2023-01-02 01:00:05 公開日:2020-02-11