このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200113となっている論文です。

PDF登録状況(公開日: 20200113)

TitleAuthorsAbstract論文公表日・翻訳日
# 人工知能:AIの「評価」が道徳的意思決定に与える影響を計測する

Artificial Artificial Intelligence: Measuring Influence of AI 'Assessments' on Moral Decision-Making ( http://arxiv.org/abs/2001.09766v1 )

ライセンス: Link先を確認
Lok Chan, Kenzie Doyle, Duncan McElfresh, Vincent Conitzer, John P. Dickerson, Jana Schaich Borg, Walter Sinnott-Armstrong(参考訳) 意思決定のモデリングと改善におけるAIの役割が拡大していることを考えると、フィードバックをユーザに提供する方法と時期は、対処すべき緊急のトピックである。 ドナー腎臓割当に関する道徳的意思決定に対する偽AIからのフィードバックの効果を実証的に検討した。 患者が腎臓を受けるかどうかの判断は、aiによって与えられたと認識された被験者の意思決定に対するフィードバックに影響を与えうるという証拠がいくつか見いだされた。 また、人間の専門家から提示される評価とAIから提示される評価との間に異なる効果が見つかった。

Given AI's growing role in modeling and improving decision-making, how and when to present users with feedback is an urgent topic to address. We empirically examined the effect of feedback from false AI on moral decision-making about donor kidney allocation. We found some evidence that judgments about whether a patient should receive a kidney can be influenced by feedback about participants' own decision-making perceived to be given by AI, even if the feedback is entirely random. We also discovered different effects between assessments presented as being from human experts and assessments presented as being from AI.
翻訳日:2023-06-08 02:15:44 公開日:2020-01-13
# Donald Duck Holiday Game: ゲーム・オブ・ザ・グースロールプレイング・バリアントの数値解析

Donald Duck Holiday Game: A numerical analysis of a Game of the Goose role-playing variant ( http://arxiv.org/abs/2001.04513v1 )

ライセンス: Link先を確認
W.J.A. van Heeswijk(参考訳) 1996年のドナルド・ダック・ホリデーゲームは、ガチョウの歴史ゲームのロールプレイング版であり、ユニークな属性、イベントスクエア、ランダムなイベントカードを持つキャラクターが参加している。 ゲームの目的は、他のプレイヤーよりも先にキャンプに行くことである。 モンテカルロシミュレーションモデルを開発し,ゲームを自動的に演奏し,その鍵となる特性を分析する。 ゲームを各プレイ可能性に関連する様々な指標で評価する。 数値解析により、プレイヤー数に応じて、ゲームの平均は69ラウンドから123ラウンドで完了することが示された。 しかしながら、1時間以上(人間のプレイタイムに変換される)の期間は25%以上発生し、ゲーム体験の質が低下する可能性がある。 さらに,2文字が他の3文字よりも約30%の確率で勝つことを示し,これは主にランダムな事象が少ないためである。 ロールプレイングゲームのリッチな物語は、従来のゲーム・オブ・ザ・グースと直接比較できないように、ゲームが楽しめる期間を延ばす可能性があると論じる。 分析の結果から,ゲームバランスを改善するためのいくつかの提案が得られた。 より広い意味では、モンテカルロの基本的なシミュレーションは、ゲーム・オブ・ザ・グース・ロールプレイングの変種を分析し、彼らが楽しむゲームに寄与する基準でどのように得点するかを検証し、可能な異常を検出するのに十分であることを示す。

The 1996 Donald Duck Holiday Game is a role-playing variant of the historical Game of the Goose, involving characters with unique attributes, event squares, and random event cards. The objective of the game is to reach the camping before any other player does. We develop a Monte Carlo simulation model that automatically plays the game and enables analyzing its key characteristics. We assess the game on various metrics relevant to each playability. Numerical analysis shows that, on average, the game takes between 69 and 123 rounds to complete, depending on the number of players. However, durations over one hour (translated to human play time) occur over 25% of the games, which might reduce the quality of the gaming experience. Furthermore, we show that two characters are about 30% likely to win than the other three, primarily due to being exposed to fewer random events. We argue that the richer narrative of role-playing games may extend the duration for which the game remains enjoyable, such that the metrics cannot directly be compared to those of the traditional Game-of-the-Goose. Based on our analysis, we provide several suggestions to improve the game balance with only slight modifications. In a broader sense, we demonstrate that a basic Monte Carlo simulation suffices to analyze Game-of-the-Goose role-playing variants, verify how they score on criteria that contribute to an enjoyable game, and detect possible anomalies.
翻訳日:2023-06-08 02:13:19 公開日:2020-01-13
# 三角形表面上のトポロジカル量子スピン系のコンピュータコード

A Computer Code for Topological Quantum Spin Systems over Triangulated Surfaces ( http://arxiv.org/abs/1912.12964v2 )

ライセンス: Link先を確認
Yingkai Liu and Emil Prodan(参考訳) 量子スピンハミルトニアンのようなテンソル代数から引き出されたハミルトニアンの明示的な閉形式行列表現を導出する。 これらの公式により、一般ハミルトニアン系をソフトコードし、一様構造および非構造ハミルトニアンに対して入力データを体系化することができる。 その結果、特定の入力ファイルを取り込み、ハミルトニアンに関するスペクトル情報を返すブラックボックスとして使用できる最適なコンピュータコードとなった。 このコードは、Kitaevのトーリックコード上で、0と1の三角曲面上に展開されている。 属2の最小三角測量に対応する入力ファイルも供給される。

We derive explicit closed-form matrix representations of Hamiltonians drawn from tensored algebras, such as quantum spin Hamiltonians. These formulas enable us to soft-code generic Hamiltonian systems and to systematize the input data for uniformly structured as well as for un-structured Hamiltonians. The result is an optimal computer code that can be used as a black box that takes in certain input files and returns spectral information about the Hamiltonian. The code is tested on Kitaev's toric code deployed on triangulated surfaces of genus 0 and 1. The input file corresponding to the minimal triangulation of genus 2 is also supplied.
翻訳日:2023-01-17 03:10:28 公開日:2020-01-13
# クローズドループディープラーニング:バックプロパゲーションによるフォワードモデルの生成

Closed-loop deep learning: generating forward models with back-propagation ( http://arxiv.org/abs/2001.02970v2 )

ライセンス: Link先を確認
Sama Daryanavard, Bernd Porr(参考訳) 反射は単純なクローズドループ制御アプローチであり、エラーを最小限にしようとするが、反応が遅すぎるため失敗する。 適応アルゴリズムはこの誤差を利用して予測手がかりを用いて前方モデルを学ぶことができる。 例えば、ドライバーは、最後の数分でステアリングを避けるために前を向いて、ステアリングを改善することを学ぶ。 深層学習を先導する道のような複雑な方法を処理することは自然な選択です。 しかし、これは通常、離散状態空間を持つ深層強化学習を用いることで間接的にのみ達成される。 ここでは,ディープラーニングをクローズドループシステムに組み込んで,その継続的処理を維持することで,これを直接達成できることを示す。 具体的には,z空間でエラーバックプロパゲーションを実現する方法と,そのような閉ループシナリオにおいて勾配に基づくアプローチがどのように解析されるかを示す。 この学習パラダイムの性能は、シミュレーションと、非常に高速かつ連続的な学習を示す実ロボットの両方において、ラインフォロワを用いて実証される。

A reflex is a simple closed loop control approach which tries to minimise an error but fails to do so because it will always react too late. An adaptive algorithm can use this error to learn a forward model with the help of predictive cues. For example a driver learns to improve their steering by looking ahead to avoid steering in the last minute. In order to process complex cues such as the road ahead deep learning is a natural choice. However, this is usually only achieved indirectly by employing deep reinforcement learning having a discrete state space. Here, we show how this can be directly achieved by embedding deep learning into a closed loop system and preserving its continuous processing. We show specifically how error back-propagation can be achieved in z-space and in general how gradient based approaches can be analysed in such closed loop scenarios. The performance of this learning paradigm is demonstrated using a line-follower both in simulation and on a real robot that show very fast and continuous learning.
翻訳日:2023-01-13 04:41:22 公開日:2020-01-13
# campfire: ハードウェアアクセラレータのための圧縮可能、正規化フリー、構造化スパーストレーニング

Campfire: Compressible, Regularization-Free, Structured Sparse Training for Hardware Accelerators ( http://arxiv.org/abs/2001.03253v2 )

ライセンス: Link先を確認
Noah Gamboa, Kais Kudrolli, Anand Dhoot, Ardavan Pedram(参考訳) 本稿では,cnnのスライストレーニングを段階的プルーニング技術を用いて構成し,一定数のエポックの後に一定のスライス重み行列を導出する。 強制されたスパーシティの構造を単純化し、正規化によるオーバーヘッドを削減する。 提案されたトレーニング手法であるCampfireは、畳み込みカーネルとフィルタ内の粒度でのプルーニングを探索する。 刈り込み期間,疎度レベル,学習率設定に関して,さまざまなトレードオフについて検討する。 本手法はフルイメージネット上でresnet-50とresnet-50 v1.5のスパースバージョンを作成し,精度損失の1%以上にとどまった。 このようなスパーストレーニングがネットワークの堅牢性に悪影響を及ぼさないことを保証するため、敵攻撃の有無でネットワークがどのように振る舞うかを実証する。 以上の結果から,70%以上のターゲット間隔で,75%以上のTop-1精度が達成可能であることがわかった。

This paper studies structured sparse training of CNNs with a gradual pruning technique that leads to fixed, sparse weight matrices after a set number of epochs. We simplify the structure of the enforced sparsity so that it reduces overhead caused by regularization. The proposed training methodology Campfire explores pruning at granularities within a convolutional kernel and filter. We study various tradeoffs with respect to pruning duration, level of sparsity, and learning rate configuration. We show that our method creates a sparse version of ResNet-50 and ResNet-50 v1.5 on full ImageNet while remaining within a negligible <1% margin of accuracy loss. To ensure that this type of sparse training does not harm the robustness of the network, we also demonstrate how the network behaves in the presence of adversarial attacks. Our results show that with 70% target sparsity, over 75% top-1 accuracy is achievable.
翻訳日:2023-01-13 04:31:05 公開日:2020-01-13
# 機械のための映像符号化:協調圧縮とインテリジェント分析のパラダイム

Video Coding for Machines: A Paradigm of Collaborative Compression and Intelligent Analytics ( http://arxiv.org/abs/2001.03569v2 )

ライセンス: Link先を確認
Ling-Yu Duan, Jiaying Liu, Wenhan Yang, Tiejun Huang, Wen Gao(参考訳) フレーム全体の圧縮と再構成を目標とするビデオ符号化と、最も重要な情報を保存して送信するだけの特徴圧縮は、スケールの2つの端に立っている。 つまり、機械ビジョンのためにコンパクトさと効率性を持ち、もう1つは完全な忠実さを持ち、人間の知覚に屈する。 最近のビデオ圧縮の急激なトレンド、例えばディープラーニングベースのコーディングツールとエンドツーエンドのイメージ/ビデオコーディング、MPEG-7コンパクト機能記述子標準、すなわち、ビジュアル検索用コンパクト記述子とビデオ分析用コンパクト記述子への取り組みは、それぞれの方向に持続的および迅速な開発を促進する。 本稿では,新たなmpeg標準化の取り組みであるvcm(video coding for machines)について,予測・生成モデルなどのai技術の普及により,新たな分野の探索を行う。 協調的な圧縮とインテリジェントな分析を目指して、VCMは、マシンビジョンのフィーチャーコーディングと人間のビジョンのビデオコーディングのギャップを埋めようとしている。 上昇するAnalyzeに従って、CompressインスタンスのDigital Retina、VCMの定義、定式化、パラダイムが最初に与えられる。 一方,mpeg標準化の観点からは,映像圧縮と特徴圧縮の最先端技術について体系的に検討し,幅広いaiアプリケーションにおいて映像と特徴ストリームの協調圧縮を実現するための学術的・工業的証拠を提供する。 最後に、潜在的なVCMソリューションを考案し、その性能と効率性を示す予備的な結果を得た。 さらなる方向性についても論じる。

Video coding, which targets to compress and reconstruct the whole frame, and feature compression, which only preserves and transmits the most critical information, stand at two ends of the scale. That is, one is with compactness and efficiency to serve for machine vision, and the other is with full fidelity, bowing to human perception. The recent endeavors in imminent trends of video compression, e.g. deep learning based coding tools and end-to-end image/video coding, and MPEG-7 compact feature descriptor standards, i.e. Compact Descriptors for Visual Search and Compact Descriptors for Video Analysis, promote the sustainable and fast development in their own directions, respectively. In this paper, thanks to booming AI technology, e.g. prediction and generation models, we carry out exploration in the new area, Video Coding for Machines (VCM), arising from the emerging MPEG standardization efforts1. Towards collaborative compression and intelligent analytics, VCM attempts to bridge the gap between feature coding for machine vision and video coding for human vision. Aligning with the rising Analyze then Compress instance Digital Retina, the definition, formulation, and paradigm of VCM are given first. Meanwhile, we systematically review state-of-the-art techniques in video compression and feature compression from the unique perspective of MPEG standardization, which provides the academic and industrial evidence to realize the collaborative compression of video and feature streams in a broad range of AI applications. Finally, we come up with potential VCM solutions, and the preliminary results have demonstrated the performance and efficiency gains. Further direction is discussed as well.
翻訳日:2023-01-12 23:13:40 公開日:2020-01-13
# 説明者の説明: LIMEに関する最初の理論的分析

Explaining the Explainer: A First Theoretical Analysis of LIME ( http://arxiv.org/abs/2001.03447v2 )

ライセンス: Link先を確認
Damien Garreau, Ulrike von Luxburg(参考訳) 機械学習は、繊細なアプリケーションに頻繁に使われ、時には人間を重要な意思決定プロセスに置き換える。 したがって、これらのアルゴリズムの解釈性は差し迫ったニーズである。 解釈可能性を提供するアルゴリズムとして LIME (Local Interpretable Model-Agnostic Explanation) がある。 本稿では,LIMEに関する最初の理論的解析を行う。 説明すべき関数が線形であるとき、解釈可能なモデルの係数の閉形式表現を導出する。 良いニュースは、これらの係数が関数の勾配に比例して説明できることである。 しかし、分析の結果、パラメータの選択肢が乏しいため、LIMEは重要な機能を見逃す可能性があることが判明した。

Machine learning is used more and more often for sensitive applications, sometimes replacing humans in critical decision-making processes. As such, interpretability of these algorithms is a pressing need. One popular algorithm to provide interpretability is LIME (Local Interpretable Model-Agnostic Explanation). In this paper, we provide the first theoretical analysis of LIME. We derive closed-form expressions for the coefficients of the interpretable model when the function to explain is linear. The good news is that these coefficients are proportional to the gradient of the function to explain: LIME indeed discovers meaningful features. However, our analysis also reveals that poor choices of parameters can lead LIME to miss important features.
翻訳日:2023-01-12 22:46:07 公開日:2020-01-13
# a joint navigation and tracking approach of uavs (特集 レーダーネットワーク)

Dynamic Radar Network of UAVs: A Joint Navigation and Tracking Approach ( http://arxiv.org/abs/2001.04560v1 )

ライセンス: Link先を確認
Anna Guerra, Davide Dardari, Petar M. Djuric(参考訳) 現在、自律的なセンシングとオンラインナビゲーション機能を備えた小型飛行ロボットの可能性に関する研究が増えている。 これにより、遠隔監視からロジスティクス、よりスマートな都市、危険な環境での緊急支援に至るまで、多くのアプリケーションが可能になる。 このような状況下では、未許可の小型無人航空機(UAV)を建物の後ろに隠したり、大規模なUAVネットワークに隠蔽したりするのが問題となる。 静的および地上レーダーを主とする現状のソリューションとは対照的に,悪意のあるターゲットをリアルタイムかつ高精度に追跡するためのUAVの動的レーダネットワークを提案する。 そこで本稿では,UAVのリアルタイムナビゲーションによる動的目標追跡手法について述べる。 このような情報は、UAVが隣人とマルチホップで共有し、各エージェントで実行されている地元のベイズ推定器によってターゲットを追跡することができる。 すべての経路が情報収集の観点で等しいわけではないので、uavはuavキネマティックおよびアンチコリシオン制約の下でターゲット状態の後方共分散行列を最小化し、独自の軌道を計画する。 本研究は, レーダーの動的ネットワークが, 固定配置に比べて位置決め精度が良いこと, 搭載センサー技術が, 特に非視線(NLOS)状況において, 異なるレーダー断面による目標追跡の精度に与える影響を示すものである。

Nowadays there is a growing research interest on the possibility of enriching small flying robots with autonomous sensing and online navigation capabilities. This will enable a large number of applications spanning from remote surveillance to logistics, smarter cities and emergency aid in hazardous environments. In this context, an emerging problem is to track unauthorized small unmanned aerial vehicles (UAVs) hiding behind buildings or concealing in large UAV networks. In contrast with current solutions mainly based on static and on-ground radars, this paper proposes the idea of a dynamic radar network of UAVs for real-time and high-accuracy tracking of malicious targets. To this end, we describe a solution for real-time navigation of UAVs to track a dynamic target using heterogeneously sensed information. Such information is shared by the UAVs with their neighbors via multi-hops, allowing tracking the target by a local Bayesian estimator running at each agent. Since not all the paths are equal in terms of information gathering point-of-view, the UAVs plan their own trajectory by minimizing the posterior covariance matrix of the target state under UAV kinematic and anti-collision constraints. Our results show how a dynamic network of radars attains better localization results compared to a fixed configuration and how the on-board sensor technology impacts the accuracy in tracking a target with different radar cross sections, especially in non line-of-sight (NLOS) situations.
翻訳日:2023-01-12 00:17:42 公開日:2020-01-13
# 確率スピン鎖から量子カルダル-パリ-張ダイナミクスへ

From stochastic spin chains to quantum Kardar-Parisi-Zhang dynamics ( http://arxiv.org/abs/2001.04278v1 )

ライセンス: Link先を確認
Tony Jin, Alexandre Krajenbrink and Denis Bernard(参考訳) ランダムな振幅を持つ格子ホッピング上のフェルミオンの確率モデルである量子対称性簡易排他過程の非対称拡張を導入する。 この設定では、フェルミオンの時間積分電流が、量子非線型確率カルダル・パリ・チャンダイナミクスを示す高さ場を定義することを解析的に示す。 古典的単純排他過程と同様に、確率的熱方程式の量子バージョンを満たす高さ場の離散 cole-hopf (または g\"artner) 変換も導入する。 最後に,kardar-parisi-zhangスケールによる連続体の高さ場理論の限界と,ほぼ可換な量子ノイズのレジームについて検討した。

We introduce the asymmetric extension of the Quantum Symmetric Simple Exclusion Process which is a stochastic model of fermions on a lattice hopping with random amplitudes. In this setting, we analytically show that the time-integrated current of fermions defines a height field which exhibits a quantum non-linear stochastic Kardar-Parisi-Zhang dynamics. Similarly to classical simple exclusion processes, we further introduce the discrete Cole-Hopf (or G\"artner) transform of the height field which satisfies a quantum version of the Stochastic Heat Equation. Finally, we investigate the limit of the height field theory in the continuum under the celebrated Kardar-Parisi-Zhang scaling and the regime of almost-commuting quantum noise.
翻訳日:2023-01-12 00:17:03 公開日:2020-01-13
# PMU配置における量子最適化の計算可能性について

On the Computational Viability of Quantum Optimization for PMU Placement ( http://arxiv.org/abs/2001.04489v1 )

ライセンス: Link先を確認
Eric B. Jones, Eliot Kapit, Chin-Yao Chang, David Biagioni, Deepthi Vaidhynathan, Peter Graf and Wesley Jones(参考訳) 最適ファサー測定ユニット配置を原型的問題として,現在のd-waveシステム2000q量子アニーラによる電力系統設計問題の計算可能性を評価する。 我々は、アニールラーハードウェアの最小支配セットを再構成し、IEEEテストシステムの標準セットの修正を解決し、CPLEXオプティマイザとシミュレートされたアニールに対するソリューションの品質と解決策のベンチマークを行う。 いくつかの問題では2000QがCPLEXを上回っている。 CPLEXとシミュレートされたアニーリングに関して2000Qが過小評価される場合、次世代の量子アニールのハードウェア改善を提案する。

Using optimal phasor measurement unit placement as a prototypical problem, we assess the computational viability of the current generation D-Wave Systems 2000Q quantum annealer for power systems design problems. We reformulate minimum dominating set for the annealer hardware, solve the reformulation for a standard set of IEEE test systems, and benchmark solution quality and time to solution against the CPLEX Optimizer and simulated annealing. For some problem instances the 2000Q outpaces CPLEX. For instances where the 2000Q underperforms with respect to CPLEX and simulated annealing, we suggest hardware improvements for the next generation of quantum annealers.
翻訳日:2023-01-12 00:15:24 公開日:2020-01-13
# 単一有機分子におけるフォノン誘起光劣化

Phonon-induced optical dephasing in single organic molecules ( http://arxiv.org/abs/2001.04365v1 )

ライセンス: Link先を確認
Chloe Clear, Ross C. Schofield, Kyle D. Major, Jake Iles-Smith, Alex S. Clark and Dara P. S. McCutcheon(参考訳) 有機分子は最近、新しい単一光子源として注目を集めている。 本稿では,単一分子から放出される光の温度依存性放射スペクトル,ゼロフォノン線幅,二階相関関数の合同実験-理論解析を行う。 ゼロフォノンラインのスペクトルと、いくつかの鋭いピーク、広いフォノンサイドバンド、および強い温度依存性の均質拡大を同時に観測する。 モデルには分子の振動モードと熱フォノン浴の両方が含まれており、それらは非摂動的に含み、観察された全ての特徴を捉えることができる。 共振駆動では, モデルが自然に再現する温度とともに減衰するRabi振動を測定する。 この結果は、これらの有望な分子の光子コヒーレンスの本質的な特徴付けであり、将来の量子情報応用への道を開くものである。

Organic molecules have recently gained attention as novel sources of single photons. We present a joint experiment--theory analysis of the temperature-dependent emission spectra, zero-phonon linewidth, and second-order correlation function of light emitted from a single molecule. We observe spectra with a zero-phonon-line together with several additional sharp peaks, broad phonon sidebands, and a strongly temperature dependent homogeneous broadening. Our model includes both localised vibrational modes of the molecule and a thermal phonon bath, which we include non-perturbatively, and is able capture all observed features. For resonant driving we measure Rabi oscillations that become increasingly damped with temperature, which our model naturally reproduces. Our results constitute an essential characterisation of the photon coherence of these promising molecules, paving the way towards their use in future quantum information applications.
翻訳日:2023-01-12 00:10:47 公開日:2020-01-13
# 2重積みリングに閉じ込められたボース・アインシュタイン凝縮体の軌道角運動量ダイナミクス

Orbital angular momentum dynamics of Bose-Einstein condensates trapped in two stacked rings ( http://arxiv.org/abs/2001.04394v1 )

ライセンス: Link先を確認
Eul\`alia Nicolau, Jordi Mompart, Bruno Juli\'a-D\'iaz, Ver\`onica Ahufinger(参考訳) 2つのトンネル結合リングに閉じ込められた反発型ボース・アインシュタイン凝縮体の軌道角運動量モードの安定性とダイナミクスをスタック構成で検討した。 平均場理論の中では、一つの軌道角運動量モードで両方の環を等しく浮かび、他のモードで小さな摂動を含むような場合の系の2状態モデルを導出する。 モデルと関連する古典ハミルトニアンの不動点解を解析し、定常状態の不安定化とその後のダイナミクスを特徴づける。 環間の任意の集団不均衡を持つ単一軌道角運動量モードをポピュレートすることにより、ジョセフソン振動状態とマクロ量子自己トラッピングの境界を解析的に導き、これらの解の安定性を数値的に研究する。

We investigate the stability and dynamics of the orbital angular momentum modes of a repulsive Bose-Einstein condensate trapped in two tunnel-coupled rings in a stack configuration. Within mean-field theory, we derive a two-state model for the system in the case in which we populate equally both rings with a single orbital angular momentum mode and include small perturbations in other modes. Analyzing the fixed point solutions of the model and the associated classical Hamiltonian, we characterize the destabilization of the stationary states and the subsequent dynamics. By populating a single orbital angular momentum mode with an arbitrary population imbalance between the rings, we derive analytically the boundary between the regimes of Josephson oscillations and macroscopic quantum self-trapping and study numerically the stability of these solutions.
翻訳日:2023-01-12 00:10:32 公開日:2020-01-13
# ポラリトン超流動における渦流の生成と伝播促進

Vortex stream generation and enhanced propagation in a polariton superfluid ( http://arxiv.org/abs/2001.04434v1 )

ライセンス: Link先を確認
Giovanni Lerario, Anne Ma\^itre, Rajiv Boddeda, Quentin Glorieux, Elisabeth Giacobino, Simon Pigeon, Alberto Bramati(参考訳) 本研究では,ポラリトン系によって提示される光学的ビスタビリティの特異性を利用した新しい実験構成を実装し,ポテンシャル障壁の後に発生する超流動乱流の発生を実証する。 乱流の伝播と方向は、以前報告されたよりも1桁長い距離で支持ビームによって持続される。 この技術は、量子乱流の制御と伝播のための強力なツールであり、駆動散逸性2Dポラリトン系における量子乱流の流体力学の研究への道を開く。

In this work, we implement a new experimental configuration which exploits the specific properties of the optical bistability exhibited by the polariton system and we demonstrate the generation of a superfluid turbulent flow in the wake of a potential barrier. The propagation and direction of the turbulent flow are sustained by a support beam on distances an order of magnitude longer than previously reported. This novel technique is a powerful tool for the controlled generation and propagation of quantum turbulences and paves the way to the study of the hydrodynamic of quantum turbulence in driven-dissipative 2D polariton systems.
翻訳日:2023-01-12 00:10:17 公開日:2020-01-13
# ボーアはロヴェルリと出会う:知識の量子的限界の反置論者

Bohr meets Rovelli: a dispositionalist account of the quantum limits of knowledge ( http://arxiv.org/abs/2001.08626v1 )

ライセンス: Link先を確認
Mauro Dorato(参考訳) まず、知識の量子限界の問題を、その数学的構造から導かれる理論の制約(特にフォン・ノイマンとコッチェンとスペクターによって定式化されたno-go定理)を簡潔に提示することによって検討する。 次に、これらの定理は、物理系の性質を知るために必要となる実用的かつ実験的な設定を形式的に反映していると論じる。 特に、この関係論と文脈主義の現実観のいくつかの側面について、ボア・ホリスティックとロヴェルリの関係論の形式主義の解釈と比較し、深い下降は、配位と正当性の統一なメタ物理を共有していると論じる。 どちらの解釈も、量子力学が以前に定量の量を記述していないという広く共有されている事実に基づいている。 最後の部分では、量子力学への関係論的かつパースペクティブなアプローチの結果、孤立系と見なされる宇宙の量子状態は原則として知られておらず、宇宙を2つの任意の部分に分割することで内部から記述しなければならないことを示します。 実際、2つのシステムが物理的に相関して情報を交換できる唯一の方法である。

I begin by examining the question of the quantum limits of knowledge by briefly presenting the constraints of the theory that derive from its mathematical structure (in particular the no-go theorems formulated by von Neumann and Kochen and Specker). I then argue that these theorems reflect on a formal level those practical and experimental settings that are needed to come to know the properties of physical systems. In particular, I discuss some aspects of this relationist and contextualist conception of reality by comparing, in their apparent diversity, Bohr holistic and Rovelli relationist interpretation of the formalism, that deep down share a unifying metaphysics of dispositions and propensities. Both interpretations are based on the widely shared fact that quantum mechanics does not describe previously definite quantities. In the final part I show that, as a consequence of a relationist and perspectival approach to quantum mechanics, the quantum state of the universe regarded as an isolated system cannot be known in principle, so that the universe must be described from within by dividing it into two arbitrary parts. This is in fact the only way in which any two systems can exchange information by being physically correlated.
翻訳日:2023-01-12 00:09:40 公開日:2020-01-13
# 飽和のないディープニューラルネットワークによる近似の滑らか化とスパース関数

Approximation smooth and sparse functions by deep neural networks without saturation ( http://arxiv.org/abs/2001.04114v1 )

ライセンス: Link先を確認
Xia Liu(参考訳) 関数近似のためのニューラルネットワークの構築は、近似理論における古典的かつ長い話題である。 本稿では,3つの隠れ層を持つディープニューラルネットワーク(略してディープネット)を構築し,スムース関数とスパース関数の近似化を目指す。 特に, 構成した深層ネットは, 滑らかかつスパースな関数を制御可能な自由パラメータで近似することで, 最適近似率に達することが証明された。 近似のボトルネックを記述する飽和は構成的ニューラルネットワークの不可解な問題であるので、さらに1つの隠れ層でニューラルネットワークの深層化が飽和を回避できることも証明する。 その結果,ディープネットの利点と,Deep Learningの理論的説明が得られた。

Constructing neural networks for function approximation is a classical and longstanding topic in approximation theory. In this paper, we aim at constructing deep neural networks (deep nets for short) with three hidden layers to approximate smooth and sparse functions. In particular, we prove that the constructed deep nets can reach the optimal approximation rate in approximating both smooth and sparse functions with controllable magnitude of free parameters. Since the saturation that describes the bottleneck of approximate is an insurmountable problem of constructive neural networks, we also prove that deepening the neural network with only one more hidden layer can avoid the saturation. The obtained results underlie advantages of deep nets and provide theoretical explanations for deep learning.
翻訳日:2023-01-12 00:08:46 公開日:2020-01-13
# 深部3次元ネットワークを用いた需要固形集合組織合成

On Demand Solid Texture Synthesis Using Deep 3D Networks ( http://arxiv.org/abs/2001.04528v1 )

ライセンス: Link先を確認
Jorge Gutierrez, Julien Rabin, Bruno Galerne, Thomas Hurtut(参考訳) 本稿では,対話的なレートで高品質な3Dデータを生成可能なディープラーニングフレームワークに基づく,オンデマンドボリュームテクスチャ合成のための新しいアプローチについて述べる。 テクスチャのいくつかの例に基づいて、生成ネットワークは任意の大きさの固形テクスチャのコヒーレントな部分の合成を訓練し、ある方向に沿ってサンプルの視覚的特徴を再現する。 GPU上の高解像度と3D処理の両方に固有のメモリ制限と計算複雑性に対処するため、トレーニング段階では「スライス」と呼ばれる2Dテクスチャのみが生成される。 これらの合成テクスチャを、事前学習されたディープネットワークに基づく知覚損失関数を介して、例示画像と比較する。 提案するネットワークは非常に軽量で(100kパラメータを含まない)、持続的なトレーニング(数時間)しか必要とせず、単一のGPU上で非常に高速な生成(約256^3$ボクセル)が可能である。 空間的にシードされたPRNGと統合して、提案したジェネレータネットワークは、3D座標のセットが与えられたRGB値を直接返す。 合成ボリュームは、最先端のパッチベースアプローチと少なくとも同等の視覚的な結果が得られる。 自然にシームレスにタイル状になり、完全に並列に生成できる。

This paper describes a novel approach for on demand volumetric texture synthesis based on a deep learning framework that allows for the generation of high quality 3D data at interactive rates. Based on a few example images of textures, a generative network is trained to synthesize coherent portions of solid textures of arbitrary sizes that reproduce the visual characteristics of the examples along some directions. To cope with memory limitations and computation complexity that are inherent to both high resolution and 3D processing on the GPU, only 2D textures referred to as "slices" are generated during the training stage. These synthetic textures are compared to exemplar images via a perceptual loss function based on a pre-trained deep network. The proposed network is very light (less than 100k parameters), therefore it only requires sustainable training (i.e. few hours) and is capable of very fast generation (around a second for $256^3$ voxels) on a single GPU. Integrated with a spatially seeded PRNG the proposed generator network directly returns an RGB value given a set of 3D coordinates. The synthesized volumes have good visual results that are at least equivalent to the state-of-the-art patch based approaches. They are naturally seamlessly tileable and can be fully generated in parallel.
翻訳日:2023-01-12 00:08:34 公開日:2020-01-13
# 2パスソフトマックスアルゴリズム

The Two-Pass Softmax Algorithm ( http://arxiv.org/abs/2001.04438v1 )

ライセンス: Link先を確認
Marat Dukhan and Artsiom Ablavatski(参考訳) ソフトマックス(Softargmax)関数は、実数値スコアを確率分布に正規化するために機械学習モデルで広く用いられている。 浮動小数点オーバーフローを避けるために、ソフトマックス関数は従来の3つのパス(正規化定数を計算する最初のパスと正規化入力からの出力を計算するための他の2つのパス)で実装されている。 3パスアルゴリズムの2つの変種を分析し、hpcクラスのプロセッサの性能を最適化した実装では、メモリ帯域幅によって性能が制限されることを示した。 次に, 2 回のパスでソフトマックス計算を行う新しいアルゴリズムを提案する。 提案する2パスアルゴリズムは、中間値に対するエキゾチック表現を用いて数値オーバーフローと余剰正規化の両方を避け、各値は浮動小数点数("mantissa"を表すものと"exponent"を表すもの)のペアとして表現される。 性能評価では、intel skylake-xプロセッサ上のキャッシュ外入力において、新しい2パスアルゴリズムが従来の3パスアルゴリズムを28%、avx512実装を最大18%上回っていることが示されている。 提案する2パスアルゴリズムは、intel broadwellとamd zen 2プロセッサの従来の3パスアルゴリズムよりも優れている。 再現性を向上するため、GitHub.com/google/XNNPACKのXNNPACKライブラリの一部として、新しいTwo-Pass Softmaxアルゴリズムや他の実験をオープンソースで実装した。

The softmax (also called softargmax) function is widely used in machine learning models to normalize real-valued scores into a probability distribution. To avoid floating-point overflow, the softmax function is conventionally implemented in three passes: the first pass to compute the normalization constant, and two other passes to compute outputs from normalized inputs. We analyze two variants of the Three-Pass algorithm and demonstrate that in a well-optimized implementation on HPC-class processors performance of all three passes is limited by memory bandwidth. We then present a novel algorithm for softmax computation in just two passes. The proposed Two-Pass algorithm avoids both numerical overflow and the extra normalization pass by employing an exotic representation for intermediate values, where each value is represented as a pair of floating-point numbers: one representing the "mantissa" and another representing the "exponent". Performance evaluation demonstrates that on out-of-cache inputs on an Intel Skylake-X processor the new Two-Pass algorithm outperforms the traditional Three-Pass algorithm by up to 28% in AVX512 implementation, and by up to 18% in AVX2 implementation. The proposed Two-Pass algorithm also outperforms the traditional Three-Pass algorithm on Intel Broadwell and AMD Zen 2 processors. To foster reproducibility, we released an open-source implementation of the new Two-Pass Softmax algorithm and other experiments in this paper as a part of XNNPACK library at GitHub.com/google/XNNPACK.
翻訳日:2023-01-12 00:02:05 公開日:2020-01-13
# 強化学習を用いたマルチロボット形成制御

Multi-Robot Formation Control Using Reinforcement Learning ( http://arxiv.org/abs/2001.04527v1 )

ライセンス: Link先を確認
Abhay Rawat, Kamalakar Karlapalem(参考訳) 本稿では,ロボット群を集団的に移動させる機械学習手法を提案する。 この問題をマルチエージェント強化学習問題としてモデル化する。 本研究の目的は,多数のエージェント(ロボット)間の所望の形成を維持するための制御方針を,所望の目標に向かって進めることにある。 これは、我々のエージェントがグループの2つのエージェントを追跡し、それらのエージェントに関する構成を維持するように訓練することで達成される。 すべてのエージェントは均質であり、それらを一サイクル [1] としてモデル化する。 それぞれのエージェントが独立した目標を持つリーダフォローアプローチとは対照的に,当社のアプローチは,エージェントが協力し,共通の目標に向かって働くようにトレーニングすることを目的としています。 この手法を使う動機は、完全に分散化されたマルチエージェント生成システムを作り、多数のエージェントにスケーラブルにすることだ。

In this paper, we present a machine learning approach to move a group of robots in a formation. We model the problem as a multi-agent reinforcement learning problem. Our aim is to design a control policy for maintaining a desired formation among a number of agents (robots) while moving towards a desired goal. This is achieved by training our agents to track two agents of the group and maintain the formation with respect to those agents. We consider all agents to be homogeneous and model them as unicycle [1]. In contrast to the leader-follower approach, where each agent has an independent goal, our approach aims to train the agents to be cooperative and work towards the common goal. Our motivation to use this method is to make a fully decentralized multi-agent formation system and scalable for a number of agents.
翻訳日:2023-01-12 00:01:37 公開日:2020-01-13
# EHRからの大規模コホート生成のためのバイアス分析を用いたモデル支援コホート選択

Model-assisted cohort selection with bias analysis for generating large-scale cohorts from the EHR for oncology research ( http://arxiv.org/abs/2001.09765v1 )

ライセンス: Link先を確認
Benjamin Birnbaum, Nathan Nussbaum, Katharina Seidl-Rathkopf, Monica Agrawal, Melissa Estevez, Evan Estola, Joshua Haimson, Lucy He, Peter Larson, Paul Richardson(参考訳) Objective Electronic Health Record (EHRs) は、腫瘍学における健康結果研究のための有望なデータ源である。 ehrデータを使用する際の課題は、患者のコホートを選択する場合、記録の非構造化部分の情報を必要とすることが多いことである。 機械学習はこの問題に対処するために使われてきたが、ハイパフォーマンスなアルゴリズムでさえ、非ランダムな方法で患者を選択し、結果のコホートをバイアスする可能性がある。 潜在的なバイアスを計測しながらコホート選択の効率を向上させるために,モデル支援コホート選択(macs)と呼ばれるバイアス分析技術を導入し,転移性乳癌(mbc)患者の選択に適用する。 材料と方法 用語周波数逆文書周波数(TF-IDF)とロジスティック回帰を用いた17,263例のモデルを構築した。 我々は17,292人の患者を対象に,アルゴリズムの性能を測定し,バイアス分析を行った。 まず,macが生成したコホートと,macを基準として生成するコホートを比較し,臨床変数と人口動態変数の分布を比較した上で,既存の研究課題に対する2つの分析結果を比較した。 結果,本アルゴリズムは,曲線(auc)下の面積0.976,感度96.0%,抽象化効率向上率77.9%であった。 バイアス分析では,ベースライン特性に大きな差はなく,サンプル分析にも差はみられなかった。 バイアス分析による結論MACSは、結果のコホートに対して行われた結果がバイアスを受けないという自信を抱きながら、EHRデータに対するコホート選択の効率を著しく向上させることができる。

Objective Electronic health records (EHRs) are a promising source of data for health outcomes research in oncology. A challenge in using EHR data is that selecting cohorts of patients often requires information in unstructured parts of the record. Machine learning has been used to address this, but even high-performing algorithms may select patients in a non-random manner and bias the resulting cohort. To improve the efficiency of cohort selection while measuring potential bias, we introduce a technique called Model-Assisted Cohort Selection (MACS) with Bias Analysis and apply it to the selection of metastatic breast cancer (mBC) patients. Materials and Methods We trained a model on 17,263 patients using term-frequency inverse-document-frequency (TF-IDF) and logistic regression. We used a test set of 17,292 patients to measure algorithm performance and perform Bias Analysis. We compared the cohort generated by MACS to the cohort that would have been generated without MACS as reference standard, first by comparing distributions of an extensive set of clinical and demographic variables and then by comparing the results of two analyses addressing existing example research questions. Results Our algorithm had an area under the curve (AUC) of 0.976, a sensitivity of 96.0%, and an abstraction efficiency gain of 77.9%. During Bias Analysis, we found no large differences in baseline characteristics and no differences in the example analyses. Conclusion MACS with bias analysis can significantly improve the efficiency of cohort selection on EHR data while instilling confidence that outcomes research performed on the resulting cohort will not be biased.
翻訳日:2023-01-12 00:01:25 公開日:2020-01-13
# 単一スピンの量子大気を観測する実験

Experimental sensing quantum atmosphere of a single spin ( http://arxiv.org/abs/2001.04047v1 )

ライセンス: Link先を確認
Kehang Zhu, Zhiping Yang, Qing-Dong Jiang, Zihua Chai, Zhijie Li, Zhiyuan Zhao, Ya Wang, Fazhan Shi, Chang-Kui Duan, Xing Rong, Jiangfeng Du(参考訳) 物質の対称性破壊状態を理解することは、現代の物理科学において大きな課題である。 最近提案された量子雰囲気は、これらの対称性が破れたパターンの隠れた世界に光を放つ。 しかし、小さなシフトに対する精巧な感度の要求と、局所的な情報に対する膨大な空間分解能は、その実験的な発現に大きな障害をもたらす。 実験では、1つの核スピンの時間反転対称性を保存し、破壊した量子雰囲気を作成し、その対称性特性を観察した。 我々の研究は、量子大気から対称性パターンを見つけることは概念的に可能であることを原則として証明している。 また、物質診断における量子センシングの潜在的な応用において、全く新しい可能性を開く。

Understanding symmetry-breaking states of materials is a major challenge in the modern physical sciences. Quantum atmosphere proposed recently sheds light on the hidden world of these symmetry broken patterns. But the requirements for exquisite sensitivity to the small shift and tremendous spatial resolution to local information pose huge obstacles to its experimental manifestation. In our experiment, we prepare time-reversal-symmetry conserved and broken quantum atmosphere of a single nuclear spin and successfully observe their symmetry properties. Our work proves in principle that finding symmetry patterns from quantum atmosphere is conceptually viable. It also opens up entirely new possibilities in the potential application of quantum sensing in material diagnosis.
翻訳日:2023-01-12 00:00:52 公開日:2020-01-13
# ヒルベルト空間における相対性と等価性:アハロノフ・ボーム効果に対する原理論的アプローチ

Relativity and Equivalence in Hilbert Space: A Principle-Theory Approach to the Aharonov-Bohm Effect ( http://arxiv.org/abs/2001.04205v1 )

ライセンス: Link先を確認
Guy Hetzroni(参考訳) 本稿では、一般相対性理論の一般原理と一般抽象空間に適用可能な同値原理の一般化版を定式化する。 この原理を量子粒子のヒルベルト空間に適用すると、電磁場への結合の法則が得られることが示されている。 これらの原理に照らしてアハロノフ・ボーム効果を理解することが示唆され、関連する基礎論争への含意が議論される。

This paper formulates generalized versions of the general principle of relativity and of the principle of equivalence that can be applied to general abstract spaces. It is shown that when the principles are applied to the Hilbert space of a quantum particle, its law of coupling to electromagnetic fields is obtained. It is suggested to understand the Aharonov-Bohm effect in light of these principles, and the implications for some related foundational controversies are discussed.
翻訳日:2023-01-12 00:00:18 公開日:2020-01-13
# オンラインレビューによる利用者期待の変化

Mining Changes in User Expectation Over Time From Online Reviews ( http://arxiv.org/abs/2001.09898v1 )

ライセンス: Link先を確認
Tianjun Hou (LGI), Bernard Yannou (LGI), Yann Leroy, Emilie Poirson (IRCCyN)(参考訳) 顧客はいつでもオンラインレビューを投稿する。 オンラインレビューのタイムスタンプによって、それらは情報のフローと見なすことができる。 この特徴により、デザイナは顧客のフィードバックの変化を捉えて、製品改善戦略の立案を支援します。 本稿では,2世代の製品に対するオンラインレビューに基づいて,製品価格におけるユーザ期待の変化を捉えるアプローチを提案する。 まず、ルールベースの自然言語処理手法を使用して、レビューテキストから製品代を自動的に識別し、構成する。 次に, 商品属性の嗜好を5つのカテゴリに分類する狩野モデルに着想を得て, コンジョイント分析を用いて, 構造的価格を定量的に分類する。 最後に,2世代連続製品のオンラインレビューにコンジョイント分析を適用することで,ユーザ期待の変化を見いだすことができる。 amazon.comからダウンロードされたKindleの電子書籍リーダーのオンラインレビューに基づくケーススタディでは、設計者は提案したアプローチを用いて、以前の製品に対する製品改善戦略を評価し、将来の製品に対する新しい製品改善戦略を開発することができる。

Customers post online reviews at any time. With the timestamp of online reviews, they can be regarded as a flow of information. With this characteristic, designers can capture the changes in customer feedback to help set up product improvement strategies. Here we propose an approach for capturing changes of user expectation on product affordances based on the online reviews for two generations of products. First, the approach uses a rule-based natural language processing method to automatically identify and structure product affordances from review text. Then, inspired by the Kano model which classifies preferences of product attributes in five categories, conjoint analysis is used to quantitatively categorize the structured affordances. Finally, changes of user expectation can be found by applying the conjoint analysis on the online reviews posted for two successive generations of products. A case study based on the online reviews of Kindle e-readers downloaded from amazon.com shows that designers can use our proposed approach to evaluate their product improvement strategies for previous products and develop new product improvement strategies for future products.
翻訳日:2023-01-11 23:53:02 公開日:2020-01-13
# 失敗率の破壊仮説テスト

Breaking hypothesis testing for failure rates ( http://arxiv.org/abs/2001.04045v1 )

ライセンス: Link先を確認
Rohit Pandey, Yingnong Dang, Gil Lapid Shafriri, Murali Chintalapati, Aerin Kim(参考訳) 本稿では、ポイントプロセスと障害率の有用性と、ポアソンポイントプロセスである失敗率をモデル化するための最も一般的なポイントプロセスについて述べる。 次に、2つのポアソン点過程の速度を片側テスト(以下「レートテスト」と呼ぶ)と比較するための一様に強力なテストについて述べる。 このテストの使用に対する一般的な議論は、実世界のデータはポアソン点過程にはほとんど従わないということである。 したがって,このようなテストの分布的仮定が破られ,テストが適用されると何が起こるかを検討する。 非病理学的な例(二項複合化を伴う複合ポアソン分布のレートテストを用いて)を見つけ、そこでは、レートテストの分布的仮定に違反することで、より良く(より低い誤差率)なる。 また、ヌル仮説の下で検定統計量の分布を他の任意の分布に置き換えるならば、検定のパフォーマンス(偽の負のレートから偽の正のレートのトレードオフまで)は全く同じである。 次に、負の2項点プロセスにカスタマイズされたwaldテストのバージョンとレートテストのパフォーマンスを比較して、より汎用的で汎用的でありながら、非常によく似た結果が得られることを見出します。 最後に、microsoft azureへのアプリケーションを議論する。 すべての実験のコードはオープンソースで、導入にリンクされている。

We describe the utility of point processes and failure rates and the most common point process for modeling failure rates, the Poisson point process. Next, we describe the uniformly most powerful test for comparing the rates of two Poisson point processes for a one-sided test (henceforth referred to as the "rate test"). A common argument against using this test is that real world data rarely follows the Poisson point process. We thus investigate what happens when the distributional assumptions of tests like these are violated and the test still applied. We find a non-pathological example (using the rate test on a Compound Poisson distribution with Binomial compounding) where violating the distributional assumptions of the rate test make it perform better (lower error rates). We also find that if we replace the distribution of the test statistic under the null hypothesis with any other arbitrary distribution, the performance of the test (described in terms of the false negative rate to false positive rate trade-off) remains exactly the same. Next, we compare the performance of the rate test to a version of the Wald test customized to the Negative Binomial point process and find it to perform very similarly while being much more general and versatile. Finally, we discuss the applications to Microsoft Azure. The code for all experiments performed is open source and linked in the introduction.
翻訳日:2023-01-11 23:52:02 公開日:2020-01-13
# 深層学習に基づく歩行者慣性ナビゲーション:メソッド、データセット、オンデバイス推論

Deep Learning based Pedestrian Inertial Navigation: Methods, Dataset and On-Device Inference ( http://arxiv.org/abs/2001.04061v1 )

ライセンス: Link先を確認
Changhao Chen, Peijun Zhao, Chris Xiaoxuan Lu, Wei Wang, Andrew Markham, Niki Trigoni(参考訳) 現代の慣性測定ユニット(IMU)は小型で安価でエネルギー効率が良く、スマートデバイスや移動ロボットに広く使われている。 正確で信頼性の高い歩行者ナビゲーションサポートのために慣性データを活用することは、新しいインターネット・オブ・シングのアプリケーションやサービスにとって重要なコンポーネントである。 近年、モーションセンシングと位置推定にディープニューラルネットワーク(DNN)を適用することへの関心が高まっている。 しかし、アーキテクチャベンチマークのトレーニングと評価に十分なラベル付きデータがないため、IMUベースのタスクにおけるDNNの採用は制限されている。 本稿では,深層学習に基づく慣性航法研究のための初等的公開データセットであるoxford inertial odometry dataset (oxiod) を,全シーケンスについて細粒度で公開する。 さらに,より効率的なエッジ推定を実現するために,生のimuデータから歩行者の軌跡を学習し,再構成する新しい軽量フレームワークを提案する。 大規模な実験により,データ駆動型歩行者慣性航法を資源制約装置上で正確に実現するためのデータセットと手法の有効性が示された。

Modern inertial measurements units (IMUs) are small, cheap, energy efficient, and widely employed in smart devices and mobile robots. Exploiting inertial data for accurate and reliable pedestrian navigation supports is a key component for emerging Internet-of-Things applications and services. Recently, there has been a growing interest in applying deep neural networks (DNNs) to motion sensing and location estimation. However, the lack of sufficient labelled data for training and evaluating architecture benchmarks has limited the adoption of DNNs in IMU-based tasks. In this paper, we present and release the Oxford Inertial Odometry Dataset (OxIOD), a first-of-its-kind public dataset for deep learning based inertial navigation research, with fine-grained ground-truth on all sequences. Furthermore, to enable more efficient inference at the edge, we propose a novel lightweight framework to learn and reconstruct pedestrian trajectories from raw IMU data. Extensive experiments show the effectiveness of our dataset and methods in achieving accurate data-driven pedestrian inertial navigation on resource-constrained devices.
翻訳日:2023-01-11 23:51:25 公開日:2020-01-13
# 高性能なJavaベースのディープラーニングフレームワークを目指して

Towards High Performance Java-based Deep Learning Frameworks ( http://arxiv.org/abs/2001.04206v1 )

ライセンス: Link先を確認
Athanasios Stratikopoulos, Juan Fumero, Zoran Sevarac and Christos Kotselidis(参考訳) 現代のクラウドサービスの出現は、日々発生している膨大な量のデータとともに、高速で効率的なデータ処理の需要を定めている。 この需要は、ディープラーニング、データマイニング、コンピュータビジョンなど、多くのアプリケーション領域に共通している。 以前の研究は、ハードウェアアクセラレーターをこの非効率を克服する手段として採用することに重点を置いてきた。 この傾向により、ソフトウェア開発は不均一な実行をターゲットにし、現代のコンピューティングシステムにはGPUやFPGAなど、さまざまなコンピューティングコンポーネントが混在している。 しかし、不均一実行のためのアプリケーションのコードの特殊化は、開発者が高性能を得るためにハードウェアの専門知識を必要とするため、簡単な作業ではない。 ヘテロジニアスアクセラレーションをサポートする既存のディープラーニングフレームワークの大部分は、OpenCL、CUDA、HLSといった低レベルのアクセラレーションバックエンドへの高レベルプログラミング言語からのラッパーコールの実装に依存している。 本稿では,JavaベースのディープラーニングフレームワークであるDeep Nettsを透過的に高速化するために,最先端の異種プログラミングフレームワークであるTornadoVMを採用した。 最初の結果は、元のDeep Nettsフレームワークのシーケンシャルな実行に対して、AMD GPU上でネットワークトレーニングのバック伝搬プロセスを実行する場合、最大8倍の性能向上を示す。

The advent of modern cloud services along with the huge volume of data produced on a daily basis, have set the demand for fast and efficient data processing. This demand is common among numerous application domains, such as deep learning, data mining, and computer vision. Prior research has focused on employing hardware accelerators as a means to overcome this inefficiency. This trend has driven software development to target heterogeneous execution, and several modern computing systems have incorporated a mixture of diverse computing components, including GPUs and FPGAs. However, the specialization of the applications' code for heterogeneous execution is not a trivial task, as it requires developers to have hardware expertise in order to obtain high performance. The vast majority of the existing deep learning frameworks that support heterogeneous acceleration, rely on the implementation of wrapper calls from a high-level programming language to a low-level accelerator backend, such as OpenCL, CUDA or HLS. In this paper we have employed TornadoVM, a state-of-the-art heterogeneous programming framework to transparently accelerate Deep Netts; a Java-based deep learning framework. Our initial results demonstrate up to 8x performance speedup when executing the back propagation process of the network's training on AMD GPUs against the sequential execution of the original Deep Netts framework.
翻訳日:2023-01-11 23:50:54 公開日:2020-01-13
# 人間が最適でないとき:危険に敏感な人間とコラボするロボット

When Humans Aren't Optimal: Robots that Collaborate with Risk-Aware Humans ( http://arxiv.org/abs/2001.04377v1 )

ライセンス: Link先を確認
Minae Kwon, Erdem Biyik, Aditi Talati, Karan Bhasin, Dylan P. Losey, Dorsa Sadigh(参考訳) 安全かつ効率的に協力するためには、ロボットは人間のパートナーの振る舞いを予測する必要がある。 今日のロボットの中には、まるでロボットであるかのように人間をモデル化するものもある。 他のロボットは人間の限界を説明し、この仮定を緩和し、人間は騒々しく合理的である。 どちらのモデルも、人間が決定論的報酬を受けるときに理にかなっている:つまり、100ドルか130ドルを確実に獲得する。 しかし、現実のシナリオでは報酬は決定論的ではない。 代わりに、私たちはリスクと不確実性に従わなければならない。これらの設定において、人間は、最適以下の行動に対する認知バイアスを示す。 例えば、確信を持って100ドルを稼ぐか、あるいはたったの80%の時間だけ130ドルを稼ぐかを決めるとき、人々はリスク回避の選択をする傾向があります。 本稿では、累積プロスペクト理論(Cumulative Prospect Theory)と呼ばれる行動経済学から、よく知られたリスク認識型人間モデルを採用し、ロボットが人間-ロボット相互作用(HRI)の間、このモデルを活用できるようにする。 ユーザ研究では,リスク認識モデルがより正確にヒトの最適行動を予測することを裏付ける証拠を提供する。 これにより、モデリング精度が向上し、より安全で効率的な人間ロボットコラボレーションが実現される。 全体として、既存の合理的な人間モデルを拡張して、協調ロボットがHRI中に最適な人間の行動を予測し、計画することができるようにします。

In order to collaborate safely and efficiently, robots need to anticipate how their human partners will behave. Some of today's robots model humans as if they were also robots, and assume users are always optimal. Other robots account for human limitations, and relax this assumption so that the human is noisily rational. Both of these models make sense when the human receives deterministic rewards: i.e., gaining either $100 or $130 with certainty. But in real world scenarios, rewards are rarely deterministic. Instead, we must make choices subject to risk and uncertainty--and in these settings, humans exhibit a cognitive bias towards suboptimal behavior. For example, when deciding between gaining $100 with certainty or $130 only 80% of the time, people tend to make the risk-averse choice--even though it leads to a lower expected gain! In this paper, we adopt a well-known Risk-Aware human model from behavioral economics called Cumulative Prospect Theory and enable robots to leverage this model during human-robot interaction (HRI). In our user studies, we offer supporting evidence that the Risk-Aware model more accurately predicts suboptimal human behavior. We find that this increased modeling accuracy results in safer and more efficient human-robot collaboration. Overall, we extend existing rational human models so that collaborative robots can anticipate and plan around suboptimal human behavior during HRI.
翻訳日:2023-01-11 23:45:04 公開日:2020-01-13
# 意思決定におけるニューラルダイナミクスの統一と一般化

Unifying and generalizing models of neural dynamics during decision-making ( http://arxiv.org/abs/2001.04571v1 )

ライセンス: Link先を確認
David M. Zoltowski, Jonathan W. Pillow, and Scott W. Linderman(参考訳) システムと計算神経科学における公然の疑問は、神経回路が決定に対してどのように証拠を蓄積するかである。 意思決定理論のモデルが神経活動に適合することは、この質問に答えるのに役立つが、現在のアプローチでは、神経データに適合するモデルの数を制限することができる。 本稿では,意思決定作業中の神経活動モデリングのための統一フレームワークを提案する。 このフレームワークは標準ドリフト拡散モデルを含み、多次元アキュミュレータ、可変および崩壊境界、離散ジャンプなどの拡張を可能にする。 我々のフレームワークは、連続状態空間モデルのパラメータを制約することに基づいており、スケーラブルなラプラスEM推論アルゴリズムを導入する。 2つの意思決定課題においてサル頭頂皮質から記録されたスパイキング反応にモデリングアプローチを適用した。 2次元アキュムレータは1つのアキュムレータモデルよりも1つの頭頂ニューロンの試行平均応答をよりよく捉えた。 次に、ランダムなドット運動タスク中に、リップニューロンの応答における可変下界を同定した。

An open question in systems and computational neuroscience is how neural circuits accumulate evidence towards a decision. Fitting models of decision-making theory to neural activity helps answer this question, but current approaches limit the number of these models that we can fit to neural data. Here we propose a unifying framework for modeling neural activity during decision-making tasks. The framework includes the canonical drift-diffusion model and enables extensions such as multi-dimensional accumulators, variable and collapsing boundaries, and discrete jumps. Our framework is based on constraining the parameters of recurrent state-space models, for which we introduce a scalable variational Laplace-EM inference algorithm. We applied the modeling approach to spiking responses recorded from monkey parietal cortex during two decision-making tasks. We found that a two-dimensional accumulator better captured the trial-averaged responses of a set of parietal neurons than a single accumulator model. Next, we identified a variable lower boundary in the responses of an LIP neuron during a random dot motion task.
翻訳日:2023-01-11 23:44:41 公開日:2020-01-13
# アンタングル表現を用いた高忠実合成

High-Fidelity Synthesis with Disentangled Representation ( http://arxiv.org/abs/2001.04296v1 )

ライセンス: Link先を確認
Wonkwang Lee, Donggyun Kim, Seunghoon Hong, Honglak Lee(参考訳) 教師なしでデータの絡み合った表現を学ぶことは、生成モデルの解釈可能性を改善するための重要なステップである。 異種表現学習の最近の進歩にもかかわらず、既存のアプローチは、しばしば表現学習と世代パフォーマンスのトレードオフ(つまり、世代品質の向上は異種表現学習のパフォーマンスを犠牲にする)に苦しむ。 本稿では,既存の非交叉学習モデルと高忠実合成モデルを簡単に組み込んだ簡易かつ汎用的なフレームワークID-GANを提案する。 提案手法は, VAEモデルを用いて非交叉表現を学習し, 高忠実度合成のためのGAN生成器に追加のニュアンス変数で学習表現を蒸留する。 両方の生成モデルが同じ生成因子をレンダリングするように調整するために、学習した潜在コードと出力の間の相互情報を最大化するために、GANジェネレータをさらに制約する。 単純さにもかかわらず,提案手法は高効率であり,不整合表現を用いた最先端の手法に匹敵する画質を実現する。 また,提案する分解により,効率良く安定なモデル設計が可能となることを示すとともに,画像合成結果(1024×1024ピクセル)を不等角表現を用いて初めて実証する。

Learning disentangled representation of data without supervision is an important step towards improving the interpretability of generative models. Despite recent advances in disentangled representation learning, existing approaches often suffer from the trade-off between representation learning and generation performance i.e. improving generation quality sacrifices disentanglement performance). We propose an Information-Distillation Generative Adversarial Network (ID-GAN), a simple yet generic framework that easily incorporates the existing state-of-the-art models for both disentanglement learning and high-fidelity synthesis. Our method learns disentangled representation using VAE-based models, and distills the learned representation with an additional nuisance variable to the separate GAN-based generator for high-fidelity synthesis. To ensure that both generative models are aligned to render the same generative factors, we further constrain the GAN generator to maximize the mutual information between the learned latent code and the output. Despite the simplicity, we show that the proposed method is highly effective, achieving comparable image generation quality to the state-of-the-art methods using the disentangled representation. We also show that the proposed decomposition leads to an efficient and stable model design, and we demonstrate photo-realistic high-resolution image synthesis results (1024x1024 pixels) for the first time using the disentangled representations.
翻訳日:2023-01-11 23:43:46 公開日:2020-01-13
# attentionanatomy: 複数の部分注釈データセットを用いたリスクセグメンテーションにおける全身臓器統一フレームワーク

AttentionAnatomy: A unified framework for whole-body organs at risk segmentation using multiple partially annotated datasets ( http://arxiv.org/abs/2001.04446v1 )

ライセンス: Link先を確認
Shanlin Sun, Yang Liu, Narisu Bai, Hao Tang, Xuming Chen, Qian Huang, Yong Liu, Xiaohui Xie(参考訳) CT(Computed tomography)におけるOAR(Organs-at-risk)記述は,放射線治療(RT)計画において重要なステップである。 近年,人体(頭頸部,胸部,腹部)の分離領域において,深層学習に基づくOAR記述法が提案され,臨床実践に応用されている。 しかしながら、既存のデータセットは部分的にあるいは完全に注釈付けされていないため、エンドツーエンドのOARに関する研究はほとんどない。 本稿では,提案するエンドツーエンド畳み込みニューラルネットワークモデルである \textbf{attentionanatomy} を3つの部分注釈データセットで共同学習し,全身からオールを分割する。 私たちの主な貢献は 1) セグメンテーションブランチ出力を変調する身体領域ラベルにより暗黙的に誘導される注意モジュール 2 入力画像の事前情報を利用して、部分アノテーション(HPA)問題に対処する予測再校正操作 3) バッチダイス損失と空間バランス焦点損失を組み合わせた新しいハイブリッド損失関数により, 臓器サイズ不均衡が軽減される。 その結果,S{\o}rensen-Dice係数(DSC)とHausdorff距離(95%)はベースラインモデルと比較して有意に改善した。

Organs-at-risk (OAR) delineation in computed tomography (CT) is an important step in Radiation Therapy (RT) planning. Recently, deep learning based methods for OAR delineation have been proposed and applied in clinical practice for separate regions of the human body (head and neck, thorax, and abdomen). However, there are few researches regarding the end-to-end whole-body OARs delineation because the existing datasets are mostly partially or incompletely annotated for such task. In this paper, our proposed end-to-end convolutional neural network model, called \textbf{AttentionAnatomy}, can be jointly trained with three partially annotated datasets, segmenting OARs from whole body. Our main contributions are: 1) an attention module implicitly guided by body region label to modulate the segmentation branch output; 2) a prediction re-calibration operation, exploiting prior information of the input images, to handle partial-annotation(HPA) problem; 3) a new hybrid loss function combining batch Dice loss and spatially balanced focal loss to alleviate the organ size imbalance problem. Experimental results of our proposed framework presented significant improvements in both S{\o}rensen-Dice coefficient (DSC) and 95\% Hausdorff distance compared to the baseline model.
翻訳日:2023-01-11 23:43:22 公開日:2020-01-13
# 単一画像からの180度露光

180-degree Outpainting from a Single Image ( http://arxiv.org/abs/2001.04568v1 )

ライセンス: Link先を確認
Zhenqiang Ying and Alan Bovik(参考訳) 周囲の視覚にコンテキストイメージを提示することは、没入型視覚体験を高める最も効果的な手法の1つである。 しかし、ほとんどの画像は、標準カメラの視野(FoV)が小さいため、狭い視野しか示さない。 この制限を克服するために,狭視野画像から180{\deg}パノラマ画像を予測する深層学習手法を提案する。 具体的には,周辺地域と中周辺地域で異なる戦略を適用したファブリックフレームワークを設計する。 2つのネットワークを個別に訓練し、その後、90{\deg 生成と90{\deg から180{\deg 生成を順次実行するために共同で使用される。 生成された出力は、アライメントされた入力と融合して、表示のために拡張された等角形画像を生成する。 実験の結果,深層学習を用いた単一ビュー・パノラマ画像生成は実現可能かつ有望であることがわかった。

Presenting context images to a viewer's peripheral vision is one of the most effective techniques to enhance immersive visual experiences. However, most images only present a narrow view, since the field-of-view (FoV) of standard cameras is small. To overcome this limitation, we propose a deep learning approach that learns to predict a 180{\deg} panoramic image from a narrow-view image. Specifically, we design a foveated framework that applies different strategies on near-periphery and mid-periphery regions. Two networks are trained separately, and then are employed jointly to sequentially perform narrow-to-90{\deg} generation and 90{\deg}-to-180{\deg} generation. The generated outputs are then fused with their aligned inputs to produce expanded equirectangular images for viewing. Our experimental results show that single-view-to-panoramic image generation using deep learning is both feasible and promising.
翻訳日:2023-01-11 23:42:57 公開日:2020-01-13
# 条件付き自動走行における感情的ヴァレンスと覚醒が乗っ取り性能に及ぼす影響の検討

Examining the Effects of Emotional Valence and Arousal on Takeover Performance in Conditionally Automated Driving ( http://arxiv.org/abs/2001.04509v1 )

ライセンス: Link先を確認
Na Du, Feng Zhou, Elizabeth Pulver, Dawn M. Tilbury, Lionel P. Robert, Anuj K. Pradhan, X. Jessie Yang(参考訳) 条件付き自動運転では、運転者が運転レベルから切り離されていくにつれて、乗換遷移が困難になる。 テイクオーバのリードタイムや非運転関連タスクの関与など、テイクオーバのパフォーマンスに影響する要因を過去に研究してきた。 しかしながら、感情が人間と機械の相互作用や手動運転で果たす重要な役割にもかかわらず、感情がドライバーの乗っ取りパフォーマンスにどのように影響するかはほとんど分かっていない。 そこで本研究では,条件付き自動走行におけるドライバーの乗っ取り時間と品質に及ぼす感情的ヴァレンスと覚醒の影響について検討した。 32名を対象に運転シミュレーション実験を行った。 映画のクリップは感情誘導のために再生された。 自動走行から制御を乗っ取るためには,感情価と覚醒のレベルが異なる参加者が必要であり,その乗っ取り時間と品質を分析した。 その結果, 正価は, より小さい最大加速度, より小さい最大速度の形で, より優れた乗っ取り品質をもたらすことがわかった。 しかし、高い覚醒は乗っ取り時間では有利ではなかった。 本研究は,感情的ヴァレンスと覚醒が乗っ取りパフォーマンスにどのように影響するかを示すことにより,文献に寄与する。 ポジティブな感情の利点は、手動運転から条件付き自動運転まで続くが、覚醒の利点はそうではない。

In conditionally automated driving, drivers have difficulty in takeover transitions as they become increasingly decoupled from the operational level of driving. Factors influencing takeover performance, such as takeover lead time and the engagement of non-driving related tasks, have been studied in the past. However, despite the important role emotions play in human-machine interaction and in manual driving, little is known about how emotions influence drivers takeover performance. This study, therefore, examined the effects of emotional valence and arousal on drivers takeover timeliness and quality in conditionally automated driving. We conducted a driving simulation experiment with 32 participants. Movie clips were played for emotion induction. Participants with different levels of emotional valence and arousal were required to take over control from automated driving, and their takeover time and quality were analyzed. Results indicate that positive valence led to better takeover quality in the form of a smaller maximum resulting acceleration and a smaller maximum resulting jerk. However, high arousal did not yield an advantage in takeover time. This study contributes to the literature by demonstrating how emotional valence and arousal affect takeover performance. The benefits of positive emotions carry over from manual driving to conditionally automated driving while the benefits of arousal do not.
翻訳日:2023-01-11 23:41:23 公開日:2020-01-13
# 終末訓練されたシームズネットワークとグループ畳み込みを用いたアルゴノートの集団神経活動予測

Predicting population neural activity in the Algonauts challenge using end-to-end trained Siamese networks and group convolutions ( http://arxiv.org/abs/2001.05841v1 )

ライセンス: Link先を確認
Georgin Jacob, Harish Katti(参考訳) Algonautsの課題は、視覚脳領域から派生したRepresentational Dissimilarity Matrices(RDMS)の形でオブジェクト表現を予測することである。 siameseネットワークとグループ畳み込みの概念を用いて、画像対に対応する神経距離を予測するために、カスタマイズされたディープラーニングモデルを用いた。 トレーニングデータは、最前層で計算された距離によって最もよく説明される。

The Algonauts challenge is about predicting the object representations in the form of Representational Dissimilarity Matrices (RDMS) derived from visual brain regions. We used a customized deep learning model using the concept of Siamese networks and group convolutions to predict neural distances corresponding to a pair of images. Training data was best explained by distances computed over the last layer.
翻訳日:2023-01-11 23:34:20 公開日:2020-01-13
# 製品開発のための顧客製品レビューのマイニング:要約プロセス

Mining customer product reviews for product development: A summarization process ( http://arxiv.org/abs/2001.04200v1 )

ライセンス: Link先を確認
Tianjun Hou (LGI), Bernard Yannou (LGI), Yann Leroy, Emilie Poirson (IRCCyN)(参考訳) 本研究は,製品開発を指導するための顧客の好むことや嫌悪に関連する言葉や表現を,オンラインレビューから識別し,構造化することを目的とした。 以前の手法は主に製品機能に重点を置いていた。 しかし、レビュアーは製品機能だけでなく好みも表現している。 本稿では,デザイン科学における広範な文献レビューに基づき,製品価格,感情,使用状況などのユーザ嗜好の多面性を含む要約モデルを提案する。 一方、これらの嗜好の側面を記述した言語パターンが発見され、注釈ガイドラインとして作成される。 ケーススタディでは、提案したモデルとアノテーションガイドラインにより、人間のアノテーションは、高信頼度でオンラインレビューを構造化できることを示した。 自然言語処理によるオンラインレビュー要約プロセスの自動化には,高いアグリゲーション・ヒューマンアノテーションが不可欠であるため,本研究は自動化の今後の研究のための資料を提供する。

This research set out to identify and structure from online reviews the words and expressions related to customers' likes and dislikes to guide product development. Previous methods were mainly focused on product features. However, reviewers express their preference not only on product features. In this paper, based on an extensive literature review in design science, the authors propose a summarization model containing multiples aspects of user preference, such as product affordances, emotions, usage conditions. Meanwhile, the linguistic patterns describing these aspects of preference are discovered and drafted as annotation guidelines. A case study demonstrates that with the proposed model and the annotation guidelines, human annotators can structure the online reviews with high inter-agreement. As high inter-agreement human annotation results are essential for automatizing the online review summarization process with the natural language processing, this study provides materials for the future study of automatization.
翻訳日:2023-01-11 23:34:11 公開日:2020-01-13
# 視覚障害者がどの経路情報を転送せずに量子干渉を緩和する

Blind witnesses quench quantum interference without transfer of which-path information ( http://arxiv.org/abs/2001.04403v1 )

ライセンス: Link先を確認
Craig S. Lent(参考訳) 2分岐量子干渉デバイスの基本挙動をモデル化する。 量子干渉の振動は、経路を通る磁束が変化するため、出力で見ることができる。 複数の証人システムは各ブランチにフィールド結合される。 それぞれの証人状態はデバイス状態と絡み合っているが、我々の"em blind"では、どのパス情報が目撃者の量子状態へ転送されないかが分かる。 しかし、これらの最小限の証人の存在は急速に量子干渉を緩和する。 したがって、証人のどのパス情報がデコヒーレンスに不可欠なのかを記入するものではなく、単に証人を含む大きなヒルベルト空間に装置の自由度を埋め込む絡み合いである。 干渉可視性の喪失は、より大きな状態空間を通る異なる経路からの位相キャンセルの結果である。

We model the fundamental behavior of a two-branch quantum interference device. Quantum interference oscillations are visible in the output as the magnetic flux through the paths is varied. Multiple witness systems are field-coupled to each branch. Each witness state entangles with the device state, but for our {\em blind} witnesses which-path information is not transferred to the quantum state of witnesses--they cannot "see" or make a record of which path is traversed. Yet the presence of these minimal witnesses rapidly quenches quantum interference. Thus, it is not the imprinting of which-path information in the witness states that is essential for decoherence, but simply the entanglement that embeds the device degrees of freedom in the larger Hilbert space that includes the witnesses. The loss of interference visibility can be understood as the result of phase cancellations from different paths through the larger state space.
翻訳日:2023-01-11 23:33:10 公開日:2020-01-13
# 対称状態の量子限界問題:変分最適化、非局所性、自己テストへの応用

The quantum marginal problem for symmetric states: applications to variational optimization, nonlocality and self-testing ( http://arxiv.org/abs/2001.04440v1 )

ライセンス: Link先を確認
Albert Aloy, Matteo Fadel, Jordi Tura(参考訳) 本稿では,対称$d$レベルのシステムに対する量子境界問題の解法を提案する。 この方法は、対称空間に支持される大域的にn$-body密度行列を持つ、m$-body reduced densityの互換性条件を決定する効率的な半定義プログラムに基づいている。 量子情報中心問題における本手法の適用性について,いくつかの事例研究で概説する。 つまり (i)対称状態に対して局所ハミルトニアンを最適化するための高速変分アンサッツ (ii)対称なベル作用素を対称状態上で最適化する方法、及び (iii) 最小の可観測量からどの対称状態が自己テストできないかを決定するための十分条件の組。 我々の発見の副産物として、$n$-qubit Dicke状態の任意の重ね合わせと、結合次元$n$の変換不変な対角行列積状態の間の一般的な解析的対応も提供する。

In this paper, we present a method to solve the quantum marginal problem for symmetric $d$-level systems. The method is built upon an efficient semi-definite program that determines the compatibility conditions of an $m$-body reduced density with a global $n$-body density matrix supported on the symmetric space. We illustrate the applicability of the method in central quantum information problems with several exemplary case studies. Namely, (i) a fast variational ansatz to optimize local Hamiltonians over symmetric states, (ii) a method to optimize symmetric, few-body Bell operators over symmetric states and (iii) a set of sufficient conditions to determine which symmetric states cannot be self-tested from few-body observables. As a by-product of our findings, we also provide a generic, analytical correspondence between arbitrary superpositions of $n$-qubit Dicke states and translationally-invariant diagonal matrix product states of bond dimension $n$.
翻訳日:2023-01-11 23:32:57 公開日:2020-01-13
# 外部波動関数と内部波動関数:ド・ブロイの二重解理論?

External and internal wave functions: de Broglie's double-solution theory? ( http://arxiv.org/abs/2001.04807v1 )

ライセンス: Link先を確認
Michel Gondran (AEIS), Alexandre Gondran (ENAC)(参考訳) 本稿ではルイ・ド・ブロイの二重解理論の仕様に対応する量子力学の解釈枠組みを提案する。 原理は、量子系の進化を2つの波動関数に分解することである:質量中心の進化に対応する外部波動関数と、質量中心系における内部変数の進化に対応する内部波動関数である。 数学的分解は、これらの2つの部分を結ぶ多くの相互作用があるため、特定の場合のみ可能である。 さらに、これらの2つの波動関数は異なる意味と解釈を持つ。 外部波動関数は量子系の質量の中心を「パイロット」し、ブログリエのパイロット波に対応する。 プランク定数がゼロになる傾向があるとき、モジュールの平方数の収束と外部波動関数の位相から密度とハミルトン・ヤコビ統計方程式を検証する古典的な作用から数学的に得られる。 この解釈は、干渉、スピン測定(stern and gerlach)および非局所性(epr-b)実験によって得られた全ての測定結果を説明する。 内部波動関数については、いくつかの解釈が可能であり、パイロット波の1つは内部波動関数にカスケードで適用することができる。 しかし、1927年にソルヴェイ会議においてアーウィン・シュル{\「o}dingerによって提案され、内部波動関数に制限された解釈も可能である。 Schr{\"o} ディンガーの場合、粒子は拡張され、電子の(内部)波動関数の加群の正方形はその空間における電荷の密度に対応する。 我々は、パイロット波の解釈が現実的で決定論的であるように、この解釈を支持する多くの議論を提示する。 最後に、この二重解釈は、量子力学の解釈に関する議論をよりよく理解し、重力と量子力学の関係をレビューするための参照の枠組みとなることが分かる。

We propose an interpretative framework for quantum mechanics corresponding to the specifications of Louis de Broglie's double-solution theory. The principle is to decompose the evolution of a quantum system into two wave functions: an external wave function corresponding to the evolution of its center of mass and an internal wave function corresponding to the evolution of its internal variables in the center-of-mass system. Mathematical decomposition is only possible in certain cases because there are many interactions linking these two parts. In addition, these two wave functions will have different meanings and interpretations. The external wave function "pilots" the center of mass of the quantum system: it corresponds to the Broglie pilot wave. When the Planck constant tends to zero, it results mathematically from the convergence of the square of the module and the phase of the external wave function to a density and a classical action verifying the Hamilton-Jacobi statistical equations. This interpretation explains all the measurement results, namely those yielded by interference, spin measurement (Stern and Gerlach) and non-locality (EPR-B) experiments. For the internal wave function, several interpretations are possible : the one of the pilot wave can be applied in cascade to the internal wave function. However, the interpretation proposed by Erwin Schr{\"o}dinger at the Solvay Congress in 1927 and restricted to the internal wave function is also possible. For Schr{\"o}dinger, the particles are extended and the square of the module of the (internal) wave function of an electron corresponds to the density of its charge in space. We present many arguments in favour of this interpretation, which like the pilot wave interpretation is realistic and deterministic. Finally, we will see that this double interpretation serves as a frame of reference by which to better understand the debates on the interpretation of quantum mechanics and to review the relationships between gravity and quantum mechanics.
翻訳日:2023-01-11 23:32:28 公開日:2020-01-13
# 規則の融合によるオントロジーの融合

Merging of Ontologies Through Merging of Their Rules ( http://arxiv.org/abs/2001.04326v1 )

ライセンス: Link先を確認
Olegs Verhodubs(参考訳) オントロジーの融合は重要だが、必ずしも効果的ではない。 オントロジマージが効果的でない主な理由は、オントロジマージが目標を考慮せずに行われるためである。 ゴールは、オントロジーをより効果的にマージする方法を定義する。 本論文は,これらのオントロジーから生成される規則によるオントロジーの融合について述べる。 これは専門家システムでの使用に必要です。

Ontology merging is important, but not always effective. The main reason, why ontology merging is not effective, is that ontology merging is performed without considering goals. Goals define the way, in which ontologies to be merged more effectively. The paper illustrates ontology merging by means of rules, which are generated from these ontologies. This is necessary for further use in expert systems.
翻訳日:2023-01-11 23:31:55 公開日:2020-01-13
# 特徴抽出手法を用いた手書き文字認識

Handwritten Character Recognition Using Unique Feature Extraction Technique ( http://arxiv.org/abs/2001.04208v1 )

ライセンス: Link先を確認
Sai Abhishikth Ayyadevara, P N V Sai Ram Teja, Bharath K P, Rajesh Kumar M(参考訳) 画像処理における最も困難な領域の1つは手書き文字認識である。 本稿では,幾何学的,ゾーンベースハイブリッド,勾配特徴抽出アプローチと,バックプロパゲーションアルゴリズム(MLP BP)を用いた多層パーセプトロンネットワークと,Levenberg-Marquardtアルゴリズム(MLP LM)を用いた多層パーセプトロンネットワークと,最小距離分類器(MDC)とともに実装された畳み込みニューラルネットワーク(CNN)を組み合わせた特徴抽出手法を提案する。 この手法は,提案する特徴抽出アルゴリズムが個々の特徴抽出アルゴリズムよりも精度が高く,畳み込みニューラルネットワークが考慮される3つのニューラルネットワークの中で最も効率的であることを示す。

One of the most arduous and captivating domains under image processing is handwritten character recognition. In this paper we have proposed a feature extraction technique which is a combination of unique features of geometric, zone-based hybrid, gradient features extraction approaches and three different neural networks namely the Multilayer Perceptron network using Backpropagation algorithm (MLP BP), the Multilayer Perceptron network using Levenberg-Marquardt algorithm (MLP LM) and the Convolutional neural network (CNN) which have been implemented along with the Minimum Distance Classifier (MDC). The procedures lead to the conclusion that the proposed feature extraction algorithm is more accurate than its individual counterparts and also that Convolutional Neural Network is the most efficient neural network of the three in consideration.
翻訳日:2023-01-11 23:25:31 公開日:2020-01-13
# 非テクスチャ画像におけるGRNNのラジアル解析

Radial Based Analysis of GRNN in Non-Textured Image Inpainting ( http://arxiv.org/abs/2001.04215v1 )

ライセンス: Link先を確認
Karthik R, Anvita Dwivedi, Haripriya M, Bharath K P, Rajesh Kumar M(参考訳) 画像塗装アルゴリズムは、周囲の情報に基づいて画像の損傷または欠落した情報領域を復元するために使用される。 本稿では,GRNN画像のラジアル解析を応用した手法を提案する。 損傷した地域はまず他の地域から隔離され、その後サイズで配置され、grnnで塗装される。 ニューラルネットワークのトレーニングは、より良い結果を得るために異なるradiiを使用して行われる。 異なる回帰に基づくアルゴリズムの比較分析を行う。 結果は、PSNR値を参照して、LS-SVMとして他のアルゴリズムが達成した結果と比較される。

Image inpainting algorithms are used to restore some damaged or missing information region of an image based on the surrounding information. The method proposed in this paper applies the radial based analysis of image inpainting on GRNN. The damaged areas are first isolated from rest of the areas and then arranged by their size and then inpainted using GRNN. The training of the neural network is done using different radii to achieve a better outcome. A comparative analysis is done for different regression-based algorithms. The overall results are compared with the results achieved by the other algorithms as LS-SVM with reference to the PSNR value.
翻訳日:2023-01-11 23:25:13 公開日:2020-01-13
# 正規分解空間における多次元データの階層的モデリング:合成と展望

Hierarchical Modeling of Multidimensional Data in Regularly Decomposed Spaces: Synthesis and Perspective ( http://arxiv.org/abs/2001.04322v1 )

ライセンス: Link先を確認
Olivier Guye(参考訳) この4番目と最後のトームは、前回のトームで提示されたプロジェクトのための構想された作品の記述に焦点を当てている。 MPEG-4とMPEG-7の標準ボディを橋渡ししようとする、静止画と移動画のコーディングに特化した新しいアプローチに関するものだ。 このプロジェクトの目的は、自己記述型ビデオコーディングの原則を定義することである。 画像分割,視覚記述子の計算,知覚的グルーピングの計算,視覚辞書の構築,画像と映像の符号化という,視覚的コーディングの新たなアプローチを開発するための様々な構想されたテクニックを記述した5つの章で構成されている。 マルチレゾリューション・コンピューティングの手法に基づき,フレーム上の属性を計算し,画像平面内で発生する幾何学的変換とは独立して,部分的隠蔽パターンの認識を可能にするために,部分的正規成分からなる画像分割を開発することを提案する。 形状のベクトル量子化とレンダリングにより、単純な形状を視覚的アルファベットと比較し、複雑な形状をこのアルファベットを使って書かれた単語にし、辞書に記録するように見える。 図形に最も近い近傍スキャンを施すことで、自己記述的符号化は、単純な字形アルファベットを使って書かれた単語から作られた文を生成する。

This fourth and last tome is focusing on describing the envisioned works for a project that has been presented in the preceding tome. It is about a new approach dedicated to the coding of still and moving pictures, trying to bridge the MPEG-4 and MPEG-7 standard bodies. The aim of this project is to define the principles of self-descriptive video coding. In order to establish them, the document is composed in five chapters that describe the various envisioned techniques for developing such a new approach in visual coding: - image segmentation, - computation of visual descriptors, - computation of perceptual groupings, - building of visual dictionaries, - picture and video coding. Based on the techniques of multiresolution computing, it is proposed to develop an image segmentation made from piecewise regular components, to compute attributes on the frame and the rendering of so produced shapes, independently to the geometric transforms that can occur in the image plane, and to gather them into perceptual groupings so as to be able in performing recognition of partially hidden patterns. Due to vector quantization of shapes frame and rendering, it will appear that simple shapes may be compared to a visual alphabet and that complex shapes then become words written using this alphabet and be recorded into a dictionary. With the help of a nearest neighbour scanning applied on the picture shapes, the self-descriptive coding will then generate a sentence made from words written using the simple shape alphabet.
翻訳日:2023-01-11 23:25:05 公開日:2020-01-13
# ディープラーニングを用いた可変データ印刷のための新しい検査システム

A Novel Inspection System For Variable Data Printing Using Deep Learning ( http://arxiv.org/abs/2001.04325v1 )

ライセンス: Link先を確認
Oren Haik, Oded Perry, Eli Chen, Peter Klammer(参考訳) 本稿では,超低い誤報率 (0.005%) を持つ可変データプリント (vdp) を検査する新しい手法を提案する。 このシステムは2つの画像(参照画像と低コストスキャナーでキャプチャされた画像)の比較に基づいている。 この比較作業は、低コストなイメージングシステムが、誤って真の(遺伝的)欠陥として分類されるアーティファクトを作成するため、難しい。 この課題に対処するために、変更検出アプリケーションのための2つの新しい融合方法を紹介します。 1つ目は、2つの入力画像を単一の擬似カラー画像に結合する早期融合法である。 2つ目は、CD-SSD(Change-Detection Single Shot Detector)と呼ばれ、ネットワークの中央に機能を融合させることでSSDを活用する。 実世界の印刷シナリオから得られた膨大なデータセットを用いて,提案手法の有効性を示す。 最後に,航空画像変化検出(AICD)の異なる領域におけるモデルの評価を行った。 我々の最良の方法は、このデータセットの最先端のベースラインよりも明らかに優れている。

We present a novel approach for inspecting variable data prints (VDP) with an ultra-low false alarm rate (0.005%) and potential applicability to other real-world problems. The system is based on a comparison between two images: a reference image and an image captured by low-cost scanners. The comparison task is challenging as low-cost imaging systems create artifacts that may erroneously be classified as true (genuine) defects. To address this challenge we introduce two new fusion methods, for change detection applications, which are both fast and efficient. The first is an early fusion method that combines the two input images into a single pseudo-color image. The second, called Change-Detection Single Shot Detector (CD-SSD) leverages the SSD by fusing features in the middle of the network. We demonstrate the effectiveness of the proposed deep learning-based approach with a large dataset from real-world printing scenarios. Finally, we evaluate our models on a different domain of aerial imagery change detection (AICD). Our best method clearly outperforms the state-of-the-art baseline on this dataset.
翻訳日:2023-01-11 23:24:42 公開日:2020-01-13
# 単一ショットにおける相互作用するすべてのペアの分類

Classifying All Interacting Pairs in a Single Shot ( http://arxiv.org/abs/2001.04360v1 )

ライセンス: Link先を確認
Sanaa Chafik and Astrid Orcesi and Romaric Audigier and Bertrand Luvison(参考訳) 本稿では,人間と物体の相互作用を分類する CALIPSO (Classifying ALl Interacting Pairs in a Single shOt) に基づく,新しいヒューマンインタラクション検出手法を提案する。 この新しいシングルショットインタラクション分類器は、その数とクラスに関係なく、すべてのオブジェクト対のインタラクションを同時に見積もる。 最先端のアプローチでは、人間と対象の候補ペアのペアの相互作用のペアワイズ推定に基づくマルチショット戦略を採用しており、少なくとも相互作用の数や、少なくとも候補ペアの数によっては複雑さが生じる。 対照的に,提案手法では画像全体の相互作用を推定する。 実際、画像全体を通して単一のフォワードパスを実行することで、すべての被写体と対象物の相互作用を同時に推定する。 その結果、画像内の被写体、オブジェクト、相互作用の数によらず、一定の複雑さと計算時間が生じる。 詳細は、3つの相補的なタスクを同時に学習する連立マルチタスクネットワークにより、アンカーの格子上での相互作用分類が達成される。 (i)相互作用の種類を予測すること。 (ii)対象物の有無の推定と (iii)計量学習戦略を用いて、相互作用対象を同一表現にマッピングした埋め込みの学習。 さらに,オブジェクト中心の受動音声の動詞推定を導入し,結果を大幅に改善する。 V-COCOとHICO-DETの2つのよく知られたヒューマン・オブジェクト・インタラクション・イメージ・データセットの評価は、画像内のオブジェクトの数や相互作用によらず一定の計算時間を持ちながら、提案手法(第2位)の競争力を示す。

In this paper, we introduce a novel human interaction detection approach, based on CALIPSO (Classifying ALl Interacting Pairs in a Single shOt), a classifier of human-object interactions. This new single-shot interaction classifier estimates interactions simultaneously for all human-object pairs, regardless of their number and class. State-of-the-art approaches adopt a multi-shot strategy based on a pairwise estimate of interactions for a set of human-object candidate pairs, which leads to a complexity depending, at least, on the number of interactions or, at most, on the number of candidate pairs. In contrast, the proposed method estimates the interactions on the whole image. Indeed, it simultaneously estimates all interactions between all human subjects and object targets by performing a single forward pass throughout the image. Consequently, it leads to a constant complexity and computation time independent of the number of subjects, objects or interactions in the image. In detail, interaction classification is achieved on a dense grid of anchors thanks to a joint multi-task network that learns three complementary tasks simultaneously: (i) prediction of the types of interaction, (ii) estimation of the presence of a target and (iii) learning of an embedding which maps interacting subject and target to a same representation, by using a metric learning strategy. In addition, we introduce an object-centric passive-voice verb estimation which significantly improves results. Evaluations on the two well-known Human-Object Interaction image datasets, V-COCO and HICO-DET, demonstrate the competitiveness of the proposed method (2nd place) compared to the state-of-the-art while having constant computation time regardless of the number of objects and interactions in the image.
翻訳日:2023-01-11 23:24:25 公開日:2020-01-13
# 深層ニューラルネットワークを用いた水泳自動分析

Towards Automated Swimming Analytics Using Deep Neural Networks ( http://arxiv.org/abs/2001.04433v1 )

ライセンス: Link先を確認
Timothy Woinoski and Alon Harell and Ivan V. Bajic(参考訳) 本稿では,プール規模での水泳分析の収集を自動化するシステムの構築について考察する。 スイマー追跡や機械学習のためのスイマーデータベースの作成など、多くの作業は行われていない。 その結果、水泳競技のビデオから水泳データを収集する方法を探索し、分析した。 その結果,スイマー検出・追跡システムの訓練に適した総合的な水泳データ収集のガイドとなる。 このデータベースを組み込むことで、水泳分析の収集を自動化するシステムを構築することができる。

Methods for creating a system to automate the collection of swimming analytics on a pool-wide scale are considered in this paper. There has not been much work on swimmer tracking or the creation of a swimmer database for machine learning purposes. Consequently, methods for collecting swimmer data from videos of swim competitions are explored and analyzed. The result is a guide to the creation of a comprehensive collection of swimming data suitable for training swimmer detection and tracking systems. With this database in place, systems can then be created to automate the collection of swimming analytics.
翻訳日:2023-01-11 23:23:43 公開日:2020-01-13
# 物語中のアンカーワード埋め込みを予測するビジュアルストーリーテリング

Visual Storytelling via Predicting Anchor Word Embeddings in the Stories ( http://arxiv.org/abs/2001.04541v1 )

ライセンス: Link先を確認
Bowen Zhang, Hexiang Hu, Fei Sha(参考訳) 視覚的ストーリーテリングの課題に対する学習モデルを提案する。 主なアイデアは、画像からアンカー単語の埋め込みを予測し、埋め込みと画像特徴を併用して物語文を生成することである。 本研究では,対象単語の埋め込みとして,実話からランダムにサンプリングした名詞の埋め込みを用いて予測子を学習する。 画像のシーケンスをナレーションするために、予測されたアンカーワード埋め込みと画像特徴をseq2seqモデルへのジョイント入力として使用する。 最先端の手法とは対照的に,提案手法は設計がシンプルで,最適化が容易で,ほとんどの自動評価指標で最高の結果が得られる。 人間の評価では、競合する手法よりも優れている。

We propose a learning model for the task of visual storytelling. The main idea is to predict anchor word embeddings from the images and use the embeddings and the image features jointly to generate narrative sentences. We use the embeddings of randomly sampled nouns from the groundtruth stories as the target anchor word embeddings to learn the predictor. To narrate a sequence of images, we use the predicted anchor word embeddings and the image features as the joint input to a seq2seq model. As opposed to state-of-the-art methods, the proposed model is simple in design, easy to optimize, and attains the best results in most automatic evaluation metrics. In human evaluation, the method also outperforms competing methods.
翻訳日:2023-01-11 23:23:36 公開日:2020-01-13
# 画像解析のための学習変換アウェア埋め込み

Learning Transformation-Aware Embeddings for Image Forensics ( http://arxiv.org/abs/2001.04547v1 )

ライセンス: Link先を確認
Aparna Bharati, Daniel Moreira, Patrick Flynn, Anderson Rocha, Kevin Bowyer, Walter Scheirer(参考訳) インターネット上の操作された画像コンテンツの流れの劇的な増加は、メディア法医学研究コミュニティからの積極的な反応をもたらした。 新しい取り組みでは、画像操作の空間を検出し、プロファイルするコンピュータビジョンと機械学習の技術の利用が増加した。 本稿では,コンテンツを共有する異なる画像バージョン間の関係を探索することを目的とした画像プロヴァンス解析について述べる。 証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。 オブジェクト認識などのタスクのための画像記述子を生成する既存の大規模ネットワークは、これらの画像間の微妙な違いを符号化することができない。 本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。 本手法は,複合変換とランクベースの四重項損失による弱い監督を用いて,変換認識記述子を学習する。 提案手法の有効性を確立するために,最新技術による手作りおよび深層学習に基づく記述子との比較,画像マッチング手法を提案する。 さらなる実験は、画像プロファイランス分析の文脈で提案されたアプローチを検証する。

A dramatic rise in the flow of manipulated image content on the Internet has led to an aggressive response from the media forensics research community. New efforts have incorporated increased usage of techniques from computer vision and machine learning to detect and profile the space of image manipulations. This paper addresses Image Provenance Analysis, which aims at discovering relationships among different manipulated image versions that share content. One of the main sub-problems for provenance analysis that has not yet been addressed directly is the edit ordering of images that share full content or are near-duplicates. The existing large networks that generate image descriptors for tasks such as object recognition may not encode the subtle differences between these image covariates. This paper introduces a novel deep learning-based approach to provide a plausible ordering to images that have been generated from a single image through transformations. Our approach learns transformation-aware descriptors using weak supervision via composited transformations and a rank-based quadruplet loss. To establish the efficacy of the proposed approach, comparisons with state-of-the-art handcrafted and deep learning-based descriptors, and image matching approaches are made. Further experimentation validates the proposed approach in the context of image provenance analysis.
翻訳日:2023-01-11 23:23:24 公開日:2020-01-13
# 重症心身障害児に対する関係政策学習のための予備的アプローチ

A Preliminary Approach for Learning Relational Policies for the Management of Critically Ill Children ( http://arxiv.org/abs/2001.04432v1 )

ライセンス: Link先を確認
Michael A. Skinner, Lakshmi Raman, Neel Shah, Abdelaziz Farhat, Sriraam Natarajan(参考訳) 電子カルテの利用の増加により、患者記録から医療方針を自動抽出し、臨床意思決定支援システムの開発を支援することが可能となった。 体外膜酸素療法を施行した重症心不全児の生理的パラメータ管理のための臨床病院記録から確率的ルールを学ぶために,boosted statistical relational learning (srl) フレームワークを適用した。 この予備研究では、結果は有望だった。 特に、アルゴリズムは医学的推論と整合した医療行為の論理規則を返却した。

The increased use of electronic health records has made possible the automated extraction of medical policies from patient records to aid in the development of clinical decision support systems. We adapted a boosted Statistical Relational Learning (SRL) framework to learn probabilistic rules from clinical hospital records for the management of physiologic parameters of children with severe cardiac or respiratory failure who were managed with extracorporeal membrane oxygenation. In this preliminary study, the results were promising. In particular, the algorithm returned logic rules for medical actions that are consistent with medical reasoning.
翻訳日:2023-01-11 23:16:57 公開日:2020-01-13
# 近似重み付きモデル統合のためのモンテカルロ反微分

Monte Carlo Anti-Differentiation for Approximate Weighted Model Integration ( http://arxiv.org/abs/2001.04566v1 )

ライセンス: Link先を確認
Pedro Zuidberg Dos Martires, Samuel Kolb(参考訳) ハイブリッド領域における確率的推論(すなわち離散連続領域上の推論)は、2つのよく知られた#p-ハード問題(1)〜重み付きモデルカウント(wmc)と(2)連続変数上の積分を必要とする。 これらの問題に対して、WMCの知識コンパイルや連続領域における(近似的な)統合のためのモンテカルロ(MC)メソッドといった、#Pハードネスを管理するために、推論技術が別々に開発された。 WMCのハイブリッド領域への拡張である重み付きモデル統合(WMI)は、離散変数や連続変数についても確率的推論を研究する形式として提案されている。 最近開発されたWMIソルバは、積分器のプリミティブを見つけるためにシンボリック積分に依存するWMI問題の構造を利用することに重点を置いている。 これらの進歩を最先端のモンテカルロ積分技術と組み合わせるために、抗微分のMC近似を計算する「textit{Monte Carlo anti-differentiation} (MCAD)」を導入する。 経験的評価では、既存のWMIソルバの正確なシンボリック統合バックエンドをMCADバックエンドに置き換える。 実験の結果,既存のWMIソルバにMCADを組み込むことで,高速かつ信頼性の高い近似推論方式が得られることがわかった。

Probabilistic inference in the hybrid domain, i.e. inference over discrete-continuous domains, requires tackling two well known #P-hard problems 1)~weighted model counting (WMC) over discrete variables and 2)~integration over continuous variables. For both of these problems inference techniques have been developed separately in order to manage their #P-hardness, such as knowledge compilation for WMC and Monte Carlo (MC) methods for (approximate) integration in the continuous domain. Weighted model integration (WMI), the extension of WMC to the hybrid domain, has been proposed as a formalism to study probabilistic inference over discrete and continuous variables alike. Recently developed WMI solvers have focused on exploiting structure in WMI problems, for which they rely on symbolic integration to find the primitive of an integrand, i.e. to perform anti-differentiation. To combine these advances with state-of-the-art Monte Carlo integration techniques, we introduce \textit{Monte Carlo anti-differentiation} (MCAD), which computes MC approximations of anti-derivatives. In our empirical evaluation we substitute the exact symbolic integration backend in an existing WMI solver with an MCAD backend. Our experiments show that that equipping existing WMI solvers with MCAD yields a fast yet reliable approximate inference scheme.
翻訳日:2023-01-11 23:16:50 公開日:2020-01-13
# 深部ニューラルネットワークの簡易化のためのプルーニング手法のモデル化

Modeling of Pruning Techniques for Deep Neural Networks Simplification ( http://arxiv.org/abs/2001.04062v1 )

ライセンス: Link先を確認
Morteza Mousa Pasandi, Mohsen Hajabdollahi, Nader Karimi, Shadrokh Samavi(参考訳) 畳み込みニューラルネットワーク(CNN)は、計算複雑性やパラメータの数など、さまざまな問題に悩まされている。 近年,CNNにおける操作数やモデルサイズの削減にプルーニング技術が用いられている。 接続、チャネル、フィルタのプルーニングに基づいて異なるプルーニング方法が提案されている。 様々なテクニックやトリックがプルーニングメソッドを伴い、すべてのプルーニングメソッドをモデル化する統一的なフレームワークは存在しない。 本稿では, 刈り取り法について検討し, 刈り取り技術の大部分を含む一般モデルを提案する。 刈り取り方法の利点と欠点を識別でき、これらすべてをこのモデルで要約することができる。 このモデルの最終的な目標は、異なる構造とアプリケーションを持つ全てのプラニングメソッドに対する一般的なアプローチを提供することである。

Convolutional Neural Networks (CNNs) suffer from different issues, such as computational complexity and the number of parameters. In recent years pruning techniques are employed to reduce the number of operations and model size in CNNs. Different pruning methods are proposed, which are based on pruning the connections, channels, and filters. Various techniques and tricks accompany pruning methods, and there is not a unifying framework to model all the pruning methods. In this paper pruning methods are investigated, and a general model which is contained the majority of pruning techniques is proposed. The advantages and disadvantages of the pruning methods can be identified, and all of them can be summarized under this model. The final goal of this model is to provide a general approach for all of the pruning methods with different structures and applications.
翻訳日:2023-01-11 23:16:06 公開日:2020-01-13
# 文脈的注意による自然画像のマッティング

Natural Image Matting via Guided Contextual Attention ( http://arxiv.org/abs/2001.04069v1 )

ライセンス: Link先を確認
Yaoyi Li, Hongtao Lu(参考訳) ここ数年、ディープラーニングベースのアプローチは、自然な画像マッチングにおいて顕著に改善されてきた。 これらの手法の多くは視覚的に可視なアルファ推定を生成することができるが、通常は半透明領域のぼやけた構造やテクスチャを生成する。 これは透明な物体の局所的な曖昧さによるものである。 1つの可能な解決策は、周辺情報を活用して局所的不透明度を推定することである。 従来の親和性に基づく手法は、高分解能アルファ推定には適さない高い計算複雑性に悩まされることが多い。 親和性に基づく手法と着色におけるコンテキストアテンションの成功にインスパイアされた我々は,画像マッティング用に特別に設計されたガイド付きコンテキストアテンションモジュールを用いた自然な画像マッティングのための新しいエンドツーエンドアプローチを開発した。 ガイド付きコンテキストアテンションモジュールは、学習した低レベル親和性に基づいて、グローバルに高レベル不透明情報を伝播する。 提案手法は親和性に基づく手法の情報フローを模倣し,深層ニューラルネットワークで学習した豊富な特徴を同時に利用することができる。 composition-1k test set と alphamatting.com ベンチマークデータセットの実験結果から,本手法は自然な画像マッチングにおける最先端の手法よりも優れていることが示された。 コードとモデルはhttps://github.com/Yaoyi-Li/GCA-Matting.comで入手できる。

Over the last few years, deep learning based approaches have achieved outstanding improvements in natural image matting. Many of these methods can generate visually plausible alpha estimations, but typically yield blurry structures or textures in the semitransparent area. This is due to the local ambiguity of transparent objects. One possible solution is to leverage the far-surrounding information to estimate the local opacity. Traditional affinity-based methods often suffer from the high computational complexity, which are not suitable for high resolution alpha estimation. Inspired by affinity-based method and the successes of contextual attention in inpainting, we develop a novel end-to-end approach for natural image matting with a guided contextual attention module, which is specifically designed for image matting. Guided contextual attention module directly propagates high-level opacity information globally based on the learned low-level affinity. The proposed method can mimic information flow of affinity-based methods and utilize rich features learned by deep neural networks simultaneously. Experiment results on Composition-1k testing set and alphamatting.com benchmark dataset demonstrate that our method outperforms state-of-the-art approaches in natural image matting. Code and models are available at https://github.com/Yaoyi-Li/GCA-Matting.
翻訳日:2023-01-11 23:15:53 公開日:2020-01-13
# 適応的に学習するために包括的に記憶する:マルチレベルメモリを用いた教師なしクロスドメインパーソンリid

Memorizing Comprehensively to Learn Adaptively: Unsupervised Cross-Domain Person Re-ID with Multi-level Memory ( http://arxiv.org/abs/2001.04123v1 )

ライセンス: Link先を確認
Xinyu Zhang, Dong Gong, Jiewei Cao, Chunhua Shen(参考訳) unsupervised cross-domain person re-id(re-id)はラベル付きソースドメインからラベルなしのターゲットドメインに情報を適用することを目的としている。 対象領域における監視が欠如しているため、対象領域における未標識標本間の類似性と相違性の関係を明らかにすることが重要である。 ミニバッチトレーニングでデータ関係全体を効率的に利用するために,データセット全体の最新の表現を維持するために,一連のメモリモジュールを適用する。 従来の単純なメモリとは違って,ターゲット領域における複数レベル補完情報,すなわち,部分レベルメモリ,インスタンスレベルメモリ,ドメインレベルメモリの3つのメモリモジュールに依存する新しいマルチレベルメモリネットワーク(MMN)を提案する。 提案するメモリモジュールは,対象領域のマルチレベル表現を格納し,画像間の微細な違いと全体的対象領域のグローバル構造の両方をキャプチャする。 3つのメモリモジュールは相互に補完し、下位から上位までのマルチレベル監視を体系的に統合する。 3つのデータセットの実験により、マルチレベルメモリモジュールは教師なしクロスドメインRe-IDタスクを協調的に促進し、提案したMMNは競合的な結果を得ることを示した。

Unsupervised cross-domain person re-identification (Re-ID) aims to adapt the information from the labelled source domain to an unlabelled target domain. Due to the lack of supervision in the target domain, it is crucial to identify the underlying similarity-and-dissimilarity relationships among the unlabelled samples in the target domain. In order to use the whole data relationships efficiently in mini-batch training, we apply a series of memory modules to maintain an up-to-date representation of the entire dataset. Unlike the simple exemplar memory in previous works, we propose a novel multi-level memory network (MMN) to discover multi-level complementary information in the target domain, relying on three memory modules, i.e., part-level memory, instance-level memory, and domain-level memory. The proposed memory modules store multi-level representations of the target domain, which capture both the fine-grained differences between images and the global structure for the holistic target domain. The three memory modules complement each other and systematically integrate multi-level supervision from bottom to up. Experiments on three datasets demonstrate that the multi-level memory modules cooperatively boost the unsupervised cross-domain Re-ID task, and the proposed MMN achieves competitive results.
翻訳日:2023-01-11 23:15:03 公開日:2020-01-13
# ピクセルワイズ予測による解釈可能でロバストな手検出に向けて

Towards Interpretable and Robust Hand Detection via Pixel-wise Prediction ( http://arxiv.org/abs/2001.04163v1 )

ライセンス: Link先を確認
Dan Liu, Libo Zhang, Tiejian Luo, Lili Tao, Yanjun Wu(参考訳) 既存のCNNに基づく手検出手法の解釈可能性の欠如は,それらの予測の背後にある理論的根拠を理解するのを困難にしている。 本稿では,手検出に初めて解釈可能性を導入するニューラルネットワークモデルを提案する。 1) ピクセルレベルで手を取り、その決定の基礎となるピクセルが何であるかを説明し、モデルの透明性を向上させる。 2)説明可能な特徴融合ブロックは,複数層間の特徴を強調し,識別的特徴を学習し,堅牢な性能を得る。 3) 複雑で非透明な回転層と回転層の代わりに回転特徴を学ぶために, 透過表現である回転写像を導入する。 (4)補助的指導はトレーニングプロセスを加速させ,実験で10時間以上節約する。 VIVAおよびOxfordハンド検出・追跡データセットの実験結果から,高速な最先端手法と比較して,本手法の競合精度が示された。

The lack of interpretability of existing CNN-based hand detection methods makes it difficult to understand the rationale behind their predictions. In this paper, we propose a novel neural network model, which introduces interpretability into hand detection for the first time. The main improvements include: (1) Detect hands at pixel level to explain what pixels are the basis for its decision and improve transparency of the model. (2) The explainable Highlight Feature Fusion block highlights distinctive features among multiple layers and learns discriminative ones to gain robust performance. (3) We introduce a transparent representation, the rotation map, to learn rotation features instead of complex and non-transparent rotation and derotation layers. (4) Auxiliary supervision accelerates the training process, which saves more than 10 hours in our experiments. Experimental results on the VIVA and Oxford hand detection and tracking datasets show competitive accuracy of our method compared with state-of-the-art methods with higher speed.
翻訳日:2023-01-11 23:14:41 公開日:2020-01-13
# 教師なし埋め込み学習を用いた量子デバイス微調整

Quantum device fine-tuning using unsupervised embedding learning ( http://arxiv.org/abs/2001.04409v1 )

ライセンス: Link先を確認
N.M. van Esbroeck, D.T. Lennon, H. Moon, V. Nguyen, F. Vigneau, L.C. Camenzind, L. Yu, D.M. Zumb\"uhl, G.A.D. Briggs, D. Sejdinovic, and N. Ares(参考訳) 多数のゲート電極を持つ量子デバイスは、デバイスパラメータを正確に制御することができる。 この機能は、これらのパラメータが応用ゲート電圧に複雑に依存するため、完全には利用できない。 複数のデバイスパラメータを一度に微調整できるアルゴリズムを実験的に実証した。 アルゴリズムは測定値を取得し、変分オートエンコーダを用いてスコアを割り当てる。 ゲート電圧設定は、このスコアを教師なしの方法でリアルタイムで最適化するように設定される。 約40分以内に二重量子ドットデバイスの微調整時間を報告した。

Quantum devices with a large number of gate electrodes allow for precise control of device parameters. This capability is hard to fully exploit due to the complex dependence of these parameters on applied gate voltages. We experimentally demonstrate an algorithm capable of fine-tuning several device parameters at once. The algorithm acquires a measurement and assigns it a score using a variational auto-encoder. Gate voltage settings are set to optimise this score in real-time in an unsupervised fashion. We report fine-tuning times of a double quantum dot device within approximately 40 min.
翻訳日:2023-01-11 23:07:27 公開日:2020-01-13
# 大規模ランダム二分木の高速生成

Fast Generation of Big Random Binary Trees ( http://arxiv.org/abs/2001.04505v1 )

ライセンス: Link先を確認
William B. Langdon(参考訳) random_tree()は、遺伝的プログラミングと遺伝的改良実験のために最大10億ノードのツリーを作成できる線形時間と空間のc++実装である。 3.60GHzのCPUは毎秒1800万以上のランダムノードを生成することができる。

random_tree() is a linear time and space C++ implementation able to create trees of up to a billion nodes for genetic programming and genetic improvement experiments. A 3.60GHz CPU can generate more than 18 million random nodes for GP program trees per second.
翻訳日:2023-01-11 23:06:19 公開日:2020-01-13
# 教育用テキストを用いたプラン生成手法の評価

Towards Evaluating Plan Generation Approaches with Instructional Texts ( http://arxiv.org/abs/2001.04186v1 )

ライセンス: Link先を確認
Debajyoti Paul Chowdhury and Arghya Biswas and Tomasz Sosnowski and Kristina Yordanova(参考訳) 言語基底化による行動理解に関する最近の研究により、テキスト命令から行動モデルを自動的に生成できることが示されている。 これらのモデルは通常、ゴール指向の構造を持ち、プランニングドメイン定義言語のようなプランニングドメインと異なる形式でモデル化されます。 主要な問題は、各アプローチが通常ドメイン固有のアプリケーションで評価されるため、異なるモデル生成アプローチを比較するためのベンチマークデータセットがないことである。 本報告では、テキスト命令からモデル生成のための異なる手法を客観的に比較するために、英語で83個のテキスト命令からなるデータセットと、より構造化された形式での改良と、各命令に対して手作業で開発した計画について紹介する。 データセットはコミュニティから公開されている。

Recent research in behaviour understanding through language grounding has shown it is possible to automatically generate behaviour models from textual instructions. These models usually have goal-oriented structure and are modelled with different formalisms from the planning domain such as the Planning Domain Definition Language. One major problem that still remains is that there are no benchmark datasets for comparing the different model generation approaches, as each approach is usually evaluated on domain-specific application. To allow the objective comparison of different methods for model generation from textual instructions, in this report we introduce a dataset consisting of 83 textual instructions in English language, their refinement in a more structured form as well as manually developed plans for each of the instructions. The dataset is publicly available to the community.
翻訳日:2023-01-11 23:06:14 公開日:2020-01-13
# ゲームパッチワークにおける状態表現とポリオミノ配置

State Representation and Polyomino Placement for the Game Patchwork ( http://arxiv.org/abs/2001.04233v1 )

ライセンス: Link先を確認
Mikael Zayenz Lagerkvist(参考訳) 現代のボードゲームは多くの人にとってリッチな娯楽の源であるが、ゲームプレイの研究やゲームプレイエージェントの実装のための興味深い挑戦的な構造も含んでいる。 本稿では,polyomino tile drafting と placement を用いた2人戦略ゲーム game patchwork について検討する。 コアポリオミノ配置メカニックは、規則的な制約を用いて制約モデルに実装され、(lagerkvist, pesant, 2008)におけるモデルを拡張および改善する: 明示的なローテーションハンドリング、任意の配置、リソース使用のための新しい制約。 優れたゲームプレイエージェントを実装する上で重要なのは、大きな分岐要因に直面した時に探索を導くための優れたヒューリスティックを持つことです。 本論文では, タイルの配置を, 部品を配置するための方針と, 異なる配置で選択する評価の2つに分けた。 ポリシーは古典的なパッキング文献と一般的な標準制約プログラミングヒューリスティックに基づいて設計されている。 評価のために、グローバルな伝播誘導後悔を導入し、後続の配置を除外しないことに基づく配置を選択する。 良好な評価を行うことの重要性と,提案したグローバルな伝播誘導後悔が極めて効果的な指針であることを示す。

Modern board games are a rich source of entertainment for many people, but also contain interesting and challenging structures for game playing research and implementing game playing agents. This paper studies the game Patchwork, a two player strategy game using polyomino tile drafting and placement. The core polyomino placement mechanic is implemented in a constraint model using regular constraints, extending and improving the model in (Lagerkvist, Pesant, 2008) with: explicit rotation handling; optional placements; and new constraints for resource usage. Crucial for implementing good game playing agents is to have great heuristics for guiding the search when faced with large branching factors. This paper divides placing tiles into two parts: a policy used for placing parts and an evaluation used to select among different placements. Policies are designed based on classical packing literature as well as common standard constraint programming heuristics. For evaluation, global propagation guided regret is introduced, choosing placements based on not ruling out later placements. Extensive evaluations are performed, showing the importance of using a good evaluation and that the proposed global propagation guided regret is a very effective guide.
翻訳日:2023-01-11 23:06:03 公開日:2020-01-13
# 制約プログラミング課題としてのnmbr9

Nmbr9 as a Constraint Programming Challenge ( http://arxiv.org/abs/2001.04238v1 )

ライセンス: Link先を確認
Mikael Zayenz Lagerkvist(参考訳) 現代のボードゲームは、組合せ問題に対する興味深い新しい挑戦の豊富な源である。 Nmbr9は、ポリオミノを用いたソリティアスタイルのパズルゲームである。 ゲームのルールは簡単に説明できるが、制約プログラミングを使ってゲームを効果的にモデル化することは難しい。 この要約はゲームを提示し、ベンチマークとテストに適したゲームの新しい一般化された変種に貢献し、提示された変種のためのモデルを記述する。 標準的なゲームで可能な最上位のスコアの問題は、オープンチャレンジである。

Modern board games are a rich source of interesting and new challenges for combinatorial problems. The game Nmbr9 is a solitaire style puzzle game using polyominoes. The rules of the game are simple to explain, but modelling the game effectively using constraint programming is hard. This abstract presents the game, contributes new generalized variants of the game suitable for benchmarking and testing, and describes a model for the presented variants. The question of the top possible score in the standard game is an open challenge.
翻訳日:2023-01-11 23:05:41 公開日:2020-01-13
# 自律型人工思考システムの展望と倫理

Perspectives and Ethics of the Autonomous Artificial Thinking Systems ( http://arxiv.org/abs/2001.04270v1 )

ライセンス: Link先を確認
Jo\"el Colloc (IDEES)(参考訳) 自律型人工思考システムの実現可能性については、人間が情報を取得する方法と、現在の自律型情報システムの能力とを比較する必要がある。 我々のモデルは、情報システムの階層、認知階層、言語階層、人工知能とコンピュータモデルのパワーを組み合わせたデジタル情報階層、自律的な情報システムを開発するための方法とツールの4つの階層を使用する。 人為的思考の形式を提供する自律システムの能力に関する問題は、社会生活とトランスヒューマニズムの視点に対する倫理的影響とともに生じる。

The feasibility of autonomous artificial thinking systems needs to compare the way the human beings acquire their information and develops the thought with the current capacities of the autonomous information systems. Our model uses four hierarchies: the hierarchy of information systems, the cognitive hierarchy, the linguistic hierarchy and the digital informative hierarchy that combines artificial intelligence, the power of computers models, methods and tools to develop autonomous information systems. The question of the capability of autonomous system to provide a form of artificial thought arises with the ethical consequences on the social life and the perspective of transhumanism.
翻訳日:2023-01-11 23:05:34 公開日:2020-01-13
# 解釈・構成強化学習における言語指導の活用

Exploiting Language Instructions for Interpretable and Compositional Reinforcement Learning ( http://arxiv.org/abs/2001.04418v1 )

ライセンス: Link先を確認
Michiel van der Meer, Matteo Pirotta, Elia Bruni(参考訳) 本稿では,診断分類器を用いてエージェントを構成する方法を提案する。 自動決定プロセスにおいて説明可能なエージェントが必要となるため、rlエージェントから潜在空間を解釈し、その現在の目的を複雑な言語命令で識別する。 その結果, 分類過程は, より容易に解釈できる隠蔽状態の変化を引き起こすが, ゼロショット性能を新しい命令にシフトさせる原因となることがわかった。 最後に,分類の監視信号を制限し,類似するがあまり顕著ではない効果を観測する。

In this work, we present an alternative approach to making an agent compositional through the use of a diagnostic classifier. Because of the need for explainable agents in automated decision processes, we attempt to interpret the latent space from an RL agent to identify its current objective in a complex language instruction. Results show that the classification process causes changes in the hidden states which makes them more easily interpretable, but also causes a shift in zero-shot performance to novel instructions. Lastly, we limit the supervisory signal on the classification, and observe a similar but less notable effect.
翻訳日:2023-01-11 23:05:24 公開日:2020-01-13
# 加速度MRI取得における高分解能化のための高密度U-Net

Deep Residual Dense U-Net for Resolution Enhancement in Accelerated MRI Acquisition ( http://arxiv.org/abs/2001.04488v1 )

ライセンス: Link先を確認
Pak Lun Kevin Ding, Zhiqiang Li, Yuxiang Zhou, Baoxin Li(参考訳) 典型的なMRIスキャンには20分から60分を要することがある。 MRIスキャン時間の短縮は、患者の経験とコストの両面で有益である。 加速度MRIスキャンは、少ないk空間データ(k空間でのダウンサンプリング)を取得することで達成できる。 しかし、これは復元された画像の解像度を下げ、アーティファクトをエイリアスすることにつながる。 ダウンサンプリングされたk空間データから、様々な複雑さと性能で高品質な画像を再構成しようとする既存のアプローチは数多く存在する。 近年,この課題に対してディープラーニングアプローチが提案され,有望な成果が報告されている。 しかし、再建MRI画像を用いたほとんどの医療応用において、高い忠実度要件のため、この問題は依然として困難なままである。 本研究では,MRIの高速化による高画質画像の再構成を目的としたディープラーニング手法を提案する。 具体的には、畳み込みニューラルネットワーク(CNN)を用いて、エイリアス画像と元の画像の違いを学習し、U-Netのようなアーキテクチャを用いる。 さらに,Residual Dense Block(RDB)と呼ばれるマイクロアーキテクチャを導入して,通常のU-Netよりも優れた特徴表現を学習する。 ダウンサンプリングされたk空間データの特異性を考慮すると、学習における損失関数に新しい用語を導入し、トレーニング中に与えられたk空間データを効果的に利用し、ネットワーク重みの更新にさらなる正規化を提供する。 提案手法を評価するために,本手法を他の最先端手法と比較する。 標準的なメトリクスを用いた視覚検査と評価の両面で、提案手法はパフォーマンスの向上を実現し、効果的なソリューションを提供する可能性を示している。

Typical Magnetic Resonance Imaging (MRI) scan may take 20 to 60 minutes. Reducing MRI scan time is beneficial for both patient experience and cost considerations. Accelerated MRI scan may be achieved by acquiring less amount of k-space data (down-sampling in the k-space). However, this leads to lower resolution and aliasing artifacts for the reconstructed images. There are many existing approaches for attempting to reconstruct high-quality images from down-sampled k-space data, with varying complexity and performance. In recent years, deep-learning approaches have been proposed for this task, and promising results have been reported. Still, the problem remains challenging especially because of the high fidelity requirement in most medical applications employing reconstructed MRI images. In this work, we propose a deep-learning approach, aiming at reconstructing high-quality images from accelerated MRI acquisition. Specifically, we use Convolutional Neural Network (CNN) to learn the differences between the aliased images and the original images, employing a U-Net-like architecture. Further, a micro-architecture termed Residual Dense Block (RDB) is introduced for learning a better feature representation than the plain U-Net. Considering the peculiarity of the down-sampled k-space data, we introduce a new term to the loss function in learning, which effectively employs the given k-space data during training to provide additional regularization on the update of the network weights. To evaluate the proposed approach, we compare it with other state-of-the-art methods. In both visual inspection and evaluation using standard metrics, the proposed approach is able to deliver improved performance, demonstrating its potential for providing an effective solution.
翻訳日:2023-01-11 22:59:16 公開日:2020-01-13
# 物理インフォーメーションニューラルネットワークにおける勾配病理の理解と緩和

Understanding and mitigating gradient pathologies in physics-informed neural networks ( http://arxiv.org/abs/2001.04536v1 )

ライセンス: Link先を確認
Sifan Wang, Yujun Teng, Paris Perdikaris(参考訳) 異なる科学領域にまたがるニューラルネットワークの普及は、特定の対称性、保存法則、その他の分野の知識を満たすためにそれらに制約を課すことがしばしばある。 このような制約は、モデルトレーニング中にソフトペナルティとして課せられ、経験的リスク損失のドメイン固有のレギュレータとして効果的に機能する。 物理インフォームドニューラルネットワークは、ディープニューラルネットワークの出力が与えられた偏微分方程式の集合をほぼ満足するように制約されるというこの哲学の例である。 本研究は,物理システムの結果を予測し,ノイズの多いデータから隠れた物理学を発見するための物理情報ニューラルネットワークの有効性に着目した,科学機械学習の最近の進歩を概観する。 また,モデルトレーニング中の逆伝播勾配の不均衡につながる数値剛性に関連する,そのようなアプローチの基本的な失敗モードを同定し,解析する。 この制限に対処するために、モデルトレーニング中の勾配統計を利用して、複合損失関数の異なる項間の相互作用のバランスをとる学習速度アニールアルゴリズムを提案する。 また,このような勾配病理に対してよりレジリエントなニューラルネットワークアーキテクチャを提案する。 同時に、我々は、制約付きニューラルネットワークのトレーニングに関する新たな洞察を提供し、計算物理学の様々な問題に対して50-100倍の係数で、物理インフォームドニューラルネットワークの予測精度を一貫して改善する。 この原稿に付随するコードとデータは、 \url{https://github.com/PredictiveIntelligenceLab/GradientPathologiesPINNs}で公開されている。

The widespread use of neural networks across different scientific domains often involves constraining them to satisfy certain symmetries, conservation laws, or other domain knowledge. Such constraints are often imposed as soft penalties during model training and effectively act as domain-specific regularizers of the empirical risk loss. Physics-informed neural networks is an example of this philosophy in which the outputs of deep neural networks are constrained to approximately satisfy a given set of partial differential equations. In this work we review recent advances in scientific machine learning with a specific focus on the effectiveness of physics-informed neural networks in predicting outcomes of physical systems and discovering hidden physics from noisy data. We will also identify and analyze a fundamental mode of failure of such approaches that is related to numerical stiffness leading to unbalanced back-propagated gradients during model training. To address this limitation we present a learning rate annealing algorithm that utilizes gradient statistics during model training to balance the interplay between different terms in composite loss functions. We also propose a novel neural network architecture that is more resilient to such gradient pathologies. Taken together, our developments provide new insights into the training of constrained neural networks and consistently improve the predictive accuracy of physics-informed neural networks by a factor of 50-100x across a range of problems in computational physics. All code and data accompanying this manuscript are publicly available at \url{https://github.com/PredictiveIntelligenceLab/GradientPathologiesPINNs}.
翻訳日:2023-01-11 22:58:52 公開日:2020-01-13
# 細菌代謝経路における制御制御回路の機械学習による研究

A machine learning approach to investigate regulatory control circuits in bacterial metabolic pathways ( http://arxiv.org/abs/2001.04794v1 )

ライセンス: Link先を確認
Francesco Bardozzo, Pietro Lio', Roberto Tagliaferri(参考訳) 本研究では,経路内における多機能代謝制御回路を同定する機械学習手法について述べる。 したがって、マルチオミクスの観点で他の経路よりも制御される細菌代謝経路の同定は、これらの回路の解析から導かれる。 これは、コドンの使用量とタンパク質の量と回路のオムニ値が交互に変化する結果である。 この研究では、E.Coliのグリコリシスとそのマルチオミック回路の特徴を例に示す。

In this work, a machine learning approach for identifying the multi-omics metabolic regulatory control circuits inside the pathways is described. Therefore, the identification of bacterial metabolic pathways that are more regulated than others in term of their multi-omics follows from the analysis of these circuits . This is a consequence of the alternation of the omic values of codon usage and protein abundance along with the circuits. In this work, the E.Coli's Glycolysis and its multi-omic circuit features are shown as an example.
翻訳日:2023-01-11 22:57:50 公開日:2020-01-13
# パフォーマンスを意識した仮想ネットワーク機能配置のための機械学習

Machine Learning for Performance-Aware Virtual Network Function Placement ( http://arxiv.org/abs/2001.07787v1 )

ライセンス: Link先を確認
Dimitrios Michael Manias, Manar Jammal, Hassan Hawilo, Abdallah Shami, Parisa Heidari, Adel Larabi, Richard Brunner(参考訳) データ接続の需要が高まる中、ネットワークサービスプロバイダは、ネットワーク性能の向上と接続需要の増加と同時に、資本と運用コストの削減という課題に直面している。 ネットワーク機能仮想化(NFV)はソリューションとして認識されているが、その実現性を保証するためにはいくつかの課題に対処する必要がある。 本稿では,サービス機能チェーン(SFC)を形成する各種VNFインスタンスの効率的な配置から学習する機械学習決定ツリーモデルを開発することにより,仮想ネットワーク機能(VNF)配置問題に対処する。 このモデルは入力としてネットワークからいくつかのパフォーマンス関連の特徴を取り、依存するVNFインスタンス間の遅延を最小限に抑える目的で、ネットワークサーバ上の様々なVNFインスタンスの配置を選択する。 機械学習の利点は、システムの複雑な数学的モデリングから離れ、システムのデータに基づく理解へと移行することで実現される。 ユースケースとしてEvolved Packet Core(EPC)を用いて、異なるデータセンターネットワーク上でモデルを評価し、相互接続されたコンポーネント間の遅延とSFC全体の遅延の観点からBACONアルゴリズムと比較する。 さらに、NFVアプリケーションにおけるモデルの有効性を示すために、時間複雑性解析を行う。

With the growing demand for data connectivity, network service providers are faced with the task of reducing their capital and operational expenses while simultaneously improving network performance and addressing the increased connectivity demand. Although Network Function Virtualization (NFV) has been identified as a solution, several challenges must be addressed to ensure its feasibility. In this paper, we address the Virtual Network Function (VNF) placement problem by developing a machine learning decision tree model that learns from the effective placement of the various VNF instances forming a Service Function Chain (SFC). The model takes several performance-related features from the network as an input and selects the placement of the various VNF instances on network servers with the objective of minimizing the delay between dependent VNF instances. The benefits of using machine learning are realized by moving away from a complex mathematical modelling of the system and towards a data-based understanding of the system. Using the Evolved Packet Core (EPC) as a use case, we evaluate our model on different data center networks and compare it to the BACON algorithm in terms of the delay between interconnected components and the total delay across the SFC. Furthermore, a time complexity analysis is performed to show the effectiveness of the model in NFV applications.
翻訳日:2023-01-11 22:57:24 公開日:2020-01-13
# 部分空間分解に基づく深部特徴量推定による付加画像分類の高速化

Boosting Occluded Image Classification via Subspace Decomposition Based Estimation of Deep Features ( http://arxiv.org/abs/2001.04066v1 )

ライセンス: Link先を確認
Feng Cen and Guanghui Wang(参考訳) 部分隠蔽画像の分類は、最先端のディープラーニング技術においても非常に難しいコンピュータビジョン問題である。 occludedイメージのロバストな画像分類を実現するために,サブスペース分解に基づく推定(sdbe)を用いた新しい手法を提案する。 提案手法では,まず基本畳み込みニューラルネットワークを用いて深部特徴ベクトル(DFV)を抽出し,次にSDBEを用いて元の閉塞のない画像のDFVを分類する。 SDBEは、閉塞された画像のDFVを、閉塞誤り辞書(OED)の線形スパンに沿って、クラス辞書(CD)の線形スパンに投影する。 CDとOEDは、トレーニングセットのDFVと余剰画像対の閉塞誤差ベクトルとを連結して構成される。 SDBEの2つの実装は、$l_1$-normと$l_2$-norm正規化最小二乗推定である。 ILSVRC2012トレーニングセットで事前訓練されたResNet-152をベースネットワークとして、提案したSBDEベースの分類スキームをCaltech-101およびILSVRC2012データセットで広範囲に評価する。 ILSVRC2012データセットにおいて、SDBEに基づく提案手法により、隠蔽画像の分類精度が劇的に向上し、分類精度が約2.25 %の20 %以下に向上することを示した。

Classification of partially occluded images is a highly challenging computer vision problem even for the cutting edge deep learning technologies. To achieve a robust image classification for occluded images, this paper proposes a novel scheme using subspace decomposition based estimation (SDBE). The proposed SDBE-based classification scheme first employs a base convolutional neural network to extract the deep feature vector (DFV) and then utilizes the SDBE to compute the DFV of the original occlusion-free image for classification. The SDBE is performed by projecting the DFV of the occluded image onto the linear span of a class dictionary (CD) along the linear span of an occlusion error dictionary (OED). The CD and OED are constructed respectively by concatenating the DFVs of a training set and the occlusion error vectors of an extra set of image pairs. Two implementations of the SDBE are studied in this paper: the $l_1$-norm and the squared $l_2$-norm regularized least-squares estimates. By employing the ResNet-152, pre-trained on the ILSVRC2012 training set, as the base network, the proposed SBDE-based classification scheme is extensively evaluated on the Caltech-101 and ILSVRC2012 datasets. Extensive experimental results demonstrate that the proposed SDBE-based scheme dramatically boosts the classification accuracy for occluded images, and achieves around $22.25\%$ increase in classification accuracy under $20\%$ occlusion on the ILSVRC2012 dataset.
翻訳日:2023-01-11 22:49:54 公開日:2020-01-13
# 優れたクロスドメイン時系列モデリングのための残留注意ネット

Residual Attention Net for Superior Cross-Domain Time Sequence Modeling ( http://arxiv.org/abs/2001.04077v1 )

ライセンス: Link先を確認
Seth H. Huang, Xu Lingjie, Jiang Congwei(参考訳) 本稿では,シーケンスアーキテクチャとユニバーサルトランスフォーマー,コンピュータビジョンアーキテクチャを融合した新しいアーキテクチャであるsusent attention net (ran) と,クロスドメインシーケンスモデリングのためのハイウェイアーキテクチャであるsusent netを提案する。 このアーキテクチャは、リカレントニューラルネットベースの構造によってしばしば直面する長い依存性の問題に対処することを目的としている。 本稿では新しいアーキテクチャのコンセプト実証として機能し、RANはモデルにシーケンスパターンの高レベルな理解を提供することを目的としている。 私たちの知る限りでは、このようなアーキテクチャを最初に提案するのは私たちです。 標準の85 UCRデータセットのうち、35の最先端結果と10の成果が、さらなるモデル微調整をせずに一致した。 その結果、そのようなアーキテクチャは複雑で長期のモデリングにおいて有望であり、広大なクロスドメインアプリケーションを持つ可能性があることが示唆された。

We present a novel architecture, residual attention net (RAN), which merges a sequence architecture, universal transformer, and a computer vision architecture, residual net, with a high-way architecture for cross-domain sequence modeling. The architecture aims at addressing the long dependency issue often faced by recurrent-neural-net-based structures. This paper serves as a proof-of-concept for a new architecture, with RAN aiming at providing the model a higher level understanding of sequence patterns. To our best knowledge, we are the first to propose such an architecture. Out of the standard 85 UCR data sets, we have achieved 35 state-of-the-art results with 10 results matching current state-of-the-art results without further model fine-tuning. The results indicate that such architecture is promising in complex, long-sequence modeling and may have vast, cross-domain applications.
翻訳日:2023-01-11 22:49:28 公開日:2020-01-13
# エッジでのディープラーニングステレオビジョン

Deep Learning Stereo Vision at the edge ( http://arxiv.org/abs/2001.04552v1 )

ライセンス: Link先を確認
Luca Puglia and Cormac Brick(参考訳) 本稿では,チップ上のシステムに適した新しいステレオビジョンソリューションを構築するための方法論の概要を紹介する。 この新しいソリューションは、電力制約のある環境にある組み込みデバイスにコンピュータビジョン能力をもたらすために開発された。 このソリューションは、古典的ステレオビジョン技術とディープラーニングアプローチのハイブリッドとして構築されている。 ステレオモジュールは、トレーニングしたニューラルネットワークを加速するモジュールと、フロントエンド部分を加速するモジュールの2つのモジュールで構成されています。 システムは完全に受動的であり、非常に説得力のある精度を得るために構造的な光を必要としない。 業界によって提供された以前のステレオビジョンソリューションに関して、大きな改善はノイズに対する堅牢性です。 これは主に、選択されたアーキテクチャのディープラーニング部分によって可能になります。 結果は middlebury dataset challenge に提出しました。 これは現在、チップソリューションのベストシステムとしてランク付けされている。 このシステムは高精細度ビデオのリアルタイム性能よりも優れた低レイテンシアプリケーション向けに開発された。

We present an overview of the methodology used to build a new stereo vision solution that is suitable for System on Chip. This new solution was developed to bring computer vision capability to embedded devices that live in a power constrained environment. The solution is constructured as a hybrid between classical Stereo Vision techniques and deep learning approaches. The stereoscopic module is composed of two separate modules: one that accelerates the neural network we trained and one that accelerates the front-end part. The system is completely passive and does not require any structured light to obtain very compelling accuracy. With respect to the previous Stereo Vision solutions offered by the industries we offer a major improvement is robustness to noise. This is mainly possible due to the deep learning part of the chosen architecture. We submitted our result to Middlebury dataset challenge. It currently ranks as the best System on Chip solution. The system has been developed for low latency applications which require better than real time performance on high definition videos.
翻訳日:2023-01-11 22:49:15 公開日:2020-01-13
# 遠ざかる外観と幾何学による深層顔認識の促進

Boosting Deep Face Recognition via Disentangling Appearance and Geometry ( http://arxiv.org/abs/2001.04559v1 )

ライセンス: Link先を確認
Ali Dabouei, Fariborz Taherkhani, Sobhan Soleymani, Jeremy Dawson, Nasser M. Nasrabadi(参考訳) 本稿では,顔認識タスクにおける外観と幾何学的表現を両立させる枠組みを提案する。 この目的のために,空間変換を取り入れた幾何学的に同一の顔を生成する。 提案手法は, 学習過程を2つの方法で支援することにより, 深部顔認識モデルの性能を高めることを実証する。 まず、初期および中間の畳み込み層を強制し、不連続埋め込みの特性を満たすより代表的な特徴を学ぶ。 第二に、顔を幾何学的に変化させることでトレーニングセットを強化する。 本研究では,提案手法を最先端の顔認識手法に統合することで,lfw,ytf,megafaceなどの挑戦的データセットの性能を効果的に向上できることを実証する。 本手法の理論的および実用的側面は, アブレーション研究と知識伝達課題により厳密に解析される。 さらに,提案手法で学習した知識は,属性予測などの他の顔関連課題に有利であることを示す。

In this paper, we propose a framework for disentangling the appearance and geometry representations in the face recognition task. To provide supervision for this aim, we generate geometrically identical faces by incorporating spatial transformations. We demonstrate that the proposed approach enhances the performance of deep face recognition models by assisting the training process in two ways. First, it enforces the early and intermediate convolutional layers to learn more representative features that satisfy the properties of disentangled embeddings. Second, it augments the training set by altering faces geometrically. Through extensive experiments, we demonstrate that integrating the proposed approach into state-of-the-art face recognition methods effectively improves their performance on challenging datasets, such as LFW, YTF, and MegaFace. Both theoretical and practical aspects of the method are analyzed rigorously by concerning ablation studies and knowledge transfer tasks. Furthermore, we show that the knowledge leaned by the proposed method can favor other face-related tasks, such as attribute prediction.
翻訳日:2023-01-11 22:49:04 公開日:2020-01-13
# 単語埋め込みと検索モデルの組み合わせの再現性について

On the Replicability of Combining Word Embeddings and Retrieval Models ( http://arxiv.org/abs/2001.04484v1 )

ライセンス: Link先を確認
Luca Papariello, Alexandros Bampoulidis, Mihai Lupu(参考訳) 我々は最近の実験を再現し、文書表現への単語埋め込みと文書分類、クラスタリング、検索におけるこれらの表現の使用に対するFisherカーネルフレームワークと混合モデルの使用に関する魅力的な仮説を実証した。 具体的には、ガウス分布の代わりにvon Mises-Fisher(VMF)分布の混合モデルを使用することは、情報検索に伝統的に用いられてきたVMFとベクトル空間モデルの両方の余弦距離に焦点をあてることによって有益である。 以前の実験でこの仮説が検証された。 パラメータの広いスキャン空間にもかかわらず、我々のレプリケーションはそれを検証できなかった。

We replicate recent experiments attempting to demonstrate an attractive hypothesis about the use of the Fisher kernel framework and mixture models for aggregating word embeddings towards document representations and the use of these representations in document classification, clustering, and retrieval. Specifically, the hypothesis was that the use of a mixture model of von Mises-Fisher (VMF) distributions instead of Gaussian distributions would be beneficial because of the focus on cosine distances of both VMF and the vector space model traditionally used in information retrieval. Previous experiments had validated this hypothesis. Our replication was not able to validate it, despite a large parameter scan space.
翻訳日:2023-01-11 22:48:38 公開日:2020-01-13
# マルチセンサデータと知識融合 - 用語定義の提案-

Multi-Sensor Data and Knowledge Fusion -- A Proposal for a Terminology Definition ( http://arxiv.org/abs/2001.04171v1 )

ライセンス: Link先を確認
Silvia Beddar-Wiesing, Maarten Bieshaar(参考訳) Fusionは利用可能なデータセットの分析と利用のための一般的なツールであり、データマイニングと機械学習プロセスの重要な部分である。 しかし、不整合文学のため、必ずしも融合の種類を明確に定義するわけではない。 以下の例では、核融合の過程は核融合の構成要素と核融合が起こる抽象レベルによって定義される。 論文の第1部では, 用語の明確な定義と, 核融合成分の適切なオントロジーと核融合レベルの開発に焦点が当てられている。 第2部では、一般的な核融合技術を紹介する。

Fusion is a common tool for the analysis and utilization of available datasets and so an essential part of data mining and machine learning processes. However, a clear definition of the type of fusion is not always provided due to inconsistent literature. In the following, the process of fusion is defined depending on the fusion components and the abstraction level on which the fusion occurs. The focus in the first part of the paper at hand is on the clear definition of the terminology and the development of an appropriate ontology of the fusion components and the fusion level. In the second part, common fusion techniques are presented.
翻訳日:2023-01-11 22:48:25 公開日:2020-01-13
# 胸部x線写真からの肺炎のロバスト分類に対する逆行的アプローチ

An Adversarial Approach for the Robust Classification of Pneumonia from Chest Radiographs ( http://arxiv.org/abs/2001.04051v1 )

ライセンス: Link先を確認
Joseph D. Janizek, Gabriel Erion, Alex J. DeGrave, Su-In Lee(参考訳) 深層学習は、医学画像から病気を分類する分野では有望であるが、最先端の畳み込みニューラルネットワークアーキテクチャに基づくモデルでは、データセットシフトによるパフォーマンス損失がしばしば見られる。 1つの病院システムからのデータを用いてトレーニングされたモデルは、同一病院のデータでテストすると高い予測性能を得るが、異なる病院システムでテストされた場合には著しく悪化する。 さらに, ある病院システム内においても, 深層学習モデルは, 有意義な分類法ではなく, 病院や患者レベルの共同設立者に依存することが示されている。 これらのモデルが安全にデプロイされるためには、それらの分類にコンファウンディング変数を使用しないこと、トレーニングデータに含まれていない病院のイメージでテストしてもうまく動作することを保証したいと思います。 胸部X線写真から肺炎分類の文脈でこの問題に対処しようと試みる。 我々は,共同設立者に依存しないより堅牢なモデルを学ぶための,逆最適化に基づくアプローチを提案する。 具体的には,胸部x線像の視野位置に不変なモデルを訓練することにより,肺炎分類器の病院外汎化性能の向上を実証する。 本手法は, 標準ベースラインと提案手法の両方よりも, 病院外データに対する予測性能が向上し, また, 共同設立者に依存するモデルを特定する手法も提案している。 コードはhttps://github.com/suinleelab/cxr_adv。

While deep learning has shown promise in the domain of disease classification from medical images, models based on state-of-the-art convolutional neural network architectures often exhibit performance loss due to dataset shift. Models trained using data from one hospital system achieve high predictive performance when tested on data from the same hospital, but perform significantly worse when they are tested in different hospital systems. Furthermore, even within a given hospital system, deep learning models have been shown to depend on hospital- and patient-level confounders rather than meaningful pathology to make classifications. In order for these models to be safely deployed, we would like to ensure that they do not use confounding variables to make their classification, and that they will work well even when tested on images from hospitals that were not included in the training data. We attempt to address this problem in the context of pneumonia classification from chest radiographs. We propose an approach based on adversarial optimization, which allows us to learn more robust models that do not depend on confounders. Specifically, we demonstrate improved out-of-hospital generalization performance of a pneumonia classifier by training a model that is invariant to the view position of chest radiographs (anterior-posterior vs. posterior-anterior). Our approach leads to better predictive performance on external hospital data than both a standard baseline and previously proposed methods to handle confounding, and also suggests a method for identifying models that may rely on confounders. Code available at https://github.com/suinleelab/cxr_adv.
翻訳日:2023-01-11 22:48:16 公開日:2020-01-13
# 不審メール用深検疫装置

DeepQuarantine for Suspicious Mail ( http://arxiv.org/abs/2001.04168v1 )

ライセンス: Link先を確認
Nikita Benkovich, Roman Dedenok and Dmitry Golubev(参考訳) 本稿では,潜在的なスパムメッセージの検出と隔離を行うクラウド技術であるDeepQuarantine (DQ)を紹介する。 スパム攻撃は多様化しており、メールユーザーに有害な可能性がある。 スパムフィルタリングシステムの品質と性能にもかかわらず、スパムキャンペーンの検出には時間がかかる。 残念ながら、このケースでは、望ましくないメッセージがユーザに送られる。 そこで我々は,潜在的なスパムを検出し,それを特別なQuantineフォルダにしばらく保存するDQを開発した。 得られた時間によってメッセージのダブルチェックが可能になり、アンチスパムソリューションの信頼性が向上します。 この技術の精度が高いため、隔離されたメールのほとんどはスパムであり、クライアントは遅延なくメールを使用できる。 提案手法は,mimeヘッダに畳み込みニューラルネットワークを適用し,大規模履歴データから深い特徴を抽出する。 提案手法を実世界のデータで評価し,DQがスパム検出の質を高めることを示した。

In this paper, we introduce DeepQuarantine (DQ), a cloud technology to detect and quarantine potential spam messages. Spam attacks are becoming more diverse and can potentially be harmful to email users. Despite the high quality and performance of spam filtering systems, detection of a spam campaign can take some time. Unfortunately, in this case some unwanted messages get delivered to users. To solve this problem, we created DQ, which detects potential spam and keeps it in a special Quarantine folder for a while. The time gained allows us to double-check the messages to improve the reliability of the anti-spam solution. Due to high precision of the technology, most of the quarantined mail is spam, which allows clients to use email without delay. Our solution is based on applying Convolutional Neural Networks on MIME headers to extract deep features from large-scale historical data. We evaluated the proposed method on real-world data and showed that DQ enhances the quality of spam detection.
翻訳日:2023-01-11 22:47:50 公開日:2020-01-13
# 確率的多対象系の関係状態空間モデル

Relational State-Space Model for Stochastic Multi-Object Systems ( http://arxiv.org/abs/2001.04050v1 )

ライセンス: Link先を確認
Fan Yang, Ling Chen, Fan Zhou, Yusong Gao, Wei Cao(参考訳) 実世界の力学系は、しばしば互いに相互作用する複数の確率的サブシステムで構成される。 このような力学の振る舞いのモデル化と予測は、複雑な相互作用とそれらの構成要素の進化を理解するのに固有の硬さのため、一般的には容易ではない。 本稿では、グラフニューラルネットワーク(GNN)を用いて複数の相関オブジェクトの結合状態遷移をシミュレートする逐次階層型潜在変数モデルであるリレーショナル状態空間モデル(R-SSM)を提案する。 GNNがSSMと協力できるようにすることで、R-SSMはリレーショナル情報を多目的ダイナミクスのモデリングに組み込む柔軟な方法を提供する。 さらに,頂点インデックス付き確率変数をインスタンス化した正規化フローによるモデルの拡張を提案し,学習を容易にするための2つの補助的コントラスト目標を提案する。 R-SSMの実用性は、合成および実時間時系列データセットで実証的に評価される。

Real-world dynamical systems often consist of multiple stochastic subsystems that interact with each other. Modeling and forecasting the behavior of such dynamics are generally not easy, due to the inherent hardness in understanding the complicated interactions and evolutions of their constituents. This paper introduces the relational state-space model (R-SSM), a sequential hierarchical latent variable model that makes use of graph neural networks (GNNs) to simulate the joint state transitions of multiple correlated objects. By letting GNNs cooperate with SSM, R-SSM provides a flexible way to incorporate relational information into the modeling of multi-object dynamics. We further suggest augmenting the model with normalizing flows instantiated for vertex-indexed random variables and propose two auxiliary contrastive objectives to facilitate the learning. The utility of R-SSM is empirically evaluated on synthetic and real time-series datasets.
翻訳日:2023-01-11 22:40:29 公開日:2020-01-13
# ベイズ概念学習を用いた数値シーケンス予測

Numerical Sequence Prediction using Bayesian Concept Learning ( http://arxiv.org/abs/2001.04072v1 )

ライセンス: Link先を確認
Mohith Damarapati, Inavamsi B. Enaganti and Alfred Ajay Aureate Rajakumar(参考訳) 数学的パターンやシーケンスを学ぶと、それらのパターンの基礎となる概念(あるいはルール)を識別できます。 基礎となる概念を学習することで、人類はこれらの概念を他の数に一般化することができる。 LSTMのような最先端のRNNアーキテクチャは、シーケンシャルデータの連続した要素を予測するのによく機能するが、大量のトレーニング例を必要とする。 広範なデータであっても、これらのモデルは概念の一般化に苦慮している。 我々の行動研究から、人間はノイズを無視し、腐敗したシーケンスを生成する基礎となるルールを特定できることがわかった。 そこで本研究では,従来のlstmよりも,与えられた列の次数を予測できるベイズモデルを提案する。

When people learn mathematical patterns or sequences, they are able to identify the concepts (or rules) underlying those patterns. Having learned the underlying concepts, humans are also able to generalize those concepts to other numbers, so far as to even identify previously unseen combinations of those rules. Current state-of-the art RNN architectures like LSTMs perform well in predicting successive elements of sequential data, but require vast amounts of training examples. Even with extensive data, these models struggle to generalize concepts. From our behavioral study, we also found that humans are able to disregard noise and identify the underlying rules generating the corrupted sequences. We therefore propose a Bayesian model that captures these human-like learning capabilities to predict next number in a given sequence, better than traditional LSTMs.
翻訳日:2023-01-11 22:40:16 公開日:2020-01-13
# 事前定義された等分散クラスセントロイドに基づく半教師付き学習法

Semi-supervised learning method based on predefined evenly-distributed class centroids ( http://arxiv.org/abs/2001.04092v1 )

ライセンス: Link先を確認
Qiuyu Zhu and Tiantian Li(参考訳) 教師付き学習と比較して、半教師付き学習は多数のラベル付きサンプルに対するディープラーニングの依存を減らす。 本研究では,少数のラベル付きサンプルを用いて,ラベルなしサンプルにデータ拡張を行い,画像分類を実現する。 本手法は, 予め定義された等分散クラスセントロイド (PEDCC) に対して, 対応する損失関数により全てのサンプルを拘束する。 具体的には、ラベル付きサンプルに対するPEDCC-Lossとラベル付きサンプルに対する最大平均誤差損失を用いて、PEDCCの分布に近づいた特徴分布を作成する。 本手法は,クラス間距離が大きく,クラス内距離が小さく,異なるクラス間の分類境界をより明確にすることを保証する。 一方、未ラベルサンプルに対しては、未ラベルサンプルと拡張サンプルの間のネットワーク予測の一貫性を制約するためにKL発散を用いる。 半教師あり学習法では,cifar10では4000点,svhnでは1000点,精度は95.10%,97.58%であった。

Compared to supervised learning, semi-supervised learning reduces the dependence of deep learning on a large number of labeled samples. In this work, we use a small number of labeled samples and perform data augmentation on unlabeled samples to achieve image classification. Our method constrains all samples to the predefined evenly-distributed class centroids (PEDCC) by the corresponding loss function. Specifically, the PEDCC-Loss for labeled samples, and the maximum mean discrepancy loss for unlabeled samples are used to make the feature distribution closer to the distribution of PEDCC. Our method ensures that the inter-class distance is large and the intra-class distance is small enough to make the classification boundaries between different classes clearer. Meanwhile, for unlabeled samples, we also use KL divergence to constrain the consistency of the network predictions between unlabeled and augmented samples. Our semi-supervised learning method achieves the state-of-the-art results, with 4000 labeled samples on CIFAR10 and 1000 labeled samples on SVHN, and the accuracy is 95.10% and 97.58% respectively.
翻訳日:2023-01-11 22:40:02 公開日:2020-01-13
# 1次元バイパック問題に対する遺伝子発現プログラミングの適用

Applying Gene Expression Programming for Solving One-Dimensional Bin-Packing Problems ( http://arxiv.org/abs/2001.09923v1 )

ライセンス: Link先を確認
Najla Akram Al-Saati(参考訳) 本研究の目的は, オンラインBin-Packing問題の解決におけるGEP(Gene Expression Programming)の利用について検討することである。 主な考え方は、GEPが効率的に経済的に解決するための許容されるヒューリスティックなルールを自動的に見つける方法を示すことである。 1次元のビンパッキング問題は、与えられたピースで満たされたビンの数を最小化するという制約とともに、この作業の過程で考慮される。 実験データには、1次元のビンパック問題に対するfalkenauer (1996) によるベンチマークテストデータの例が含まれている。 その結果、GEPは問題に適した興味深いコンパクトなルールを見つけるための非常に強力で柔軟なツールとして利用できることを示した。 関数の影響は、ルールに現れる率の成功にどのように影響し影響するかを示すためにも研究されている。 遺伝的プログラミングによる以前の仕事に比べて、人口規模が小さく、世代も少ないほど成功率が高い。

This work aims to study and explore the use of Gene Expression Programming (GEP) in solving the on-line Bin-Packing problem. The main idea is to show how GEP can automatically find acceptable heuristic rules to solve the problem efficiently and economically. One dimensional Bin-Packing problem is considered in the course of this work with the constraint of minimizing the number of bins filled with the given pieces. Experimental Data includes instances of benchmark test data taken from Falkenauer (1996) for One-dimensional Bin-Packing Problems. Results show that GEP can be used as a very powerful and flexible tool for finding interesting compact rules suited for the problem. The impact of functions is also investigated to show how they can affect and influence the success of rates when they appear in rules. High success rates are gained with smaller population size and fewer generations compared to previous work performed using Genetic Programming.
翻訳日:2023-01-11 22:32:51 公開日:2020-01-13
# 条件付き生成型adversarial networkを用いた文書中の表構造同定

Identifying Table Structure in Documents using Conditional Generative Adversarial Networks ( http://arxiv.org/abs/2001.05853v1 )

ライセンス: Link先を確認
Nataliya Le Vine, Claus Horn, Matthew Zeigenfuse, Mark Rowan(参考訳) 多くの産業や学術研究において、情報は主に構造化されていない文書(例えば、この記事)の形で伝達される。 階層的な関連データはテーブルとして表現され、そのような文書の表から情報を抽出することは大きな課題である。 既存の手法の多くはボトムアップアプローチを採り、まずはセルに線を積分し、次に列や列にセルを配置し、最終的に2次元レイアウトから構造を推論する。 しかし、そのようなアプローチは、テーブル構造に関する利用可能な事前情報を無視し、すなわち、テーブルは単に潜在論理構造の任意の表現である。 まず、条件付き生成逆数ネットワークを用いてテーブル画像をテーブル内容のない近似行と列境界を表す標準化された 'skeleton' テーブル形式にマッピングし、xy-cutプロジェクションと遺伝的アルゴリズムによる潜在テーブル構造を導出する。 このアプローチは、異なるテーブル構成に容易に適応でき、トレーニングに小さなデータセットサイズを必要とする。

In many industries, as well as in academic research, information is primarily transmitted in the form of unstructured documents (this article, for example). Hierarchically-related data is rendered as tables, and extracting information from tables in such documents presents a significant challenge. Many existing methods take a bottom-up approach, first integrating lines into cells, then cells into rows or columns, and finally inferring a structure from the resulting 2-D layout. But such approaches neglect the available prior information relating to table structure, namely that the table is merely an arbitrary representation of a latent logical structure. We propose a top-down approach, first using a conditional generative adversarial network to map a table image into a standardised `skeleton' table form denoting approximate row and column borders without table content, then deriving latent table structure using xy-cut projection and Genetic Algorithm optimisation. The approach is easily adaptable to different table configurations and requires small data set sizes for training.
翻訳日:2023-01-11 22:32:25 公開日:2020-01-13
# 論理型関係学習による関係抽出:OntoILPERシステム

A logic-based relational learning approach to relation extraction: The OntoILPER system ( http://arxiv.org/abs/2001.04192v1 )

ライセンス: Link先を確認
Rinaldo Lima, Bernard Espinasse (LIS, R2I), Fred Freitas(参考訳) テキスト中の実体間の意味関係を検出・特徴付ける作業である関係抽出(re)は,過去20年間,主に生物医学領域において重要視されてきた。 教師付き機械学習技術を用いた関係抽出に関する多くの論文が出版されている。 これらの手法のほとんどは、特徴に基づく手法や木カーネルに基づく手法など、統計手法に依存している。 このような統計的学習技術は通常、例を表現するための命題仮説空間に基づいており、特徴の属性値表現を用いる。 この種の表現にはいくつかの欠点があり、特に複雑な関係の抽出において、関連するインスタンスに関するより文脈的な情報、すなわち、情報を失うことなく解析木から構造情報を効果的に取得することはできない。 本稿では,帰納的論理プログラミングを用いてシンボリック抽出規則の形で抽出モデルを生成する,関係抽出のための論理ベースの関係学習手法である onilper を提案する。 OntoILPERは、例のリッチなリレーショナル表現の利益を得て、前述の欠点を軽減することができる。 提案手法は,いくつかの理由から,統計的手法よりも関係抽出に適していると考えられる。 さらに、オンティルパーはバックグラウンド知識生成プロセスをガイドするドメインオントロジーを使用し、抽出された関係インスタンスを格納する。 バイオメディカルドメインからのタンパク質-タンパク質相互作用データセットを3つ評価した。 OntoILPER抽出モデルの性能は他の最先端REシステムと比較した。 その結果,提案手法の有効性が示唆された。

Relation Extraction (RE), the task of detecting and characterizing semantic relations between entities in text, has gained much importance in the last two decades, mainly in the biomedical domain. Many papers have been published on Relation Extraction using supervised machine learning techniques. Most of these techniques rely on statistical methods, such as feature-based and tree-kernels-based methods. Such statistical learning techniques are usually based on a propositional hypothesis space for representing examples, i.e., they employ an attribute-value representation of features. This kind of representation has some drawbacks, particularly in the extraction of complex relations which demand more contextual information about the involving instances, i.e., it is not able to effectively capture structural information from parse trees without loss of information. In this work, we present OntoILPER, a logic-based relational learning approach to Relation Extraction that uses Inductive Logic Programming for generating extraction models in the form of symbolic extraction rules. OntoILPER takes profit of a rich relational representation of examples, which can alleviate the aforementioned drawbacks. The proposed relational approach seems to be more suitable for Relation Extraction than statistical ones for several reasons that we argue. Moreover, OntoILPER uses a domain ontology that guides the background knowledge generation process and is used for storing the extracted relation instances. The induced extraction rules were evaluated on three protein-protein interaction datasets from the biomedical domain. The performance of OntoILPER extraction models was compared with other state-of-the-art RE systems. The encouraging results seem to demonstrate the effectiveness of the proposed solution.
翻訳日:2023-01-11 22:32:01 公開日:2020-01-13
# てんかん論理プログラムの構造分解

Structural Decompositions of Epistemic Logic Programs ( http://arxiv.org/abs/2001.04219v1 )

ライセンス: Link先を確認
Markus Hecher, Michael Morak, Stefan Woltran(参考訳) 認識論理プログラム (ELP) は標準解集合プログラミング (ASP) の一般的な一般化であり、言語内の解集合を推論する手段を提供する。 このよりリッチな形式主義は、多項式階層の4番目のレベルに達する高い計算複雑性の価格で現れる。 しかし、標準的なASPとは対照的に、トラクタビリティに関する専用の調査はまだ行われていない。 本稿では,この方向の最初の結果を示し,有界木幅で構造特性を示すELPに対して線形時間で中央のALP問題を解くことができることを示す。 また、これらの境界に従う完全な動的プログラミングアルゴリズムも提供します。 最後に,新しい依存関係構造に木幅を適用することで,典型的なERP解決手順におけるASPソルバ呼び出し数を制限できることを示す。

Epistemic logic programs (ELPs) are a popular generalization of standard Answer Set Programming (ASP) providing means for reasoning over answer sets within the language. This richer formalism comes at the price of higher computational complexity reaching up to the fourth level of the polynomial hierarchy. However, in contrast to standard ASP, dedicated investigations towards tractability have not been undertaken yet. In this paper, we give first results in this direction and show that central ELP problems can be solved in linear time for ELPs exhibiting structural properties in terms of bounded treewidth. We also provide a full dynamic programming algorithm that adheres to these bounds. Finally, we show that applying treewidth to a novel dependency structure---given in terms of epistemic literals---allows to bound the number of ASP solver calls in typical ELP solving procedures.
翻訳日:2023-01-11 22:30:29 公開日:2020-01-13
# 関節・連続・能動的学習を用いた対人対行動型防衛AI--騙し・毒殺・概念漂流に対する堅牢性の自動評価

Adversarial vs behavioural-based defensive AI with joint, continual and active learning: automated evaluation of robustness to deception, poisoning and concept drift ( http://arxiv.org/abs/2001.11821v1 )

ライセンス: Link先を確認
Alexandre Dey, Marc Velay, Jean-Philippe Fauvelle, Sylvain Navers(参考訳) 人工知能(AI)の最近の進歩は、情報システムで観測される事象の異常な性質に基づく敵対行為の検出を含むサイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらしています。 その結果、偽陽性と偽陰性率の低減、警告説明性の向上、リアルタイムのパフォーマンスとスケーラビリティの維持が実現した。 しかし、私たちは時間を通しての行動の自然な進化、つまり概念ドリフトに対処しなかった。 効果的な検出能力を維持するために、異常に基づく検知システムは継続的に訓練されなければならない。これは敵への扉を開くことで、完全な攻撃が正常になるまで、行動モデル内の無意識な攻撃痕跡を徐々に蒸留することで、いわゆる「フロッグボイリング」攻撃を行うことができる。 本稿では,検出プロセスを改善し,人間の専門知識を効率的に活用することにより,この攻撃を効果的に軽減する手法を提案する。 また, 防御システムの評価と改善に役立てるために, 対向型aiによる偽装攻撃に関する予備的な研究についても述べる。 これらの防衛的で攻撃的なAIは、AIベースの防御ソリューションを評価し、検証し、認定するために必要なステップとして、ジョイント、継続、アクティブな学習を実装します。

Recent advancements in Artificial Intelligence (AI) have brought new capabilities to behavioural analysis (UEBA) for cyber-security consisting in the detection of hostile action based on the unusual nature of events observed on the Information System.In our previous work (presented at C\&ESAR 2018 and FIC 2019), we have associated deep neural networks auto-encoders for anomaly detection and graph-based events correlation to address major limitations in UEBA systems. This resulted in reduced false positive and false negative rates, improved alert explainability, while maintaining real-time performances and scalability. However, we did not address the natural evolution of behaviours through time, also known as concept drift. To maintain effective detection capabilities, an anomaly-based detection system must be continually trained, which opens a door to an adversary that can conduct the so-called "frog-boiling" attack by progressively distilling unnoticed attack traces inside the behavioural models until the complete attack is considered normal. In this paper, we present a solution to effectively mitigate this attack by improving the detection process and efficiently leveraging human expertise. We also present preliminary work on adversarial AI conducting deception attack, which, in term, will be used to help assess and improve the defense system. These defensive and offensive AI implement joint, continual and active learning, in a step that is necessary in assessing, validating and certifying AI-based defensive solutions.
翻訳日:2023-01-11 22:23:55 公開日:2020-01-13
# 集約されたuberデータによる路上走行時間推定

Street-level Travel-time Estimation via Aggregated Uber Data ( http://arxiv.org/abs/2001.04533v1 )

ライセンス: Link先を確認
Kelsey Maass, Arun V Sathanur, Arif Khan, Robert Rallo(参考訳) 都市部における道路セグメントに沿った時間的パターンの推定は,交通技術者や都市計画者にとって重要な課題である。 本研究では,大都市圏の道路レベル移動時間を評価するために,粗粒度と集約された移動時間データを活用する手法を提案する。 我々の主な焦点は、しばしば関連するデータが利用できない幹線道路区間の走行時間を推定することである。 当社のアプローチの中心的な考え方は、uber movementが公開したデータのような、監視しやすい集約されたデータセットを、ループカウンタやプローブデータなど、他の高価なきめ細かいデータセットがオーバーレイ可能な布地として活用することにあります。 提案手法は,道路ネットワークのグラフ表現を用いて,グラフベースのルーティング,トリップサンプリング,グラフスペーシフィケーション,最小二乗最適化などの手法を組み合わせて,街路レベルの走行時間を推定する。 サンプルトリップと重み付き最短経路ルーティングを用いて,制約付き最小二乗問題を繰り返し解き,旅行時間の推定値を得る。 本手法をロサンゼルス大都市圏の街路ネットワークで実証し,交通分析ゾーン間を移動するためのトラヒックタイムデータを収集した。 さらに,新しいグラフ擬似分離手法を用いて,アプローチをスケールする手法を提案する。

Estimating temporal patterns in travel times along road segments in urban settings is of central importance to traffic engineers and city planners. In this work, we propose a methodology to leverage coarse-grained and aggregated travel time data to estimate the street-level travel times of a given metropolitan area. Our main focus is to estimate travel times along the arterial road segments where relevant data are often unavailable. The central idea of our approach is to leverage easy-to-obtain, aggregated data sets with broad spatial coverage, such as the data published by Uber Movement, as the fabric over which other expensive, fine-grained datasets, such as loop counter and probe data, can be overlaid. Our proposed methodology uses a graph representation of the road network and combines several techniques such as graph-based routing, trip sampling, graph sparsification, and least-squares optimization to estimate the street-level travel times. Using sampled trips and weighted shortest-path routing, we iteratively solve constrained least-squares problems to obtain the travel time estimates. We demonstrate our method on the Los Angeles metropolitan-area street network, where aggregated travel time data is available for trips between traffic analysis zones. Additionally, we present techniques to scale our approach via a novel graph pseudo-sparsification technique.
翻訳日:2023-01-11 22:21:47 公開日:2020-01-13
# マシンラーニング決定のための消費者主導的説明:ロバスト性に関する実証的研究

Consumer-Driven Explanations for Machine Learning Decisions: An Empirical Study of Robustness ( http://arxiv.org/abs/2001.05573v1 )

ライセンス: Link先を確認
Michael Hind, Dennis Wei, Yunfeng Zhang(参考訳) 機械学習予測を説明する多くの手法は、実際には非技術消費者にとって理解が難しい。 本稿では、TEDと呼ばれる別の消費者主導のアプローチに基づいて、ターゲットラベルとともにトレーニングデータに説明を提供する。 クレジット承認と従業員保持アプリケーションからの半合成データを用いて,さまざまな分類アルゴリズムによる評価,説明数の変化,説明の多様性など,TEDの実践的考察について検討する。 いくつかのトレーニング例に説明がない場合に対処する新しいアルゴリズムを提案する。 以上の結果から,ted は説明数の増加,騒がしい説明,不明な説明の多さに頑健であり,実用的展開に向けての進展を示している。

Many proposed methods for explaining machine learning predictions are in fact challenging to understand for nontechnical consumers. This paper builds upon an alternative consumer-driven approach called TED that asks for explanations to be provided in training data, along with target labels. Using semi-synthetic data from credit approval and employee retention applications, experiments are conducted to investigate some practical considerations with TED, including its performance with different classification algorithms, varying numbers of explanations, and variability in explanations. A new algorithm is proposed to handle the case where some training examples do not have explanations. Our results show that TED is robust to increasing numbers of explanations, noisy explanations, and large fractions of missing explanations, thus making advances toward its practical deployment.
翻訳日:2023-01-11 22:21:25 公開日:2020-01-13
# ニューラルネットワークの非教師付きドメインアドバイザリトレーニングのインクリメンタル化

Incremental Unsupervised Domain-Adversarial Training of Neural Networks ( http://arxiv.org/abs/2001.04129v1 )

ライセンス: Link先を確認
Antonio-Javier Gallego, Jorge Calvo-Zaragoza, Robert B. Fisher(参考訳) 教師付き統計学習の文脈では、通常、トレーニングセットはテストサンプルを引き出すのと同じ分布に由来すると仮定される。 このような場合、学習モデルの振る舞いは予測不可能であり、トレーニングセットの分布とテストセットの分布との類似度に依存する。 このシナリオを研究する研究トピックの1つは、ドメイン適応と呼ばれる。 ディープニューラルネットワークはパターン認識に劇的な進歩をもたらし、これらのモデルに優れたドメイン適応アルゴリズムを提供するための多くの試みがあった。 ここでは、モデルが新しいドメインに反復的に適応される段階的な視点から、別の道を選び、問題にアプローチします。 我々は、既存の教師なしドメイン適応アルゴリズムを用いて、その真のラベルに対する信頼性の高いターゲットサンプルを識別する。 モデルの出力は、候補サンプルを決定するために異なる方法で分析される。 そして、選択したセットを、ネットワークが提供するラベルを根拠として、ソーストレーニングセットに追加し、すべてのターゲットサンプルがラベル付けされるまでプロセスを繰り返します。 その結果,いくつかのデータセットにおける非増加事例に対する明らかな改善が報告され,他の最先端のドメイン適応アルゴリズムよりも優れていた。

In the context of supervised statistical learning, it is typically assumed that the training set comes from the same distribution that draws the test samples. When this is not the case, the behavior of the learned model is unpredictable and becomes dependent upon the degree of similarity between the distribution of the training set and the distribution of the test set. One of the research topics that investigates this scenario is referred to as domain adaptation. Deep neural networks brought dramatic advances in pattern recognition and that is why there have been many attempts to provide good domain adaptation algorithms for these models. Here we take a different avenue and approach the problem from an incremental point of view, where the model is adapted to the new domain iteratively. We make use of an existing unsupervised domain-adaptation algorithm to identify the target samples on which there is greater confidence about their true label. The output of the model is analyzed in different ways to determine the candidate samples. The selected set is then added to the source training set by considering the labels provided by the network as ground truth, and the process is repeated until all target samples are labelled. Our results report a clear improvement with respect to the non-incremental case in several datasets, also outperforming other state-of-the-art domain adaptation algorithms.
翻訳日:2023-01-11 22:21:13 公開日:2020-01-13
# LESSはもっと:人間の行動の確率論的モデルを再考する

LESS is More: Rethinking Probabilistic Models of Human Behavior ( http://arxiv.org/abs/2001.04465v1 )

ライセンス: Link先を確認
Andreea Bobu, Dexter R.R. Scobee, Jaime F. Fisac, S. Shankar Sastry, Anca D. Dragan(参考訳) ロボットは、人間の目標と好みを推測し、人々が何をするかを予測するために、人間の行動のモデルが必要です。 一般的なモデルはボルツマンノイズレーショナル決定モデル(Boltzmann noisily-rational decision model)であり、報酬関数を概ね最適化し、指数付き報酬に比例して軌道を選択する。 このモデルは様々なロボティクス領域で成功しているが、そのルーツは計量学と、それぞれ独自のユーティリティや報酬を持つ異なる選択肢間の決定をモデル化することにある。 対照的に、人間の軌道は報酬関数に影響を与える連続的な価値を持つ連続した空間にある。 ボルツマンモデルを再考し、それをゼロから設計し、そのような軌道空間上で操作する時が来たと提案する。 報酬のみでなく、軌道間の距離を明示的に考慮するモデルを導入する。 それぞれの軌道が独立して決定に影響を及ぼすのではなく、同様の軌道が共に決定に影響を及ぼす。 まず、モデルがユーザー研究で人間の行動をより良く説明できることを示します。 次に、ロボットによる推論がもたらす意味を分析し、まずは、真実を理解してより正確な推論を行うおもちゃ環境で、最後にユーザーデモから学習する7DOFロボットアームについて分析する。

Robots need models of human behavior for both inferring human goals and preferences, and predicting what people will do. A common model is the Boltzmann noisily-rational decision model, which assumes people approximately optimize a reward function and choose trajectories in proportion to their exponentiated reward. While this model has been successful in a variety of robotics domains, its roots lie in econometrics, and in modeling decisions among different discrete options, each with its own utility or reward. In contrast, human trajectories lie in a continuous space, with continuous-valued features that influence the reward function. We propose that it is time to rethink the Boltzmann model, and design it from the ground up to operate over such trajectory spaces. We introduce a model that explicitly accounts for distances between trajectories, rather than only their rewards. Rather than each trajectory affecting the decision independently, similar trajectories now affect the decision together. We start by showing that our model better explains human behavior in a user study. We then analyze the implications this has for robot inference, first in toy environments where we have ground truth and find more accurate inference, and finally for a 7DOF robot arm learning from user demonstrations.
翻訳日:2023-01-11 22:20:41 公開日:2020-01-13