このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。
公開日が20200122となっている論文です。
Title | Authors | Abstract | 論文公表日・翻訳日 |
---|---|---|---|
# 犯罪予測のための時空間・横断型相関の探索 Exploring Spatio-Temporal and Cross-Type Correlations for Crime Prediction ( http://arxiv.org/abs/2001.06923v2 ) ライセンス: Link先を確認 | Xiangyu Zhao and Jiliang Tang | (参考訳) 犯罪予測は、公共の安全を高め、都市の持続可能な発展に影響を及ぼす。
近年のデータ収集・統合技術の発展に伴い,犯罪関連情報と詳細な時空間ログを備えた大量の都市データが記録されている。
このような有用な情報によって,都市犯罪の時間的発展と空間的要因に対する理解が高まり,犯罪予測の正確性が向上する。
本稿では,都市犯罪のクロスタイプと時空間相関を利用した犯罪予測を行う。
特に,時間的・空間的観点から異なる種類の犯罪の相関関係の存在を検証し,これらの相関関係を数学的にモデル化するコヒーレントな枠組みを提案する。
実世界のデータに対する広範囲な実験結果は,提案フレームワークの有効性を検証する。
犯罪予測における相関関係の重要性を理解するために、さらなる実験が行われた。 Crime prediction plays an impactful role in enhancing public security and sustainable development of urban. With recent advances in data collection and integration technologies, a large amount of urban data with rich crime-related information and fine-grained spatio-temporal logs has been recorded. Such helpful information can boost our understandings about the temporal evolution and spatial factors of urban crimes and can enhance accurate crime prediction. In this paper, we perform crime prediction exploiting the cross-type and spatio-temporal correlations of urban crimes. In particular, we verify the existence of correlations among different types of crime from temporal and spatial perspectives, and propose a coherent framework to mathematically model these correlations for crime prediction. The extensive experimental results on real-world data validate the effectiveness of the proposed framework. Further experiments have been conducted to understand the importance of different correlations in crime prediction. | 翻訳日:2023-06-07 06:31:10 公開日:2020-01-22 |
# 電磁界と相互作用する位置依存質量量子粒子の四極子モーメントのランドウ量子化 Landau Quantization for an electric quadrupole moment of Position-Dependent Mass Quantum Particles interacting with Electromagnetic fields ( http://arxiv.org/abs/2001.07385v2 ) ライセンス: Link先を確認 | Zeinab Algadhi, Omar Mustafa | (参考訳) 電気四極子モーメントを持つ中性粒子に関するランダウ量子化と類似して、ランダウ量子化を一般化し、位置依存質量(PDM)中性粒子を含む。
電界中を移動する電気四極子モーメントを持つPDM中性粒子の正確な溶解性について, 円筒座標を用いて報告する。
PDM中性粒子の電気四極子モーメントと電場のない磁場との相互作用を、2つの異なる放射状円筒PDM設定に対して解析した。
次に、放射状電場(e={\lambda}\r{ho}/\r{ho})とe={\lambda}\r{ho}/2\r{ho})の2つの特別なケースは、ランダウ量子化(pdm設定の同じモデルを用いたシステム)への影響を調べるために考慮される。
各ケースの厳密な固有値と固有関数は解析的に得られる。 Analogous to Landau quantization related to a neutral particle possessing an electric quadrupole moment, we generalize such Landau quantization to include position-dependent mass (PDM) neutral particles. Using cylindrical coordinates, the exact solvability of PDM neutral particles with an electric quadrupole moment moving in electromagnetic fields is reported. The interaction between the electric quadrupole moment of a PDM neutral particle and a magnetic field in the absence of an electric field is analyzed for two different radial cylindrical PDM settings. Next, two particular cases of radial electric fields (E={\lambda}\r{ho}/\r{ho} and E={\lambda}\r{ho}/2\r{ho}) are considered to investigate their influence on the Landau quantization (of this system using the same models of PDM settings). The exact eigenvalues and eigenfunctions for each case are analytically obtained. | 翻訳日:2023-06-06 11:30:17 公開日:2020-01-22 |
# 様々なプラットフォーム上での量子エラー訂正コードのテスト Testing a Quantum Error-Correcting Code on Various Platforms ( http://arxiv.org/abs/2001.07998v1 ) ライセンス: Link先を確認 | Qihao Guo, Yuan-Yuan Zhao, Markus Grassl, Xinfang Nie, Guo-Yong Xiang, Tao Xin, Zhang-Qi Yin, Bei Zeng | (参考訳) 量子誤り訂正はフォールトトレラント量子情報処理において重要な役割を果たす。
通常、複数の量子ビットと高い忠実度を持つ量子ゲートを必要とするため、量子エラー補正を実験的に実現するのは難しい。
本稿では,検出振幅減衰チャネルに対する簡単な量子誤り訂正符号を提案する。
コードは2キュービットしか必要としない。
我々は,光プラットフォーム,IBM Qシステム,核磁気共鳴システム上でのエンコーディング,チャネル,リカバリを実装している。
これらのシステムでは、減衰率が一定の閾値を超えると誤差補正の利点が現れる。
これらの量子情報処理システムの特徴を比較し、現在の量子コンピューティングプラットフォームにおける量子誤差補正の利点を実証する。 Quantum error correction plays an important role in fault-tolerant quantum information processing. It is usually difficult to experimentally realize quantum error correction, as it requires multiple qubits and quantum gates with high fidelity. Here we propose a simple quantum error-correcting code for the detected amplitude damping channel. The code requires only two qubits. We implement the encoding, the channel, and the recovery on an optical platform, the IBM Q System, and a nuclear magnetic resonance system. For all of these systems, the error correction advantage appears when the damping rate exceeds some threshold. We compare the features of these quantum information processing systems used and demonstrate the advantage of quantum error correction on current quantum computing platforms. | 翻訳日:2023-06-06 07:17:40 公開日:2020-01-22 |
# 単一グラフィックス処理ユニットを用いた量子鍵分布の100Mbps再構成 100Mbps Reconciliation for Quantum Key Distribution Using a Single Graphics Processing Unit ( http://arxiv.org/abs/2001.07979v1 ) ライセンス: Link先を確認 | Yu Guo, Chaohui Gao, Dong Jiang, Lijun Chen | (参考訳) 量子鍵分布(qkd)のポストプロセッシングには,効率的な誤り照合方式が重要である。
近年,高効率情報再構成のための目立った視点を提供するマルチマトリックス低密度パリティチェック符号に基づくリコンシリエーションアルゴリズムが提案されている。
本稿では,和解性能の向上について述べる。
グラフィックス処理ユニット(gpu)にマルチマトリックスアルゴリズムを実装し最適化し、高い調整スループットを得る。
実験の結果、gpuベースのアルゴリズムは、平均85.67mbps、最大102.084mbpsの回復スループットを、典型的なコードレートと効率で高度に改善できることが示されている。
これは私たちの知る限り、GPUプラットフォームでの和解の最高のパフォーマンスです。 An efficient error reconciliation scheme is important for post-processing of quantum key distribution (QKD). Recently, a multi-matrix low-density parity-check codes based reconciliation algorithm which can provide remarkable perspectives for high efficiency information reconciliation was proposed. This paper concerns the improvement of reconciliation performance. Multi-matrix algorithm is implemented and optimized on the graphics processing unit (GPU) to obtain high reconciliation throughput. Experimental results indicate that GPU-based algorithm can highly improve reconciliation throughput to an average 85.67 Mbps and a maximum 102.084 Mbps with typical code rate and efficiency. This is the best performance of reconciliation on GPU platform to our knowledge. | 翻訳日:2023-06-06 07:17:09 公開日:2020-01-22 |
# augKlimb: ボルダリングトレーニングのインタラクティブデータ駆動強化 augKlimb: Interactive Data-Led Augmentation of Bouldering Training ( http://arxiv.org/abs/2001.07944v1 ) ライセンス: Link先を確認 | Luke Storry | (参考訳) 登山は人気のあるスポーツであり、特に屋内では人工のホールドを使って人工のルートを訓練することができる。
登頂を成功させるためには、強度と優れたテクニックの両方が必要であり、しばしばコーチは技術を改善するために働き、その強度を少なくし、登山者がより難しい登頂を行えるようにする。
近年、登山にコンピュータインタラクションを加える様々な側面が研究されているが、よりトリッキーな登山と独自の技術の改善の両方で、レクリエーション中間登山者を支援する軽量なツールの研究の余地は大きい。
このcsマスターズ最終プロジェクトでは、登山者のトレーニングを改善するデータキャプチャーとアウトプット機能の種類を調査し、登山者が登山セッションを通してデータを見ることにどう反応したかを分析し、ユーザー中心の設計を行い、中間登山者のための軽量なモバイルアプリケーションを構築しました。
様々なハードウェアとソフトウェアソリューションが、一連の調査、議論、ウィザード・オブ・オズの研究、そしてプロトタイピングを通じて探索、テスト、開発され、結果として、プロジェクトの時間範囲からすると、ローカルな屋内ボルダーのニーズに最も近いシステムとなった。
トレーニングツールとゲーミフィケーションインセンティブの両方として、登山者の加速度を記録し、グラフ化し、スコア付けすることのできるインタラクティブなモバイルアプリと、ビデオ録画をアクセラレーショングラフにリンクし、弱点のフレーム・バイ・フレームによる検査を可能にし、完全に承認され、google play storeに配布され、現在15人の登山家が定期的に使用している。
次に,40分間のインタビュー書面のテーマ分析を含む最終ユーザビリティ調査を行い,それを用いた登山者への影響と,そのメリットと限界について深く理解した。 Climbing is a popular and growing sport, especially indoors, where climbers can train on man-made routes using artificial holds. Both strength and good technique is required to successfully reach the top of a climb, and often coaches work to improve technique so less strength is required, enabling a climber to ascent more difficult climbs. Various aspects of adding computer-interaction to climbing have been studied in recent years, but there is a large space for research into lightweight tools to aid recreational intermediate climbers, both with trickier climbs and to improve their own technique. In this CS Masters final project, I explored which form of data-capture and output-features could improve a climber's training, and analysed how climbers responded to viewing their data throughout a climbing session, then conducted a user-centred design to build a lightweight mobile application for intermediate climbers. A variety of hardware and software solutions were explored, tested and developed through series of surveys, discussions, wizard-of-oz studies and prototyping, resulting in a system that most closely meets the needs of local indoor boulderers given the project's time scope. This consists of an iteratively developed interactive mobile app that: can record, graph, and score the acceleration of a climber, as both a training tool and gamification incentive for good technique; can link a video recording to the acceleration graph, to enable frame-by-frame inspection of weaknesses; is fully approved and distributed on the Google play Store and currently being regularly used by 15 local climbers. Then I conducted a final usability study, comprising a thematic analysis of forty minutes's worth of interview transcripts, to gain a deep understanding of the app's impact on the climbers using it, along with its benefits and limitations. | 翻訳日:2023-06-06 07:16:56 公開日:2020-01-22 |
# 絡み合いパターンによる時空走査 Scanning space-time with patterns of entanglement ( http://arxiv.org/abs/2001.07923v1 ) ライセンス: Link先を確認 | P\'eter L\'evay and Bercel Boldis | (参考訳) In the ${\rm AdS}_3/{\rm CFT}_2$ setupでは、CFT真空のエンタングルメントのゲージ不変境界パターンが、$A_{N-3}$, $N\geq 4$ cluster algebraの係数ダイナミクスを介してバルクにエンコードされるかを明らかにする。
静的の場合、このエンコーディングのダイナミクスは、特に指示的な方法でド・ジッター空間 ${\rm ds}_2$ のコピーであるキネマティック空間にそれ自体を示す。
境界を$N$領域に分割する際、重なり合う領域の条件付き相互情報に関連する絡み合いのパターンは、測地線の$N$-ゴンの三角関係に関係している。
このような三角測量は、キネマティック空間の因果パターンにマッピングされる。
すべての因果パターンの空間は、以前の散乱振幅の研究からよく知られたアソシヘドロン ${\mathcal k}^{n-3}$ と関連している。
この因果パターンのクラスタ・ダイナミクスの空間上では、ザモロドチコフの$Y$系(A_{N-3},A_1)$で与えられる再帰によって作用する。
因果パターンの空間は部分順序を持ち、タマリ格子に同型である。
因果パターンの変異は、${\rm dS}_2$の点の過去の光円錐において特異な方法で相互作用するN-3$粒子のウォークによってカプセル化することができる。 In the ${\rm AdS}_3/{\rm CFT}_2$ setup we elucidate how gauge invariant boundary patterns of entanglement of the CFT vacuum are encoded into the bulk via the coefficient dynamics of an $A_{N-3}$, $N\geq 4$ cluster algebra. In the static case this dynamics of encoding manifests itself in kinematic space, which is a copy of de Sitter space ${\rm dS}_2$, in a particularly instructive manner. For a choice of partition of the boundary into $N$ regions the patterns of entanglement, associated with conditional mutual informations of overlapping regions, are related to triangulations of geodesic $N$-gons. Such triangulations are then mapped to causal patterns in kinematic space. For a fixed $N$ the space of all causal patterns is related to the associahedron ${\mathcal K}^{N-3}$ an object well-known from previous studies on scattering amplitudes. On this space of causal patterns cluster dynamics acts by a recursion provided by a Zamolodchikov's $Y$-system of type $(A_{N-3},A_1)$. We observe that the space of causal patterns is equipped with a partial order, and is isomorphic to the Tamari lattice. The mutation of causal patterns can be encapsulated by a walk of $N-3$ particles interacting in a peculiar manner in the past light cone of a point of ${\rm dS}_2$. | 翻訳日:2023-06-06 07:16:23 公開日:2020-01-22 |
# 絡み合った多体プローブによるunruh効果の推定 Estimating the Unruh effect via entangled many-body probes ( http://arxiv.org/abs/2001.07865v1 ) ライセンス: Link先を確認 | Jieci Wang, Li Zhang, Songbai Chen, and Jiliang Jing | (参考訳) 本研究では,多体連接型Unruh-DeWitt検出器を用いた量子メトロジースキームのパラメータ推定について検討した。
その結果,Unruh効果の推定精度は初期状態準備とパラメータ選択によって向上できることがわかった。
マルチボディ・プローブ・メトロジーの観点からのウンルー温度推定の精度は、2つのプローブ戦略の精度よりも常に優れていることが示されている。
ボブ検出器の適切な加速と加速検出器と外部磁場との相互作用は、unruh効果の推定精度に大きな影響を与えている。
さらに、初期状態の励起原子を多く含むプローブ状態は、低励起初期状態よりも優れた性能を示すことが判明した。
しかし、unruh温度の推定と異なり、加速検出器の有効結合パラメータの推定は、推定においてより多くの全原子を必要とするが、励起原子が少ない。 We study the estimation of parameters in a quantum metrology scheme based on entangled many-body Unruh-DeWitt detectors. It is found that the precision for the estimation of Unruh effect can be enhanced via initial state preparations and parameter selections. It is shown that the precision in the estimation of the Unruh temperature in terms of a many-body-probe metrology is always better than the precision in two probe strategies. The proper acceleration for Bob's detector and the interaction between the accelerated detector and the external field have significant influences on the precision for the Unruh effect's estimation. In addition, the probe state prepared with more excited atoms in the initial state is found to perform better than less excited initial states. However, different from the estimation of the Unruh temperature, the estimation of the effective coupling parameter for the accelerated detector requires more total atoms but less excited atoms in the estimations. | 翻訳日:2023-06-06 07:15:38 公開日:2020-01-22 |
# 単一光子渦熱状態のリモート調製 Remote preparation of single photon vortex thermal states ( http://arxiv.org/abs/2001.08178v1 ) ライセンス: Link先を確認 | T. H\"affner, G. L. Zanin, R. M. Gomes, L. C. C\'eleri, and P. H. Souto Ribeiro | (参考訳) 自発的にパラメトリックなダウンコンバージョンで生成される光子対は、軌道角運動量を含む横方向の空間自由度で自然に絡み合っている。
ゼロ次ガウスモードで非線形結晶を励起すると、軌道角運動量と反対符号が等しい量子相関信号とアイドラー光子が得られる。
光子の一方で行った測定は、もう一方の状態を遠隔で準備する。
本システムにおける遠隔状態生成について,量子熱力学への応用の可能性の観点から検討する。 Photon pairs produced in spontaneous parametric down-conversion are naturally entangled in their transverse spatial degrees of freedom including the orbital angular momentum. Pumping a non-linear crystal with a zero order Gaussian mode produces quantum correlated signal and idler photons with equal orbital angular momentum and opposite signs. Measurements performed on one of the photons prepares the state of the other remotely. We study the remote state preparation in this system from the perspective of its potential application to Quantum Thermodynamics. | 翻訳日:2023-06-06 07:08:47 公開日:2020-01-22 |
# 純粋デコヒーレンスを受ける量子系の動的状態再構成 Dynamic state reconstruction of quantum systems subject to pure decoherence ( http://arxiv.org/abs/2001.08167v1 ) ライセンス: Link先を確認 | Artur Czerwinski | (参考訳) 本稿では,量子状態トモグラフィの効率のよい量子状態トモグラフィ法について紹介する。
本稿では, 位相減衰チャネルを通じて送信されるオープンシステムの動的状態再構成手法を提案する。
インフ。
ダイン。
23, 1650019 (2016).
本論文では,4つの異なる時間で測定された2つの異なる観測器が,位相減衰チャネルによって与えられる進化を伴うクトリットの初期密度行列を再構築するために十分であることを示す。
さらに,エンタングル量子ビットの量子トモグラフィーの最適基準を決定するために,このアプローチを一般化する。
最後に、キューディットの量子トモグラフィーに必要な微分可観測物の最小数に関する2つの普遍定理を証明する。
動的状態再構成方式は量子トモグラフィーに顕著な進歩と新規性をもたらすと我々は信じている。 The article introduces efficient quantum state tomography schemes for qutrits and entangled qubits subject to pure decoherence. We implement the dynamic state reconstruction method for open systems sent through phase-damping channels which was proposed in: Open Syst. Inf. Dyn. 23, 1650019 (2016). In the current article we prove that two distinct observables measured at four different time instants suffice to reconstruct the initial density matrix of a qutrit with evolution given by a phase-damping channel. Furthermore, we generalize the approach in order to determine the optimal criteria for quantum tomography of entangled qubits. Finally, we prove two universal theorems concerning the minimal number of distinct observables required for quantum tomography of qudits. We believe that dynamic state reconstruction schemes bring significant advancement and novelty to quantum tomography since they allow to reduce the number of distinct measurements required to solve the problem, which is important from the experimental point of view. | 翻訳日:2023-06-06 07:08:40 公開日:2020-01-22 |
# 優先アタッチメントネットワークモデルにおける時間不変度成長 Time-invariant degree growth in preferential attachment network models ( http://arxiv.org/abs/2001.08132v1 ) ライセンス: Link先を確認 | Jun Sun, Mat\'u\v{s} Medo, Steffen Staab | (参考訳) 優先アタッチメントは多くの複雑なネットワークの進化を促進する。
その分析研究は、多くの実ネットワークの成長が加速しているにもかかわらず、時間とともに均一に成長するネットワークの最も単純なケースを主に考慮している。
本研究では,ノードの平均次数成長が経験的ネットワークデータにおいて時間不変であることから,ノードのアタッチメントが不均一なノードの適合性や老化と組み合わせられるネットワークモデルの関連するクラスにおける次数ダイナミクスについて検討する。
本研究では,実験システムの時間不変性に基づく新しい解析フレームワークを提案するとともに,ネットワークの成長形式である一様および指数的ネットワーク成長のみに対して自己整合性を示す。
逆に、そのような時間不変性の破れは、いくつかのモデル設定におけるすべての勝者効果を説明し、ビアンコーニ・バラブ・マナシモデルにおけるボース=アインシュタイン凝縮と超線型優先アタッチメントにおける同様のゲル化との接続を明らかにする。
老化は、現実的なノード度成長曲線を再現するために必要であり、弱い条件下での全ての勝利効果を防止できる。
本結果は広範囲な数値シミュレーションにより検証した。 Preferential attachment drives the evolution of many complex networks. Its analytical studies mostly consider the simplest case of a network that grows uniformly in time despite the accelerating growth of many real networks. Motivated by the observation that the average degree growth of nodes is time-invariant in empirical network data, we study the degree dynamics in the relevant class of network models where preferential attachment is combined with heterogeneous node fitness and aging. We propose a novel analytical framework based on the time-invariance of the studied systems and show that it is self-consistent only for two special network growth forms: the uniform and exponential network growth. Conversely, the breaking of such time-invariance explains the winner-takes-all effect in some model settings, revealing the connection between the Bose-Einstein condensation in the Bianconi-Barab\'{a}si model and similar gelation in superlinear preferential attachment. Aging is necessary to reproduce realistic node degree growth curves and can prevent the winner-takes-all effect under weak conditions. Our results are verified by extensive numerical simulations. | 翻訳日:2023-06-06 07:08:03 公開日:2020-01-22 |
# 干渉する識別可能な光子 Interfering distinguishable photons ( http://arxiv.org/abs/2001.08125v1 ) ライセンス: Link先を確認 | Alex E. Jones, Adrian J. Menssen, Helen M. Chrzanowski, Tom A. W. Wolterink, Valery S. Shchesnovich and Ian A. Walmsley | (参考訳) 量子力学の中心的な原理の1つは、同じ事象に繋がる複数の経路があり、それらを区別する方法が存在しない場合、干渉が発生することである。
通常、システムの準備、進化、または測定において情報の区別は干渉を破壊するのに十分であると仮定される。
例えば、ヤングの二重スリット実験でどのスリット粒子が取られるか、あるいは2光子を持つ香港・ウー・マンデル効果で区別可能な光子を用いることで、検出イベントにつながる経路の識別が可能であり、どちらの場合も干渉は消滅する。
3つ以上の独立した量子粒子において、生成状態の識別性は多粒子干渉が消滅するのに十分な条件ではない。
ここでは、この4つの光子が対に区別可能な状態で合成され、多粒子干渉の直観が根本的に難しいことを実験的に示す。 One of the central principles of quantum mechanics is that if there are multiple paths that lead to the same event, and there is no way to distinguish between them, interference occurs. It is usually assumed that distinguishing information in the preparation, evolution or measurement of a system is sufficient to destroy interference. For example, determining which slit a particle takes in Young's double slit experiment or using distinguishable photons in the two-photon Hong-Ou-Mandel effect allow discrimination of the paths leading to detection events, so in both cases interference vanishes. Remarkably for more than three independent quantum particles, distinguishability of the prepared states is not a sufficient condition for multiparticle interference to disappear. Here we experimentally demonstrate this for four photons prepared in pairwise distinguishable states, thus fundamentally challenging intuition of multiparticle interference. | 翻訳日:2023-06-06 07:07:42 公開日:2020-01-22 |
# 普遍翻訳不変ハミルトニアン Universal Translationally-Invariant Hamiltonians ( http://arxiv.org/abs/2001.08050v1 ) ライセンス: Link先を確認 | Stephen Piddock and Johannes Bausch | (参考訳) この研究において、普遍量子ハミルトニアンの概念を変換不変系の設定に拡張する。
本稿では,近距離相互作用,開境界,並進対称性を有する2次元スピン格子を用いて,任意の局所対象ハミルトニアンをシミュレートし,その低エネルギー部分空間内の対象系全体を任意に高精度に再現する構成について述べる。
これは、翻訳的不変結合を持つ非翻訳的不変多体系をシミュレートする能力を意味するので、外部障害を持つ系に共通する特性、例えば多体局在など、あらゆる効果は、翻訳的不変系の低エネルギーヒルベルト空間セクタ内でも起こり得る。
次に、翻訳不変な目標ハミルトニアンをシミュレートするために最適化された普遍格子構成の変形をスケッチする。
最後に、ハイゼンベルクあるいはxy相互作用からなるキュービットハミルトニアンが、$\mathbb{r}^d$ に埋め込まれた連結翻訳不変グラフの辺に制限された様々な相互作用強度からなることが証明され、任意の幾何学的局所ハミルトニアンを $\mathbb{r}^d$ で効率的にシミュレートすることができる。 In this work we extend the notion of universal quantum Hamiltonians to the setting of translationally-invariant systems. We present a construction that allows a two-dimensional spin lattice with nearest-neighbour interactions, open boundaries, and translational symmetry to simulate any local target Hamiltonian---i.e. to reproduce the whole of the target system within its low-energy subspace to arbitrarily-high precision. Since this implies the capability to simulate non-translationally-invariant many-body systems with translationally-invariant couplings, any effect such as characteristics commonly associated to systems with external disorder, e.g. many-body localization, can also occur within the low-energy Hilbert space sector of translationally-invariant systems. Then we sketch a variant of the universal lattice construction optimized for simulating translationally-invariant target Hamiltonians. Finally we prove that qubit Hamiltonians consisting of Heisenberg or XY interactions of varying interaction strengths restricted to the edges of a connected translationally-invariant graph embedded in $\mathbb{R}^D$ are universal, and can efficiently simulate any geometrically local Hamiltonian in $\mathbb{R}^D$. | 翻訳日:2023-06-06 07:07:04 公開日:2020-01-22 |
# エキゾチックな時空R4からの量子計算と測定 Quantum computation and measurements from an exotic space-time R4 ( http://arxiv.org/abs/2001.09091v1 ) ライセンス: Link先を確認 | Michel Planat, Raymond Aschheim, Marcelo. M. Amaral and Klee Irwin | (参考訳) 著者らは以前、自由群 $G$ の部分群のコセット構造と関係性を利用して普遍量子計算のモデルを発見した。
有効な部分群$h$ of index $d$ in $g$ は、最小の情報的完全量子測定(またはmic)を符号化し、有限な「文脈的」幾何学を持つ、$d$-次元ヒルベルト空間における「魔法」状態$\left|\psi\right\rangle$ をもたらす。
本研究において、g$ をエキゾチックな 4 次元多様体 $v$ の基本群 $\pi_1(v)$ として選択し、より正確には "small exotic' (space-time) $r^4$ (同相で等質的だがユークリッドの $\mathbb{r}^4$ に二相ではない) とする。
S. Akbulut と R。
〜e。
gompfには2つの特徴があります
(i)ファノ平面(インデックス7ドル)、メルミンのペンタグラム(インデックス10ドル)、2ビット可換図$GQ(2,2)$(インデックス15ドル)、および組合せグラスマン的Gr$(2,8ドル)$(インデックス28ドル)のような標準的な文脈幾何学の発生を示す。
(II)このようなエキゾチックな(時空)$R^4$sから生じるMICの測定の解釈を可能にする。
トポロジカル量子コンピューティングとエキゾチック時空に関する新しい図は、また「量子重力」のアプローチとなることを意図している。 The authors previously found a model of universal quantum computation by making use of the coset structure of subgroups of a free group $G$ with relations. A valid subgroup $H$ of index $d$ in $G$ leads to a 'magic' state $\left|\psi\right\rangle$ in $d$-dimensional Hilbert space that encodes a minimal informationally complete quantum measurement (or MIC), possibly carrying a finite 'contextual' geometry. In the present work, we choose $G$ as the fundamental group $\pi_1(V)$ of an exotic $4$-manifold $V$, more precisely a 'small exotic' (space-time) $R^4$ (that is homeomorphic and isometric, but not diffeomorphic to the Euclidean $\mathbb{R}^4$). Our selected example, due to to S. Akbulut and R.~E. Gompf, has two remarkable properties: (i) it shows the occurence of standard contextual geometries such as the Fano plane (at index $7$), Mermin's pentagram (at index $10$), the two-qubit commutation picture $GQ(2,2)$ (at index $15$) as well as the combinatorial Grassmannian Gr$(2,8)$ (at index $28$) , (ii) it allows the interpretation of MICs measurements as arising from such exotic (space-time) $R^4$'s. Our new picture relating a topological quantum computing and exotic space-time is also intended to become an approach of 'quantum gravity'. | 翻訳日:2023-06-06 07:01:02 公開日:2020-01-22 |
# 相関テンソルに基づく多部分離性基準の一家系 A family of multipartite separability criteria based on correlation tensor ( http://arxiv.org/abs/2001.08258v1 ) ライセンス: Link先を確認 | Gniewomir Sarbicki and Giovanni Scala and Dariusz Chru\'sci\'nski | (参考訳) 相関行列(tensor)に基づく分離性基準のファミリーを提供する。
興味深いことに、CCNRやReignment criterion、De Vicente criterion、SIC POVMsに基づく最近の分離性 criterionなど、これまで知られていたいくつかの基準を統一している。
局所不確実性関係に基づくよく知られた相関行列の基準や基準とは異なり、新しい基準は密度作用素において線形であるため、絡み合いの証人や正の写像の新しいクラスを見つけることができる。
興味深いことに、多部相関行列を用いた多部相関シナリオへの自然な一般化が存在する。
我々は、量子状態のいくつかのよく知られた例において、上記の基準の検出能力を示す。 A family of separability criteria based on correlation matrix (tensor) is provided. Interestingly, it unifies several criteria known before like e.g. CCNR or realignment criterion, de Vicente criterion and derived recently separability criterion based on SIC POVMs. It should be stressed that, unlike the well known Correlation Matrix Criterion or criterion based on Local Uncertainty Relations, the new criteria are linear in the density operator and hence one may find new classes of entanglement witnesses and positive maps. Interestingly, there is a natural generalization to multipartite scenario using multipartite correlation matrix. We illustrate the detection power of the above criteria on several well known examples of quantum states. | 翻訳日:2023-06-06 06:59:05 公開日:2020-01-22 |
# ClassCode: 教室におけるプログラミング教育のための対話型学習環境 ClassCode: An Interactive Teaching and Learning Environment for Programming Education in Classrooms ( http://arxiv.org/abs/2001.08194v1 ) ライセンス: Link先を確認 | Ryo Suzuki, Jun Kato, Koji Yatani | (参考訳) プログラミング教育は、コンピュータリテラシーとコーディングスキルの需要が高まるにつれて重要になっている。
インタラクティブなオンライン学習システムの普及にもかかわらず、学校のプログラミングコースの多くは、従来の教室環境から授業形式を変更していない。
研究の機会は2つあります
学生はプログラミングの専門知識と経験が多種多様である。
したがって、特定の内容や指導速度を経験者や初心者の学習者に対して低下させることができる。
大きな教室では、インストラクターは各生徒の学習の進捗を監督することができず、個々の生徒の理解レベルと教材の整合が困難である。
教室でのプログラミング教育に適したWebベースの環境であるClassCodeを紹介する。
学生は、インストラクターが準備したオンラインチュートリアルを自分のペースで受けられる。
チュートリアルの中でインターリーブされたインタラクティブなコーディング演習を実行することで、理解を深めることができる。
ClassCodeは各生徒のすべてのインタラクションを追跡し、インストラクターに要約する。
これは進捗レポートとして機能し、インストラクタがコース資料をその場であるいは修正するために追加の説明を提供する。
大学における既存のプログラミングコースの課題にどのように対処できるかを明らかにすることで,教師やアシスタントによる小規模な講義や専門家によるレビューを通じてユーザ評価を行った。 Programming education is becoming important as demands on computer literacy and coding skills are growing. Despite the increasing popularity of interactive online learning systems, many programming courses in schools have not changed their teaching format from the conventional classroom setting. We see two research opportunities here. Students may have diverse expertise and experience in programming. Thus, particular content and teaching speed can be disengaging for experienced students or discouraging for novice learners. In a large classroom, instructors cannot oversee the learning progress of each student, and have difficulty matching teaching materials with the comprehension level of individual students. We present ClassCode, a web-based environment tailored to programming education in classrooms. Students can take online tutorials prepared by instructors at their own pace. They can then deepen their understandings by performing interactive coding exercises interleaved within tutorials. ClassCode tracks all interactions by each student, and summarizes them to instructors. This serves as a progress report, facilitating the instructors to provide additional explanations in-situ or revise course materials. Our user evaluation through a small lecture and expert review by instructors and teaching assistants confirm the potential of ClassCode by uncovering how it could address issues in existing programming courses at universities. | 翻訳日:2023-06-06 06:57:26 公開日:2020-01-22 |
# PatDNN: パターンベースの軽量プルーニングを備えたモバイルデバイスでのリアルタイムDNN実行を実現する PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with Pattern-based Weight Pruning ( http://arxiv.org/abs/2001.00138v4 ) ライセンス: Link先を確認 | Wei Niu, Xiaolong Ma, Sheng Lin, Shihao Wang, Xuehai Qian, Xue Lin, Yanzhi Wang, Bin Ren | (参考訳) ハイエンドモバイルデバイスの出現に伴い、以前はデスクトップレベルの計算能力を必要としていた多くのアプリケーションがこれらのデバイスに転送されている。
しかし、DNN(Deep Neural Networks)の推論の実行は、高い計算とストレージ要求、特に高精度なリアルタイムパフォーマンスが必要な場合、依然として困難である。
非構造化プルーニングは細粒度であり、正確であるが、ハードウェアフレンドリーではない;構造化プルーニングは粗粒度で、ハードウェア効率が高く、高い精度の損失がある。
本稿では, 粗粒構造の内部に新しい寸法細粒状プルーニングパターンを導入し, 設計空間における従来不明な点を明らかにする。
細粒度のプルーニングパターンによって高い精度を実現しているため、コンパイラを使って高いハードウェア効率を保証できるというユニークな洞察がある。
言い換えれば,本手法は両世界の最良を達成し,理論・アルゴリズム,コンパイラ,ハードウェアレベルで望ましい。
提案するPatDNNは、新しいモデル圧縮技術(拡張ADMMソリューションフレームワークに基づくパターンベースプルーニング)と、アーキテクチャを意識したコンパイラとコード生成ベースの最適化(フィルタカーネルのリオーダー、圧縮重み付け、レジスタロード冗長性排除、パラメータ自動チューニング)の助けを借りて、モバイルデバイス上でDNNを効率的に実行するためのエンドツーエンドフレームワークである。
評価結果は、PatDNNが3つの最先端のエンドツーエンドDNNフレームワーク、TensorFlow Lite、TVM、Alibaba Mobile Neural Networkをそれぞれ44.5x、11.4x、7.1xで上回り、精度の妥協はないことを示している。
代表的な大規模DNN(例えばVGG-16、ResNet-50)のリアルタイム推論はモバイルデバイスで実現できる。 With the emergence of a spectrum of high-end mobile devices, many applications that formerly required desktop-level computation capability are being transferred to these devices. However, executing the inference of Deep Neural Networks (DNNs) is still challenging considering high computation and storage demands, specifically, if real-time performance with high accuracy is needed. Weight pruning of DNNs is proposed, but existing schemes represent two extremes in the design space: non-structured pruning is fine-grained, accurate, but not hardware friendly; structured pruning is coarse-grained, hardware-efficient, but with higher accuracy loss. In this paper, we introduce a new dimension, fine-grained pruning patterns inside the coarse-grained structures, revealing a previously unknown point in design space. With the higher accuracy enabled by fine-grained pruning patterns, the unique insight is to use the compiler to re-gain and guarantee high hardware efficiency. In other words, our method achieves the best of both worlds, and is desirable across theory/algorithm, compiler, and hardware levels. The proposed PatDNN is an end-to-end framework to efficiently execute DNN on mobile devices with the help of a novel model compression technique (pattern-based pruning based on extended ADMM solution framework) and a set of thorough architecture-aware compiler- and code generation-based optimizations (filter kernel reordering, compressed weight storage, register load redundancy elimination, and parameter auto-tuning). Evaluation results demonstrate that PatDNN outperforms three state-of-the-art end-to-end DNN frameworks, TensorFlow Lite, TVM, and Alibaba Mobile Neural Network with speedup up to 44.5x, 11.4x, and 7.1x, respectively, with no accuracy compromise. Real-time inference of representative large-scale DNNs (e.g., VGG-16, ResNet-50) can be achieved using mobile devices. | 翻訳日:2023-01-16 09:30:53 公開日:2020-01-22 |
# first image then video: 時空間ビデオのための2段階ネットワーク First image then video: A two-stage network for spatiotemporal video denoising ( http://arxiv.org/abs/2001.00346v2 ) ライセンス: Link先を確認 | Ce Wang, S. Kevin Zhou, Zhiwei Cheng | (参考訳) ビデオデノナイジングはノイズ崩壊したデータからノイズを取り除き、時空間処理によって真の信号を復元する。
既存の時空間ビデオデノゲーションのアプローチでは、動きのぼやけたアーティファクトに悩まされる傾向があり、特に物体が高速な動きをすると、移動物体の境界がぼやけてしまう傾向にあり、光学的フロー計算が故障する。
本稿では,フレーム内ノイズを空間的に低減する画像デノナイズモジュールと,時空間ビデオデノナイズモジュールを組み合わせた,第1像の2段階デノナイズニューラルネットワークを設計することで,この問題に対処する。
直観は単純だが強力で効果的であり、画像の1段目はノイズレベルを効果的に減らし、2段目は運動する物体の境界に沿って、より優れたモデリングと学習のために時空間の分極を許容する。
この2段階ネットワークは、エンドツーエンドの方法でトレーニングされると、品質と計算の両面で、ビデオデノイジングベンチマークvimeo90kデータセットの最先端のパフォーマンスが得られる。
また、既存の教師なしのアプローチと同等のパフォーマンスを達成する教師なしのアプローチを可能にする。 Video denoising is to remove noise from noise-corrupted data, thus recovering true signals via spatiotemporal processing. Existing approaches for spatiotemporal video denoising tend to suffer from motion blur artifacts, that is, the boundary of a moving object tends to appear blurry especially when the object undergoes a fast motion, causing optical flow calculation to break down. In this paper, we address this challenge by designing a first-image-then-video two-stage denoising neural network, consisting of an image denoising module for spatially reducing intra-frame noise followed by a regular spatiotemporal video denoising module. The intuition is simple yet powerful and effective: the first stage of image denoising effectively reduces the noise level and, therefore, allows the second stage of spatiotemporal denoising for better modeling and learning everywhere, including along the moving object boundaries. This two-stage network, when trained in an end-to-end fashion, yields the state-of-the-art performances on the video denoising benchmark Vimeo90K dataset in terms of both denoising quality and computation. It also enables an unsupervised approach that achieves comparable performance to existing supervised approaches. | 翻訳日:2023-01-16 04:22:49 公開日:2020-01-22 |
# 確率確率的プログラム Stochastic Probabilistic Programs ( http://arxiv.org/abs/2001.02656v3 ) ライセンス: Link先を確認 | David Tolpin, Tomer Dobkin | (参考訳) 本稿では確率確率的プログラムの概念を紹介し,確率的確率的プログラムの仕様と推論を支援する確率的プログラミング施設のリファレンス実装を提案する。
確率確率プログラムは、ニュアサンスパラメータ、ノイズ、非決定性を持つモデルにおいて、単純明快な仕様と効率的な推論を可能にする。
確率確率確率プログラムのいくつかの例を示し、モデル仕様と推論の観点から対応する決定論的確率プログラムと比較する。
オープンリサーチと関連する研究の議論から締めくくります。 We introduce the notion of a stochastic probabilistic program and present a reference implementation of a probabilistic programming facility supporting specification of stochastic probabilistic programs and inference in them. Stochastic probabilistic programs allow straightforward specification and efficient inference in models with nuisance parameters, noise, and nondeterminism. We give several examples of stochastic probabilistic programs, and compare the programs with corresponding deterministic probabilistic programs in terms of model specification and inference. We conclude with discussion of open research topics and related work. | 翻訳日:2023-01-13 09:59:57 公開日:2020-01-22 |
# Graph-Bert: グラフ表現の学習には注意が必要だ Graph-Bert: Only Attention is Needed for Learning Graph Representations ( http://arxiv.org/abs/2001.05140v2 ) ライセンス: Link先を確認 | Jiawei Zhang, Haopeng Zhang, Congying Xia, Li Sun | (参考訳) グラフリンク上の支配的グラフニューラルネットワーク(gnn)は、アニメーション問題や過剰なスムーシング問題など、すでにいくつか深刻なパフォーマンス上の問題が指摘されている。
さらに、本質的に相互接続性はグラフ内の並列化を妨げ、メモリ制約がノード間のバッチを制限しているため、大規模なグラフでは重要になる。
本稿では,グラフ畳み込みや集約演算子を使わずにアテンション機構のみに基づく新しいグラフニューラルネットワーク( Graph-BERT (Graph based BERT))を導入する。
Graph-BERT を完全大入力グラフで表す代わりに、ローカルコンテキスト内でサンプル化されたリンクレスサブグラフで GRAPH-BERT を訓練することを提案する。
GRAPH-BERTはスタンドアロンモードで効果的に学習できる。
一方、事前訓練されたGRAPH-BERTは、監督されたラベル情報や特定のアプリケーション指向の目的が利用可能であれば、他のアプリケーションタスクに直接、あるいは必要な微調整で転送することもできる。
いくつかのグラフベンチマークデータセットにおける Graph-BERT の有効性を検証した。
ノード属性再構成と構造回復タスクを備えた事前学習された Graph-BERT に基づいて,ノード分類およびグラフクラスタリングタスクについてさらに微調整を行う。
実験の結果,GRAPH-BERTは学習効率と効率の両方で既存のGNNよりも優れていた。 The dominant graph neural networks (GNNs) over-rely on the graph links, several serious performance problems with which have been witnessed already, e.g., suspended animation problem and over-smoothing problem. What's more, the inherently inter-connected nature precludes parallelization within the graph, which becomes critical for large-sized graph, as memory constraints limit batching across the nodes. In this paper, we will introduce a new graph neural network, namely GRAPH-BERT (Graph based BERT), solely based on the attention mechanism without any graph convolution or aggregation operators. Instead of feeding GRAPH-BERT with the complete large input graph, we propose to train GRAPH-BERT with sampled linkless subgraphs within their local contexts. GRAPH-BERT can be learned effectively in a standalone mode. Meanwhile, a pre-trained GRAPH-BERT can also be transferred to other application tasks directly or with necessary fine-tuning if any supervised label information or certain application oriented objective is available. We have tested the effectiveness of GRAPH-BERT on several graph benchmark datasets. Based the pre-trained GRAPH-BERT with the node attribute reconstruction and structure recovery tasks, we further fine-tune GRAPH-BERT on node classification and graph clustering tasks specifically. The experimental results have demonstrated that GRAPH-BERT can out-perform the existing GNNs in both the learning effectiveness and efficiency. | 翻訳日:2023-01-11 05:31:01 公開日:2020-01-22 |
# バナッハ空間における逆追跡勾配降下法の収束結果 Some convergent results for Backtracking Gradient Descent method on Banach spaces ( http://arxiv.org/abs/2001.05768v2 ) ライセンス: Link先を確認 | Tuyen Trung Truong | (参考訳) 我々の主な結果は以下の条件に関するものである。
X$ をバナッハ空間とする。
c^1$ 関数 $f:x\rightarrow \mathbb{r}$ が条件 c を満たすとき、$\{x_n\}$ が弱く収束すると $x$ と $\lim _{n\rightarrow\infty}|||\nabla f(x_n)||=0$ となると、$\nabla f(x)=0$ となる。
我々は、例えば$X$がヒルベルト空間であるとき、$X$とその双対な$X^*$の間に正準同型が与えられると仮定する。
bf定理。
さらに、すべての有界集合 $S\subset X$ に対して、$\sup _{x\in S}||\nabla ^2f(x)||<\infty$ が成り立つと仮定する。
ランダムな点 $x_0\in x$ を選択し、ローカルなバックトラッキング gd 手順によって構成する($\alpha ,\beta ,\delta _0$,詳細は後で参照) シーケンス $x_{n+1}=x_n-\delta (x_n)\nabla f(x_n)$。
1) $\{x_n\}$ のすべてのクラスタポイントは {\bf weak} 位相において、$f$ の臨界点である。
2) $\lim _{n\rightarrow\infty}f(x_n)=-\infty$ または $\lim _{n\rightarrow\infty}||x_{n+1}-x_n||=0$ のいずれか。
3) ここでは弱トポロジーを扱う。
$\mathcal{C}$ を $f$ の臨界点の集合とする。
もし$\mathcal{c}$ が有界成分 $a$ を持つと仮定する。
ここで、$\mathcal{b}$ を$\{x_n\}$ のクラスタ点の集合とする。
もし$\mathcal{B}\cap A\not= \emptyset$ なら、$\mathcal{B}\subset A$ と $\mathcal{B}$ は連結である。
4)$x$が分離可能であると仮定する。
すると、$\alpha ,\beta ,\delta _0$ と初期点 $x_0$ の一般選択に対して、シーケンス $\{x_n\}$ が {\bf weak} 位相に収束するならば、極限点は鞍点にはならない。 Our main result concerns the following condition: {\bf Condition C.} Let $X$ be a Banach space. A $C^1$ function $f:X\rightarrow \mathbb{R}$ satisfies Condition C if whenever $\{x_n\}$ weakly converges to $x$ and $\lim _{n\rightarrow\infty}||\nabla f(x_n)||=0$, then $\nabla f(x)=0$. We assume that there is given a canonical isomorphism between $X$ and its dual $X^*$, for example when $X$ is a Hilbert space. {\bf Theorem.} Let $X$ be a reflexive, complete Banach space and $f:X\rightarrow \mathbb{R}$ be a $C^2$ function which satisfies Condition C. Moreover, we assume that for every bounded set $S\subset X$, then $\sup _{x\in S}||\nabla ^2f(x)||<\infty$. We choose a random point $x_0\in X$ and construct by the Local Backtracking GD procedure (which depends on $3$ hyper-parameters $\alpha ,\beta ,\delta _0$, see later for details) the sequence $x_{n+1}=x_n-\delta (x_n)\nabla f(x_n)$. Then we have: 1) Every cluster point of $\{x_n\}$, in the {\bf weak} topology, is a critical point of $f$. 2) Either $\lim _{n\rightarrow\infty}f(x_n)=-\infty$ or $\lim _{n\rightarrow\infty}||x_{n+1}-x_n||=0$. 3) Here we work with the weak topology. Let $\mathcal{C}$ be the set of critical points of $f$. Assume that $\mathcal{C}$ has a bounded component $A$. Let $\mathcal{B}$ be the set of cluster points of $\{x_n\}$. If $\mathcal{B}\cap A\not= \emptyset$, then $\mathcal{B}\subset A$ and $\mathcal{B}$ is connected. 4) Assume that $X$ is separable. Then for generic choices of $\alpha ,\beta ,\delta _0$ and the initial point $x_0$, if the sequence $\{x_n\}$ converges - in the {\bf weak} topology, then the limit point cannot be a saddle point. | 翻訳日:2023-01-11 00:14:05 公開日:2020-01-22 |
# 解剖学的制約を伴う医用画像の変形可能な登録学習 Learning Deformable Registration of Medical Images with Anatomical Constraints ( http://arxiv.org/abs/2001.07183v2 ) ライセンス: Link先を確認 | Lucas Mansilla, Diego H. Milone, Enzo Ferrante | (参考訳) 医用画像解析の分野では,変形可能な画像登録が根本的な問題である。
近年,最先端の性能を実現し,必要な計算時間を劇的に短縮する深層学習に基づく画像登録手法の出現を目撃してきた。
しかしながら、モデルが正確であるだけでなく、解剖学的に妥当な結果を生み出すことをいかに奨励するかについては、ほとんど作業が行われていません。
本研究は,これらのモデルの学習プロセスに,グローバルな制約という形で解剖学的な優先順位を組み込むことによって,その性能をさらに向上させ,登録後の歪んだ画像のリアリズムを高めることを目的とする。
セグメンテーションマスクを用いた画像解剖のグローバル非線形表現を学習し,登録プロセスの制約に利用する。
提案したAC-RegNetアーキテクチャは3つの異なるデータセットを用いて胸部X線画像登録の文脈で評価される。
実験により,提案する解剖学的制約付き登録モデルは,最先端手法よりも現実的かつ正確な結果が得られることを示し,このアプローチの可能性を示した。 Deformable image registration is a fundamental problem in the field of medical image analysis. During the last years, we have witnessed the advent of deep learning-based image registration methods which achieve state-of-the-art performance, and drastically reduce the required computational time. However, little work has been done regarding how can we encourage our models to produce not only accurate, but also anatomically plausible results, which is still an open question in the field. In this work, we argue that incorporating anatomical priors in the form of global constraints into the learning process of these models, will further improve their performance and boost the realism of the warped images after registration. We learn global non-linear representations of image anatomy using segmentation masks, and employ them to constraint the registration process. The proposed AC-RegNet architecture is evaluated in the context of chest X-ray image registration using three different datasets, where the high anatomical variability makes the task extremely challenging. Our experiments show that the proposed anatomically constrained registration model produces more realistic and accurate results than state-of-the-art methods, demonstrating the potential of this approach. | 翻訳日:2023-01-08 05:40:25 公開日:2020-01-22 |
# Wikipediaをきめ細かい階層で分類する:グラフが貢献できるもの Classifying Wikipedia in a fine-grained hierarchy: what graphs can contribute ( http://arxiv.org/abs/2001.07558v2 ) ライセンス: Link先を確認 | Tiphaine Viard, Thomas McLachlan, Hamidreza Ghader, Satoshi Sekine | (参考訳) wikipediaは機械学習にとって大きな機会であり、利用可能な知識の最も大きな半構造化ベースである。
そのため、その内容を調べ、学習課題に利用するために、例えばオントロジーに分類して構成することに集中する作品が多い。
テキストの内容以外にも、Wikipediaには典型的なグラフ構造があり、ページは引用を通じてリンクされる。
本稿では,ウィキペディアを細かな名前付きエンティティオントロジー(NE)、拡張名前付きエンティティ階層に分類するために,グラフ情報(構造)を統合するタスクに対処する。
この課題に対処するため、まず、ne分類のグラフ構造との関連性を評価することから始める。
次に,大規模ネットワーク解析によく用いられるグラフ記述子を用いた特徴ベクトルと,意味的類似性を考慮した重み付きモデルへのフラットな分類の2つの方向を探索する。
日本語版ウィキペディアから抽出した22,000ページを手作業でラベル付けして,実演実験を行った。
その結果,グラフ情報の統合は,入力特徴空間のスパース性を低減することに成功し,従来と同等かそれ以上の分類結果が得られることがわかった。 Wikipedia is a huge opportunity for machine learning, being the largest semi-structured base of knowledge available. Because of this, many works examine its contents, and focus on structuring it in order to make it usable in learning tasks, for example by classifying it into an ontology. Beyond its textual contents, Wikipedia also displays a typical graph structure, where pages are linked together through citations. In this paper, we address the task of integrating graph (i.e. structure) information to classify Wikipedia into a fine-grained named entity ontology (NE), the Extended Named Entity hierarchy. To address this task, we first start by assessing the relevance of the graph structure for NE classification. We then explore two directions, one related to feature vectors using graph descriptors commonly used in large-scale network analysis, and one extending flat classification to a weighted model taking into account semantic similarity. We conduct at-scale practical experiments, on a manually labeled subset of 22,000 pages extracted from the Japanese Wikipedia. Our results show that integrating graph information succeeds at reducing sparsity of the input feature space, and yields classification results that are comparable or better than previous works. | 翻訳日:2023-01-07 23:35:58 公開日:2020-01-22 |
# 剛体力学の自動微分と連続感度解析 Automatic Differentiation and Continuous Sensitivity Analysis of Rigid Body Dynamics ( http://arxiv.org/abs/2001.08539v1 ) ライセンス: Link先を確認 | David Millard, Eric Heiden, Shubham Agrawal, Gaurav S. Sukhatme | (参考訳) 知的行動を達成するための重要な要素は、ロボットに動的環境における行動の効果を推論する能力を与える物理的理解である。
モデルに基づく制御アルゴリズムに情報を与えるデータから動的モデルを学ぶためのいくつかの方法が提案されている。
このような学習に基づくアプローチは、局所的に観察された振る舞いをモデル化するが、より複雑なダイナミクスや長い時間軸の下では一般化できない。
本稿では,剛体力学のための微分可能な物理シミュレータを提案する。
微分方程式積分と勾配計算の様々な手法を応用し、パラメータ推定の異なる手法を比較し、物理系の推定と制御に関連するシミュレーションパラメータを推測する。
トラジェクトリ最適化の文脈では,コスト最小化性能を達成しつつ,経験を通してシミュレーションパラメータを推定するクローズドループモデル予測制御アルゴリズムを導入する。 A key ingredient to achieving intelligent behavior is physical understanding that equips robots with the ability to reason about the effects of their actions in a dynamic environment. Several methods have been proposed to learn dynamics models from data that inform model-based control algorithms. While such learning-based approaches can model locally observed behaviors, they fail to generalize to more complex dynamics and under long time horizons. In this work, we introduce a differentiable physics simulator for rigid body dynamics. Leveraging various techniques for differential equation integration and gradient calculation, we compare different methods for parameter estimation that allow us to infer the simulation parameters that are relevant to estimation and control of physical systems. In the context of trajectory optimization, we introduce a closed-loop model-predictive control algorithm that infers the simulation parameters through experience while achieving cost-minimizing performance. | 翻訳日:2023-01-07 19:01:57 公開日:2020-01-22 |
# 大規模等円充填問題に対する確率アイテム降下法 Stochastic Item Descent Method for Large Scale Equal Circle Packing Problem ( http://arxiv.org/abs/2001.08540v1 ) ライセンス: Link先を確認 | Kun He, Min Zhang, Jianrong Zhou, Yan Jin, and Chu-min Li | (参考訳) 確率勾配勾配(SGD)は、機械学習領域における大規模最適化問題、特に多数の変数を持つ有限サム定式化のための強力な方法である。
近年、ミニバッチsgdは大きな成功を収め、大量のデータを供給したディープニューラルネットワークのトレーニングの標準技術となっている。
深層学習の成功にインスパイアされ,サンプルのバッチ選択によるSGDのアイデアを,決定バージョンにおける古典的最適化問題に適用する。
n$の単位円が与えられたとき、等円パッキング問題(ECPP)は、すべての円を重なり合うことなく円形の容器の中に配置できる、実現可能なパッキングが存在するかどうかを問う。
具体的には、単位円をランダムにバッチに分割し、対応するバッチ関数上でbroyden-fletcher-goldfarb-shanno(bfgs)アルゴリズムを実行し、計算を高速化する大規模ecppの確率アイテム降下法(sidm)を提案する。
また、バッチイテレーション中のバッチサイズを増やして、より高い品質のソリューションを得ます。
現在の最高のパッケージングアルゴリズムと比較して、SIDMは最適化プロセスの計算を大幅に高速化し、1500円のアイテムを持つ大規模インスタンスのソリューション品質を保証する一方、ベースラインアルゴリズムは一般的に300円のアイテムを扱う。
その結果,この古典的最適化問題に対するsidmの高効率性が示され,勾配降下を最適化に用いる他の大規模古典的最適化問題に対する可能性を示した。 Stochastic gradient descent (SGD) is a powerful method for large-scale optimization problems in the area of machine learning, especially for a finite-sum formulation with numerous variables. In recent years, mini-batch SGD gains great success and has become a standard technique for training deep neural networks fed with big amount of data. Inspired by its success in deep learning, we apply the idea of SGD with batch selection of samples to a classic optimization problem in decision version. Given $n$ unit circles, the equal circle packing problem (ECPP) asks whether there exist a feasible packing that could put all the circles inside a circular container without overlapping. Specifically, we propose a stochastic item descent method (SIDM) for ECPP in large scale, which randomly divides the unit circles into batches and runs Broyden-Fletcher-Goldfarb-Shanno (BFGS) algorithm on the corresponding batch function iteratively to speedup the calculation. We also increase the batch size during the batch iterations to gain higher quality solution. Comparing to the current best packing algorithms, SIDM greatly speeds up the calculation of optimization process and guarantees the solution quality for large scale instances with up to 1500 circle items, while the baseline algorithms usually handle about 300 circle items. The results indicate the highly efficiency of SIDM for this classic optimization problem in large scale, and show potential for other large scale classic optimization problems in which gradient descent is used for optimization. | 翻訳日:2023-01-07 19:01:27 公開日:2020-01-22 |
# VoiceCoach: 公開講演における対話的エビデンスに基づく音声変調スキルトレーニング VoiceCoach: Interactive Evidence-based Training for Voice Modulation Skills in Public Speaking ( http://arxiv.org/abs/2001.07876v1 ) ライセンス: Link先を確認 | Xingbo Wang, Haipeng Zeng, Yong Wang, Aoyu Wu, Zhida Sun, Xiaojuan Ma, Huamin Qu | (参考訳) ピッチ,ボリューム,速度などの音声特性の変調は,公的な発話を成功させる上で極めて重要である。
しかし、異なる音声変調スキルを習得することは困難である。
多くのガイドラインが利用可能であるが、特に初心者の話者に対して、様々な公的な状況に適用できるほど実用的ではないことが多い。
音声変調スキルの効果的な訓練を容易にする対話型エビデンスに基づくアプローチであるVoiceCoachを提案する。
具体的には、2623の高品質音声(TED Talks)から音声変調スキルを分析し、ベンチマークデータセットとして使用した。
音声入力が与えられると、voicecoachは、文構造と音声変調スキルの両方の類似性に基づいて、データセットから適切な音声変調例を自動的に推奨する。
さらなる改善を導くため、即時かつ定量的な視覚フィードバックが提供される。
エキスパートインタビューとユーザスタディは、ボイスコーチの有効性とユーザビリティのサポートを提供する。 The modulation of voice properties, such as pitch, volume, and speed, is crucial for delivering a successful public speech. However, it is challenging to master different voice modulation skills. Though many guidelines are available, they are often not practical enough to be applied in different public speaking situations, especially for novice speakers. We present VoiceCoach, an interactive evidence-based approach to facilitate the effective training of voice modulation skills. Specifically, we have analyzed the voice modulation skills from 2623 high-quality speeches (i.e., TED Talks) and use them as the benchmark dataset. Given a voice input, VoiceCoach automatically recommends good voice modulation examples from the dataset based on the similarity of both sentence structures and voice modulation skills. Immediate and quantitative visual feedback is provided to guide further improvement. The expert interviews and the user study provide support for the effectiveness and usability of VoiceCoach. | 翻訳日:2023-01-07 18:59:19 公開日:2020-01-22 |
# 複数視点からの3次元再構成の学習 Learning to Correct 3D Reconstructions from Multiple Views ( http://arxiv.org/abs/2001.08098v1 ) ライセンス: Link先を確認 | \c{S}tefan S\u{a}ftescu and Paul Newman | (参考訳) 本論文は, 大規模3次元再構築におけるコスト削減について述べる。
既存の再構築の2Dビューを描画し、高品質な再構築に対応するために逆深度を洗練する畳み込みニューラルネットワーク(CNN)を訓練する。
私たちが修正したビューは同じ再構築からレンダリングされるため、同じジオメトリを共有するため、重複するビューが相互に補完する。
私たちはそれを二つの方法で活用する。
第一に, 学習中に損失を課し, 隣り合う視点の予測を同一の形状に誘導し, 性能を向上させることが示されている。
第2に,各視点を独立に修正する先行研究とは対照的に,隣接視点の集合を共同で予測する。
これはビュー間のフィーチャーマップをワープし、メモリ集約型3D計算をバイパスすることで実現される。
本稿では,特徴マップの特徴が視点依存であることを観察し,ビュー間の相対的なポーズから多層パーセプトロンが生成する動的フィルタを用いて特徴を変換する方法を提案する。
私たちの実験では、ビュー間のフィーチャーマップをうまく融合させるには、この最後のステップが必要です。 This paper is about reducing the cost of building good large-scale 3D reconstructions post-hoc. We render 2D views of an existing reconstruction and train a convolutional neural network (CNN) that refines inverse-depth to match a higher-quality reconstruction. Since the views that we correct are rendered from the same reconstruction, they share the same geometry, so overlapping views complement each other. We take advantage of that in two ways. Firstly, we impose a loss during training which guides predictions on neighbouring views to have the same geometry and has been shown to improve performance. Secondly, in contrast to previous work, which corrects each view independently, we also make predictions on sets of neighbouring views jointly. This is achieved by warping feature maps between views and thus bypassing memory-intensive 3D computation. We make the observation that features in the feature maps are viewpoint-dependent, and propose a method for transforming features with dynamic filters generated by a multi-layer perceptron from the relative poses between views. In our experiments we show that this last step is necessary for successfully fusing feature maps between views. | 翻訳日:2023-01-07 18:58:54 公開日:2020-01-22 |
# ネットワークスライシングリソース管理のための機械学習: 総合的な調査 Machine Learning for Network Slicing Resource Management: A Comprehensive Survey ( http://arxiv.org/abs/2001.07974v1 ) ライセンス: Link先を確認 | Bin Han and Hans D. Schotten | (参考訳) マルチテナントネットワークスライシングの新たな技術は,5Gセルネットワークの重要な特徴であると考えられる。
新しいタイプのパブリッククラウドサービスとしてネットワークスライスを提供し、サービスの柔軟性を高め、ネットワークリソース効率を向上させる。
一方で、ネットワークリソース管理の新たな課題が浮かび上がっている。
近年,機械学習や人工知能技術が広く採用されている様々な手法が提案されている。
本稿では,ネットワークスライシング資源管理の既存手法に関する調査を行い,機械学習が果たす役割について注目する。 The emerging technology of multi-tenancy network slicing is considered as an essential feature of 5G cellular networks. It provides network slices as a new type of public cloud services, and therewith increases the service flexibility and enhances the network resource efficiency. Meanwhile, it raises new challenges of network resource management. A number of various methods have been proposed over the recent past years, in which machine learning and artificial intelligence techniques are widely deployed. In this article, we provide a survey to existing approaches of network slicing resource management, with a highlight on the roles played by machine learning in them. | 翻訳日:2023-01-07 18:57:34 公開日:2020-01-22 |
# 機能近赤外分光法による認知負荷検出のための血行動態分解モデル A hemodynamic decomposition model for detecting cognitive load using functional near-infrared spectroscopy ( http://arxiv.org/abs/2001.08579v1 ) ライセンス: Link先を確認 | Marco A. Pinto-Orellana, Diego C. Nascimento, Peyman Mirtaheri, Rune Jonassen, Anis Yazidi and Hugo L. Hammer | (参考訳) 本稿では,関数型近赤外分光法におけるパラメトリックデータ駆動モデルについて紹介する。
各分解波形は、期待される血行動態に関する関連する生物学的情報を保持する。
また, 計算速度を改善するための効率的な反復推定手法とともに, モデルを提案する。
私たちの血行動態分解モデル(HDM)は、インスタンスの標準モデルを拡張する。
a) 外部刺激が未知であるか、又は
b) 実験刺激と血行反応との直接的な関係の仮定が持たない場合。
また,提案手法を機械学習のための機能変換手法として活用する可能性も示唆した。
FNIRS信号の認知負荷分類タスクに先進的HDMを適用することにより、前頭皮質の6チャンネルを用いて86.20%+-2.56%、前頭皮質のAFpzチャネルのみを利用する86.34%+-2.81%の精度を実現した。
一方、最先端の時間スペクトル変換は64.61%+-3.03%と37.8%+-2.96%しか同じ条件下では得られない。 In the current paper, we introduce a parametric data-driven model for functional near-infrared spectroscopy that decomposes a signal into a series of independent, rescaled, time-shifted, hemodynamic basis functions. Each decomposed waveform retains relevant biological information about the expected hemodynamic behavior. The model is also presented along with an efficient iterative estimation method to improve the computational speed. Our hemodynamic decomposition model (HDM) extends the canonical model for instances when a) the external stimuli are unknown, or b) when the assumption of a direct relationship between the experimental stimuli and the hemodynamic responses cannot hold. We also argue that the proposed approach can be potentially adopted as a feature transformation method for machine learning purposes. By virtue of applying our devised HDM to a cognitive load classification task on fNIRS signals, we have achieved an accuracy of 86.20%+-2.56% using six channels in the frontal cortex, and 86.34%+-2.81% utilizing only the AFpz channel also located in the frontal area. In comparison, state-of-the-art time-spectral transformations only yield 64.61%+-3.03% and 37.8%+-2.96% under identical experimental settings. | 翻訳日:2023-01-07 18:57:26 公開日:2020-01-22 |
# 高移動ミリ波通信のための強化学習に基づく車両セルアソシエーションアルゴリズム Reinforcement Learning Based Vehicle-cell Association Algorithm for Highly Mobile Millimeter Wave Communication ( http://arxiv.org/abs/2001.07915v1 ) ライセンス: Link先を確認 | Hamza Khan, Anis Elgabli, Sumudu Samarakoon, Mehdi Bennis, and Choong Seon Hong | (参考訳) 車両間通信(V2X)は、様々なユースケースとのコミュニケーションが増加する領域である。
本稿では,ミリ波通信ネットワークにおける車両セル関連の問題について検討する。
目的は、車両利用者当たりの時間平均速度を最大化し、信号のオーバーヘッドが低い全VUEに対して目標最小速度を確保することである。
まず,ユーザ関係問題を離散的非凸最適化問題として定式化する。
そして,機械学習のツール,特に分散強化学習(DDRL)と非同期アクタ批判アルゴリズム(A3C)を活用することにより,提案した最適化問題の解を近似する低複雑性アルゴリズムを提案する。
提案アルゴリズムは,各道路側ユニット(RSU)に対して,観測された入力状態に基づいて局所動作を選択するローカルRLエージェントを付与する。
異なるRSUのアクションは中央のエンティティに転送され、グローバルな報酬を計算し、RSUに返される。
独立に訓練された各RLは、非凸最適化問題を解くために、オンライン複雑アルゴリズムの実行と比較して、制御オーバーヘッドが低く、計算量も少ない車両-RSUアソシエーションアクションを実行する。
最後にシミュレーション結果から,提案手法は,複数のベースライン設計と比較して,合計率とvue障害の20-%削減により最大15-%向上することが示された。 Vehicle-to-everything (V2X) communication is a growing area of communication with a variety of use cases. This paper investigates the problem of vehicle-cell association in millimeter wave (mmWave) communication networks. The aim is to maximize the time average rate per vehicular user (VUE) while ensuring a target minimum rate for all VUEs with low signaling overhead. We first formulate the user (vehicle) association problem as a discrete non-convex optimization problem. Then, by leveraging tools from machine learning, specifically distributed deep reinforcement learning (DDRL) and the asynchronous actor critic algorithm (A3C), we propose a low complexity algorithm that approximates the solution of the proposed optimization problem. The proposed DDRL-based algorithm endows every road side unit (RSU) with a local RL agent that selects a local action based on the observed input state. Actions of different RSUs are forwarded to a central entity, that computes a global reward which is then fed back to RSUs. It is shown that each independently trained RL performs the vehicle-RSU association action with low control overhead and less computational complexity compared to running an online complex algorithm to solve the non-convex optimization problem. Finally, simulation results show that the proposed solution achieves up to 15\% gains in terms of sum rate and 20\% reduction in VUE outages compared to several baseline designs. | 翻訳日:2023-01-07 18:56:53 公開日:2020-01-22 |
# 多眼視用単眼カメラによるアクティブ・パーセプション Active Perception with A Monocular Camera for Multiscopic Vision ( http://arxiv.org/abs/2001.08212v1 ) ライセンス: Link先を確認 | Weihao Yuan, Rui Fan, Michael Yu Wang, and Qifeng Chen | (参考訳) 低コストの単眼RGBカメラを用いてロボットアプリケーションの正確な深度推定を行うマルチスコープビジョンシステムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラを搭載したロボットアームを積極的に制御し、水平または垂直に並んだ位置の画像を同じパララックスで撮影する。
本システムでは,参照画像と周辺画像とのステレオマッチングのためのコストボリュームを結合して,アウトレーヤに対して堅牢な融解コストボリュームを形成する。
ミドルベリーデータセットと実ロボット実験の実験では、得られた不一致マップは2フレームステレオマッチングよりも正確であることが示され、平均的な絶対誤差は実験で50.2%削減された。 We design a multiscopic vision system that utilizes a low-cost monocular RGB camera to acquire accurate depth estimation for robotic applications. Unlike multi-view stereo with images captured at unconstrained camera poses, the proposed system actively controls a robot arm with a mounted camera to capture a sequence of images in horizontally or vertically aligned positions with the same parallax. In this system, we combine the cost volumes for stereo matching between the reference image and the surrounding images to form a fused cost volume that is robust to outliers. Experiments on the Middlebury dataset and real robot experiments show that our obtained disparity maps are more accurate than two-frame stereo matching: the average absolute error is reduced by 50.2% in our experiments. | 翻訳日:2023-01-07 18:49:48 公開日:2020-01-22 |
# セマンティックセグメンテーションのためのドメイン間でクラス固有の特徴を適応させる学習 Learning to adapt class-specific features across domains for semantic segmentation ( http://arxiv.org/abs/2001.08311v1 ) ライセンス: Link先を確認 | Mikel Menta, Adriana Romero, Joost van de Weijer | (参考訳) 教師なしドメイン適応の最近の進歩は、このドメインでトレーニングアノテーションを必要とせず、ターゲットドメイン上でテストできるニューラルネットワークを付与し、ドメインにまたがる特徴を適応するための敵のトレーニングの有効性を示している。
既存のドメイン適応モデルの大部分は画像翻訳ネットワークに依存しており、多くのドメイン固有のパラメータを含むことが多い。
さらに、機能適応ステップは、大まかなレベルで、しばしばグローバルに発生するため、セマンティックセグメンテーションのようなタスクへの適用性が阻害される。
本論文では,クラス情報毎に考慮し,ドメイン間の特徴を適応させる新しいアーキテクチャを提案する。
そこで我々は,セグメンテーションマスクに出力を条件付けした条件付き画素ワイド判別器ネットワークを設計する。
さらに,最近の画像翻訳の進歩に伴い,複数の領域にまたがる翻訳を単一のジェネレータネットワークを用いて行うことができるため,最近導入されたStarGANアーキテクチャを画像翻訳バックボーンとして採用する。
提案手法の有効性を評価するためのセグメンテーションタスクの予備的な結果として,モデルの可能性を強調し,強力なベースラインと代替設計を改善する。 Recent advances in unsupervised domain adaptation have shown the effectiveness of adversarial training to adapt features across domains, endowing neural networks with the capability of being tested on a target domain without requiring any training annotations in this domain. The great majority of existing domain adaptation models rely on image translation networks, which often contain a huge amount of domain-specific parameters. Additionally, the feature adaptation step often happens globally, at a coarse level, hindering its applicability to tasks such as semantic segmentation, where details are of crucial importance to provide sharp results. In this thesis, we present a novel architecture, which learns to adapt features across domains by taking into account per class information. To that aim, we design a conditional pixel-wise discriminator network, whose output is conditioned on the segmentation masks. Moreover, following recent advances in image translation, we adopt the recently introduced StarGAN architecture as image translation backbone, since it is able to perform translations across multiple domains by means of a single generator network. Preliminary results on a segmentation task designed to assess the effectiveness of the proposed approach highlight the potential of the model, improving upon strong baselines and alternative designs. | 翻訳日:2023-01-07 18:49:35 公開日:2020-01-22 |
# ARAACOM:アラビックアルジェリアのコーパス、オピニオン採掘へ ARAACOM: ARAbic Algerian Corpus for Opinion Mining ( http://arxiv.org/abs/2001.08010v1 ) ライセンス: Link先を確認 | Zitouni Abdelhafid (LIRE), Hichem Rahab (ICOSI, LIRE), Abdelhafid Zitouni (LIRE), Mahieddine Djoudi (TECHN\'E - EA 6316) | (参考訳) 今日では、何千人もの人々に多くのフォームを配布し、それらを収集し、それを電子フォーマットに変換して、一部の主題についての人々の意見を追跡するために、膨大な努力をする必要はもはやない。
今日では多くのwebサイトが、少ない労力で大きな領域に到達できる。
ウェブサイトの大多数は訪問者に、サイトやイベントに対する気持ちをバックアップしておくよう勧めている。
そのため、強力な活用手段を必要とする多くのデータが必要になります。
ウェブにおける意見のマイニングは、日々の生活(スポーツ、政治、テレビ、...)における人々のムードを追跡する個人や社会の必要性が高まっているため、ますます魅力的なタスクになっている。
意見採鉱の多くの著作は西欧語、特に英語で開発され、アラビア語の著作は非常に少ない。
本稿では,アラビア・アルジェリアの新聞における意見マイニングのためのアプローチを提案する。
ccs の概念 $\bullet$information systems~sentiment analysis $\bullet$ computing methodology~自然言語処理 Nowadays, it is no more needed to do an enormous effort to distribute a lot of forms to thousands of people and collect them, then convert this from into electronic format to track people opinion about some subjects. A lot of web sites can today reach a large spectrum with less effort. The majority of web sites suggest to their visitors to leave backups about their feeling of the site or events. So, this makes for us a lot of data which need powerful mean to exploit. Opinion mining in the web becomes more and more an attracting task, due the increasing need for individuals and societies to track the mood of people against several subjects of daily life (sports, politics, television,...). A lot of works in opinion mining was developed in western languages especially English, such works in Arabic language still very scarce. In this paper, we propose our approach, for opinion mining in Arabic Algerian news paper. CCS CONCEPTS $\bullet$Information systems~Sentiment analysis $\bullet$ Computing methodologies~Natural language processing | 翻訳日:2023-01-07 18:49:13 公開日:2020-01-22 |
# 制約問題を用いたシンボリック実行のベンチマーク -- 初期結果 Benchmarking Symbolic Execution Using Constraint Problems -- Initial Results ( http://arxiv.org/abs/2001.07914v1 ) ライセンス: Link先を確認 | Sahil Verma, Roland H.C. Yap | (参考訳) シンボル実行はバグ発見とプログラムテストのための強力なテクニックである。
現実世界のコードにバグを見つけることに成功している。
中心となる推論技術は制約解法、経路探索法、探索法を用いており、これは組合せ問題、例えば有限領域制約満足度問題(英語版)(csps)の解法と同じ手法である。
シンボリック実行におけるコア技術の有効性を評価するために,より困難なベンチマークとしてCSPインスタンスを提案する。
我々はCSPベンチマークをシンボル実行ツールの推論能力をテストするのに適したCプログラムに変換する。
1つの CSP P から、変換の選択によって P を異なる C プログラムに変換する。
klee、tracer-x、llbmcツールによる予備テストでは、トランスフォーメーションとソルバの選択とは大きく異なる。
我々のCベンチマークは、既存のシンボル実行ツールの限界を示すのに効果的です。
この取り組みの動機は、この形式のベンチマークが、シンボリック実行エンジンにおけるコア推論の改善の開発とエンジニアリングを促進することができると信じていることである。 Symbolic execution is a powerful technique for bug finding and program testing. It is successful in finding bugs in real-world code. The core reasoning techniques use constraint solving, path exploration, and search, which are also the same techniques used in solving combinatorial problems, e.g., finite-domain constraint satisfaction problems (CSPs). We propose CSP instances as more challenging benchmarks to evaluate the effectiveness of the core techniques in symbolic execution. We transform CSP benchmarks into C programs suitable for testing the reasoning capabilities of symbolic execution tools. From a single CSP P, we transform P depending on transformation choice into different C programs. Preliminary testing with the KLEE, Tracer-X, and LLBMC tools show substantial runtime differences from transformation and solver choice. Our C benchmarks are effective in showing the limitations of existing symbolic execution tools. The motivation for this work is we believe that benchmarks of this form can spur the development and engineering of improved core reasoning in symbolic execution engines. | 翻訳日:2023-01-07 18:48:56 公開日:2020-01-22 |
# 多エージェントシステムにおけるエージェントの主観的知識と推論 Subjective Knowledge and Reasoning about Agents in Multi-Agent Systems ( http://arxiv.org/abs/2001.08016v1 ) ライセンス: Link先を確認 | Shikha Singh, Deepak Khemani | (参考訳) 多エージェントシステムにおける多くの研究は、人工エージェントの知識と信念について推論することに焦点を当てているが、特にエージェントがマルチエージェントシステムに他のエージェントが加わったり、オフラインになったりすることを知らない場合において、エージェントの存在/存在を明示的な表現と推論は、エージェントの部分的な知識/非対称的な知識をMASコミュニティがほとんど見落としている。
このようなシナリオは、エージェントが他のエージェントの精神状態に影響を与えうる場合の基礎を、協力者や敵の存在を知らせる(ミス)。
本稿では, エージェントの主観的知識に基づいて, 上記の概念を表現するために, クリプキ構造に基づくてんかんモデルをどのように拡張できるかを検討する。 Though a lot of work in multi-agent systems is focused on reasoning about knowledge and beliefs of artificial agents, an explicit representation and reasoning about the presence/absence of agents, especially in the scenarios where agents may be unaware of other agents joining in or going offline in a multi-agent system, leading to partial knowledge/asymmetric knowledge of the agents is mostly overlooked by the MAS community. Such scenarios lay the foundations of cases where an agent can influence other agents' mental states by (mis)informing them about the presence/absence of collaborators or adversaries. In this paper, we investigate how Kripke structure-based epistemic models can be extended to express the above notion based on an agent's subjective knowledge and we discuss the challenges that come along. | 翻訳日:2023-01-07 18:48:41 公開日:2020-01-22 |
# 説明可能なAIシステムを評価する上で、プロキシタスクと主観的措置は誤解を招く可能性がある Proxy Tasks and Subjective Measures Can Be Misleading in Evaluating Explainable AI Systems ( http://arxiv.org/abs/2001.08298v1 ) ライセンス: Link先を確認 | Zana Bu\c{c}inca, Phoebe Lin, Krzysztof Z. Gajos, Elena L. Glassman | (参考訳) 説明可能な人工知能(XAI)システムは、社会技術システムの一部を構成する。
しかし,現在のXAIシステムは,実際の意思決定タスクにおいて,人間+AIチームのパフォーマンスを測定することで評価されることは稀である。
2つのオンライン実験と1人の対人思考実験を行い、現在xaiシステムを評価するための一般的な2つの手法について評価した。(1)人間によるaiの判断を与えられた説明からどのように正確に予測するかのような人工的なタスク、(2)実際のパフォーマンスの予測要因として主観的な信頼と選好の尺度を用いて。
提案実験の結果,プロキシタスクによる評価は,実際の意思決定タスクによる評価結果の予測には至らなかった。
また、実際の意思決定タスクによる評価の主観的尺度は、これらのタスクの客観的性能を予測しなかった。
我々の研究は、誤解を招く評価手法を採用することで、人間やAI単独よりも確実にパフォーマンスを発揮できる人間とAIチームの開発に向けた進歩を、必然的に遅らせている可能性があることを示唆している。 Explainable artificially intelligent (XAI) systems form part of sociotechnical systems, e.g., human+AI teams tasked with making decisions. Yet, current XAI systems are rarely evaluated by measuring the performance of human+AI teams on actual decision-making tasks. We conducted two online experiments and one in-person think-aloud study to evaluate two currently common techniques for evaluating XAI systems: (1) using proxy, artificial tasks such as how well humans predict the AI's decision from the given explanations, and (2) using subjective measures of trust and preference as predictors of actual performance. The results of our experiments demonstrate that evaluations with proxy tasks did not predict the results of the evaluations with the actual decision-making tasks. Further, the subjective measures on evaluations with actual decision-making tasks did not predict the objective performance on those same tasks. Our results suggest that by employing misleading evaluation methods, our field may be inadvertently slowing its progress toward developing human+AI teams that can reliably perform better than humans or AIs alone. | 翻訳日:2023-01-07 18:47:56 公開日:2020-01-22 |
# StarAI:PLPを用いたブリッジゲームにおける不完全性低減 StarAI: Reducing incompleteness in the game of Bridge using PLP ( http://arxiv.org/abs/2001.08193v1 ) ライセンス: Link先を確認 | J Li, S Thepaut, V Ventos | (参考訳) ブリッジは、各プレイヤーがカードのみを見る不完全な情報のゲームであるため、確率を評価する能力を必要とするトリックテイクカードゲームである。
戦略を選択するためには、プレイヤーが他のプレイヤーの手に隠されたカードに関する情報を集める必要がある。
本稿では,確率的論理プログラミングを用いてカードプレイの一部をブリッジでモデル化する手法を提案する。 Bridge is a trick-taking card game requiring the ability to evaluate probabilities since it is a game of incomplete information where each player only sees its cards. In order to choose a strategy, a player needs to gather information about the hidden cards in the other players' hand. We present a methodology allowing us to model a part of card playing in Bridge using Probabilistic Logic Programming. | 翻訳日:2023-01-07 18:41:16 公開日:2020-01-22 |
# M^2 Deep-ID:畳み込みニューラルネットワークを用いた多視点顔識別の新しいモデル M^2 Deep-ID: A Novel Model for Multi-View Face Identification Using Convolutional Deep Neural Networks ( http://arxiv.org/abs/2001.07871v1 ) ライセンス: Link先を確認 | Sara Shahsavarani, Morteza Analoui and Reza Shoja Ghiass | (参考訳) ディープ顔認識(DFR)システムの大幅な進歩にもかかわらず、様々なポーズのような特定の制約の下で新しいDFRを導入することは依然として大きな課題である。
特に、人間の頭部の3d特性により、同じ被写体の顔の外観は、カメラ画像平面に投影された際に高いクラス内変動性をもたらす。
本稿では,上記の課題に対処するために,多視点深層顔認識(mvdfr)システムを提案する。
この文脈では、異なる視点下で各被験者の複数の2D画像が、単一のよりコンパクトな顔ディスクリプタで顔の特徴を再表現するユニークな設計で提案されたディープニューラルネットワークに入力され、畳み込みニューラルネットワークを用いたより情報的で抽象的な顔識別方法が生成される。
提案方式の機能を多視点顔画像に拡張するため,本モデルでは黄金標準のディープIDモデルを修正した。
実験の結果,提案手法は99.8%,最先端手法は97%の精度が得られることがわかった。
また,504名の被験者の6552枚の画像を用いて,イラン科学技術大学(iust)の顔データベースを収集し,実験を行った。 Despite significant advances in Deep Face Recognition (DFR) systems, introducing new DFRs under specific constraints such as varying pose still remains a big challenge. Most particularly, due to the 3D nature of a human head, facial appearance of the same subject introduces a high intra-class variability when projected to the camera image plane. In this paper, we propose a new multi-view Deep Face Recognition (MVDFR) system to address the mentioned challenge. In this context, multiple 2D images of each subject under different views are fed into the proposed deep neural network with a unique design to re-express the facial features in a single and more compact face descriptor, which in turn, produces a more informative and abstract way for face identification using convolutional neural networks. To extend the functionality of our proposed system to multi-view facial images, the golden standard Deep-ID model is modified in our proposed model. The experimental results indicate that our proposed method yields a 99.8% accuracy, while the state-of-the-art method achieves a 97% accuracy. We also gathered the Iran University of Science and Technology (IUST) face database with 6552 images of 504 subjects to accomplish our experiments. | 翻訳日:2023-01-07 18:41:09 公開日:2020-01-22 |
# 動的多対象ガウス過程モデル:ヒト関節のデータ駆動機能モデリングのためのフレームワーク Dynamic multi-object Gaussian process models: A framework for data-driven functional modelling of human joints ( http://arxiv.org/abs/2001.07904v1 ) ライセンス: Link先を確認 | Jean-Rassaire Fouefack, Bhushan Borotikar, Tania S. Douglas, Val\'erie Burdin and Tinashe E.M. Mutsvangwa | (参考訳) 統計形状モデル (SSMs) は、一連の生物学的構造から特徴を抽出し説明するための最先端の医療画像解析ツールである。
しかし、形状とポーズを合体させる原則的で堅牢な方法が3つの主要な問題によって明らかになっている。
1)データの非均質性(特徴間の線形および非線形自然変動を伴うデータ)
2)3ドル運動の最適でない表現(物体をある位置から他の位置に移動する運動エネルギーに比例しない剛体変換表現)、
3)モデルの人工的な離散化。
本稿では,連続領域におけるヒト関節の解析のための動的多目的統計モデリングフレームワークを提案する。
具体的には,線形統計量を用いた同一線形化統計空間における形状と動的空間の特徴を正規化すること,より正確な剛性変換比較のために最適な3次元運動表現を採用すること,マルコフ連鎖モンテカルロサンプリングを用いた3次元形状とポーズ予測プロトコルを提案する。
このフレームワークは、生物学的関節のための効率的な生成動的マルチオブジェクトモデリングプラットフォームを提供する。
制御された合成データを用いてフレームワークを検証する。
最後に、骨間の相対的なポーズを決定する利点を加えつつ、形状予測における標準的なssmアプローチとの性能を比較するために、ヒト肩関節の分析に適用する。
優れた妥当性が観察され,肩関節形状予測の結果から,新しい枠組みが医療画像解析に有効である可能性が示唆された。
さらに、フレームワークは汎用的で、n$>$2オブジェクトに拡張することができ、関節疾患の管理のための臨床および診断方法に適している。 Statistical shape models (SSMs) are state-of-the-art medical image analysis tools for extracting and explaining features across a set of biological structures. However, a principled and robust way to combine shape and pose features has been illusive due to three main issues: 1) Non-homogeneity of the data (data with linear and non-linear natural variation across features), 2) non-optimal representation of the $3D$ motion (rigid transformation representations that are not proportional to the kinetic energy that move an object from one position to the other), and 3) artificial discretization of the models. In this paper, we propose a new framework for dynamic multi-object statistical modelling framework for the analysis of human joints in a continuous domain. Specifically, we propose to normalise shape and dynamic spatial features in the same linearized statistical space permitting the use of linear statistics; we adopt an optimal 3D motion representation for more accurate rigid transformation comparisons; and we provide a 3D shape and pose prediction protocol using a Markov chain Monte Carlo sampling-based fitting. The framework affords an efficient generative dynamic multi-object modelling platform for biological joints. We validate the framework using a controlled synthetic data. Finally, the framework is applied to an analysis of the human shoulder joint to compare its performance with standard SSM approaches in prediction of shape while adding the advantage of determining relative pose between bones in a complex. Excellent validity is observed and the shoulder joint shape-pose prediction results suggest that the novel framework may have utility for a range of medical image analysis applications. Furthermore, the framework is generic and can be extended to n$>$2 objects, making it suitable for clinical and diagnostic methods for the management of joint disorders. | 翻訳日:2023-01-07 18:40:20 公開日:2020-01-22 |
# ドメイン間一括分類のための遺伝的特徴学習の最適化 Optimized Generic Feature Learning for Few-shot Classification across Domains ( http://arxiv.org/abs/2001.07926v1 ) ライセンス: Link先を確認 | Tonmoy Saikia, Thomas Brox, Cordelia Schmid | (参考訳) タスクやドメインをまたいで一般化するモデルや機能を学ぶことは、機械学習の大きな目標のひとつです。
本稿では,ハイパーパラメータ最適化(hpo)の検証目的として,クロスドメイン・クロスタスクデータの利用を提案する。
十分な検索空間が与えられると、ハイパーパラメータの最適化は検証性能を最大化し、目的のためにタスクとドメインをまたいで一般化する機能を学ぶ。
本稿では,この戦略が領域内および領域間の画像分類において有効であることを示す。
学習機能は、それまでのマイナショットとメタラーニングのアプローチをすべて上回っている。 To learn models or features that generalize across tasks and domains is one of the grand goals of machine learning. In this paper, we propose to use cross-domain, cross-task data as validation objective for hyper-parameter optimization (HPO) to improve on this goal. Given a rich enough search space, optimization of hyper-parameters learn features that maximize validation performance and, due to the objective, generalize across tasks and domains. We demonstrate the effectiveness of this strategy on few-shot image classification within and across domains. The learned features outperform all previous few-shot and meta-learning approaches. | 翻訳日:2023-01-07 18:39:52 公開日:2020-01-22 |
# シングルスレッドを用いた高速サルエント物体検出のための深さ方向非局所モジュール Depthwise Non-local Module for Fast Salient Object Detection Using a Single Thread ( http://arxiv.org/abs/2001.08057v1 ) ライセンス: Link先を確認 | Haofeng Li, Guanbin Li, Binbin Yang, Guanqi Chen, Liang Lin, Yizhou Yu | (参考訳) 近年,深層畳み込みニューラルネットワークが有意な成果を上げている。
しかし、既存の最先端の手法では、リアルタイムのパフォーマンスを達成するためにハイエンドのGPUを必要とするため、低コストまたはポータブルデバイスへの適応が困難である。
一般的なネットワークアーキテクチャはモバイルデバイスでの推論を高速化するために提案されているが、画像分類やセマンティックセマンティックセグメンテーションのタスクに適合し、正常な物体検出においてコントラストモデリングに不可欠なチャネル内およびチャネル間相関を捉えるのに苦労している。
以上の観測結果から,我々は高速な正当性物体検出のための新しい深層学習アルゴリズムを設計した。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
具体的には,チャネル内およびチャネル間相関を自着的に抽出することでコントラストを暗黙的にモデル化する,奥行き方向非局所型ムードル(dnl)を提案する。
さらに,奥行き非局所モジュールと逆残差ブロックの両方を組み込んだ奥行き非局所ネットワークアーキテクチャを導入する。
実験の結果,提案するネットワークは,既存のディープラーニングに基づくアルゴリズムの最先端性を達成しつつ,広範囲の有能なオブジェクト検出データセットに対して非常に競争力のある精度が得られることがわかった。 Recently deep convolutional neural networks have achieved significant success in salient object detection. However, existing state-of-the-art methods require high-end GPUs to achieve real-time performance, which makes them hard to adapt to low-cost or portable devices. Although generic network architectures have been proposed to speed up inference on mobile devices, they are tailored to the task of image classification or semantic segmentation, and struggle to capture intra-channel and inter-channel correlations that are essential for contrast modeling in salient object detection. Motivated by the above observations, we design a new deep learning algorithm for fast salient object detection. The proposed algorithm for the first time achieves competitive accuracy and high inference efficiency simultaneously with a single CPU thread. Specifically, we propose a novel depthwise non-local moudule (DNL), which implicitly models contrast via harvesting intra-channel and inter-channel correlations in a self-attention manner. In addition, we introduce a depthwise non-local network architecture that incorporates both depthwise non-local modules and inverted residual blocks. Experimental results show that our proposed network attains very competitive accuracy on a wide range of salient object detection datasets while achieving state-of-the-art efficiency among all existing deep learning based algorithms. | 翻訳日:2023-01-07 18:38:48 公開日:2020-01-22 |
# UniPose: 単一画像とビデオにおける統一された人文推定 UniPose: Unified Human Pose Estimation in Single Images and Videos ( http://arxiv.org/abs/2001.08095v1 ) ライセンス: Link先を確認 | Bruno Artacho and Andreas Savakis | (参考訳) そこで本稿では,いくつかのポーズ推定指標の最先端評価を実現する,我々の"ウォーターフォール"型空間プーリングアーキテクチャに基づく,人間のポーズ推定のための統一フレームワークであるuniposeを提案する。
標準cnnアーキテクチャを用いた現在のポーズ推定手法は、統計的後処理や事前定義されたアンカーポーズに大きく依存している。
UniPoseはコンテキストセグメンテーションとジョイントローカライゼーションを導入し、統計的ポストプロセッシング手法に頼ることなく、1つの段階で人間のポーズを高精度に推定する。
uniposeのウォーターフォールモジュールはカスケードアーキテクチャにおけるプログレッシブフィルタリングの効率を生かしつつ、空間ピラミッド構成に匹敵するマルチスケールの視野を維持する。
さらに,本手法はマルチフレーム処理のためにUniPose-LSTMに拡張され,ビデオにおける時間的ポーズ推定のための最先端結果が得られる。
複数のデータセットに対する結果から,ResNetのバックボーンとウォーターフォールモジュールを備えたUniPoseは,単一画像とビデオの両方のポーズ検出において,最先端のポーズ推定を行うための堅牢かつ効率的なアーキテクチャであることが示された。 We propose UniPose, a unified framework for human pose estimation, based on our "Waterfall" Atrous Spatial Pooling architecture, that achieves state-of-art-results on several pose estimation metrics. Current pose estimation methods utilizing standard CNN architectures heavily rely on statistical postprocessing or predefined anchor poses for joint localization. UniPose incorporates contextual segmentation and joint localization to estimate the human pose in a single stage, with high accuracy, without relying on statistical postprocessing methods. The Waterfall module in UniPose leverages the efficiency of progressive filtering in the cascade architecture, while maintaining multi-scale fields-of-view comparable to spatial pyramid configurations. Additionally, our method is extended to UniPose-LSTM for multi-frame processing and achieves state-of-the-art results for temporal pose estimation in Video. Our results on multiple datasets demonstrate that UniPose, with a ResNet backbone and Waterfall module, is a robust and efficient architecture for pose estimation obtaining state-of-the-art results in single person pose detection for both single images and videos. | 翻訳日:2023-01-07 18:38:23 公開日:2020-01-22 |
# 人間の視線予測による解剖学的特徴の発見 Discovering Salient Anatomical Landmarks by Predicting Human Gaze ( http://arxiv.org/abs/2001.08188v1 ) ライセンス: Link先を確認 | Richard Droste, Pierre Chatelain, Lior Drukker, Harshita Sharma, Aris T. Papageorghiou, J. Alison Noble | (参考訳) 解剖学的ランドマークは多くの医療画像のタスクにとって重要な前提条件である。
通常、与えられたタスクのランドマークのセットは専門家によって事前に定義されます。
与えられた画像のランドマーク位置は、手動または手動のアノテーションでトレーニングされた機械学習メソッドを介して注釈付けされる。
本稿では,医療画像中の解剖学的ランドマークを自動的に発見し,局所化する手法を提案する。
具体的には、人間の視覚的な注意を引くランドマークを考察し、それを視覚的にサルエントランドマークと呼ぶ。
胎児神経超音波画像診断法について述べる。
第1に, ライブソノグラフィーによる視線追跡を行い, 胎児超音波検査を行った。
次に、畳み込みニューラルネットワーク(cnn)を訓練し、走査ビデオフレーム上のソノグラフの視線分布(saliency map)を予測する。
その後、cnnは未発見の胎児の神経超音波画像の塩分マップを予測し、これらの塩分マップの局所的な最大値としてランドマークを抽出する。
最後に、ランドマークは、ランドマークCNN機能をクラスタリングすることで、画像間で一致します。
検出されたランドマークはアフィン画像登録内で使用でき、平均的なランドマークアライメント誤差は胎児の頭部長軸長の4.1%から10.9%である。 Anatomical landmarks are a crucial prerequisite for many medical imaging tasks. Usually, the set of landmarks for a given task is predefined by experts. The landmark locations for a given image are then annotated manually or via machine learning methods trained on manual annotations. In this paper, in contrast, we present a method to automatically discover and localize anatomical landmarks in medical images. Specifically, we consider landmarks that attract the visual attention of humans, which we term visually salient landmarks. We illustrate the method for fetal neurosonographic images. First, full-length clinical fetal ultrasound scans are recorded with live sonographer gaze-tracking. Next, a convolutional neural network (CNN) is trained to predict the gaze point distribution (saliency map) of the sonographers on scan video frames. The CNN is then used to predict saliency maps of unseen fetal neurosonographic images, and the landmarks are extracted as the local maxima of these saliency maps. Finally, the landmarks are matched across images by clustering the landmark CNN features. We show that the discovered landmarks can be used within affine image registration, with average landmark alignment errors between 4.1% and 10.9% of the fetal head long axis length. | 翻訳日:2023-01-07 18:32:16 公開日:2020-01-22 |
# PENet:航空画像における点推定を用いた物体検出 PENet: Object Detection using Points Estimation in Aerial Images ( http://arxiv.org/abs/2001.08247v1 ) ライセンス: Link先を確認 | Ziyang Tang, Xiang Liu, Guangyu Shen, and Baijian Yang | (参考訳) 航空画像は、交通監視、スマートシティ、災害支援など、ミッションクリティカルなタスクにますます採用されている。
しかし、空中画像から物体を識別することは以下の課題に直面している。
1) 興味のある対象は,画像に対して小さすぎ,密度が高すぎる場合が多い。
2)利害の対象は,しばしば相対的な大きさが異なる。
3)各カテゴリのオブジェクト数は不均衡である。
これらの課題に対処するために,新しいネットワーク構造であるポイント推定ネットワーク(PENet)を提案する。
PENetはMask Resampling Module(MRM)を使用して、不均衡なデータセットを増大させ、粗いアンカーフリー検出器(CPEN)で小さなオブジェクトクラスタの中心点を効果的に予測し、微細なアンカーフリー検出器FPENで小さなオブジェクトの正確な位置を特定する。
CPENには適応的マージアルゴリズムであるNon-maximum Merge(NMM)が実装され、高密度な小物体を検出する問題に対処し、FPENでは階層的損失を定義して分類精度をさらに向上する。
航空データセット visDrone と UAVDT に関する広範な実験により、PENet は既存の最先端手法よりも精度の高い結果を得た。
ベストモデルではvisDroneが8.7%,UAVDTが20.3%向上した。 Aerial imagery has been increasingly adopted in mission-critical tasks, such as traffic surveillance, smart cities, and disaster assistance. However, identifying objects from aerial images faces the following challenges: 1) objects of interests are often too small and too dense relative to the images; 2) objects of interests are often in different relative sizes; and 3) the number of objects in each category is imbalanced. A novel network structure, Points Estimated Network (PENet), is proposed in this work to answer these challenges. PENet uses a Mask Resampling Module (MRM) to augment the imbalanced datasets, a coarse anchor-free detector (CPEN) to effectively predict the center points of the small object clusters, and a fine anchor-free detector FPEN to locate the precise positions of the small objects. An adaptive merge algorithm Non-maximum Merge (NMM) is implemented in CPEN to address the issue of detecting dense small objects, and a hierarchical loss is defined in FPEN to further improve the classification accuracy. Our extensive experiments on aerial datasets visDrone and UAVDT showed that PENet achieved higher precision results than existing state-of-the-art approaches. Our best model achieved 8.7% improvement on visDrone and 20.3% on UAVDT. | 翻訳日:2023-01-07 18:31:47 公開日:2020-01-22 |
# 軌道中心強化学習のための局所的政策最適化 Local Policy Optimization for Trajectory-Centric Reinforcement Learning ( http://arxiv.org/abs/2001.08092v1 ) ライセンス: Link先を確認 | Patrik Kolaric, Devesh K. Jha, Arvind U. Raghunathan, Frank L. Lewis, Mouhacine Benosman, Diego Romeres and Daniel Nikovski | (参考訳) 本稿では,軌道中心モデルに基づく強化学習 (mbrl) のための局所政策を生成するために,同時軌道と局所安定化政策の最適化手法を提案する。
これは、非線形システムに対するグローバルポリシー最適化がアルゴリズム的にも数値的にも非常に難しい問題であるという事実に動機づけられている。
しかし、多くのロボット操作タスクは軌道中心であり、それゆえにグローバルモデルやポリシーを必要としない。
学習したモデル推定における不正確さのため、オープンループ軌道最適化プロセスは、実際のシステムで使用する際の性能が極めて低い。
これらの問題により、軌道最適化と局所政策合成の問題を単一最適化問題として定式化しようとする。
その後、非線形プログラミングの例として同時に解く。
提案手法は,いくつかの簡易な仮定の下では,解析結果と性能を両立させる。 The goal of this paper is to present a method for simultaneous trajectory and local stabilizing policy optimization to generate local policies for trajectory-centric model-based reinforcement learning (MBRL). This is motivated by the fact that global policy optimization for non-linear systems could be a very challenging problem both algorithmically and numerically. However, a lot of robotic manipulation tasks are trajectory-centric, and thus do not require a global model or policy. Due to inaccuracies in the learned model estimates, an open-loop trajectory optimization process mostly results in very poor performance when used on the real system. Motivated by these problems, we try to formulate the problem of trajectory optimization and local policy synthesis as a single optimization problem. It is then solved simultaneously as an instance of nonlinear programming. We provide some results for analysis as well as achieved performance of the proposed technique under some simplifying assumptions. | 翻訳日:2023-01-07 18:30:24 公開日:2020-01-22 |
# TLTスクール:非ネイティブな子供たちのスピーチコーパス TLT-school: a Corpus of Non Native Children Speech ( http://arxiv.org/abs/2001.08051v1 ) ライセンス: Link先を確認 | Roberto Gretter, Marco Matassoni, Stefano Bann\`o, Daniele Falavigna | (参考訳) 本稿では,イタリア北部の学校において,英語とドイツ語の両方を学ぶ学生のパフォーマンスを評価するために収集された発話コーパス「TLTスクール」について述べる。
コーパスは、2017年から2018年にかけて、小学校、中学校、高校に通いながら、9歳から16歳の学生から記録された。
すべての発話は、人間の専門家によって事前に定義された熟練度指標によって評価されている。
さらに、2017年に録音されたほとんどの発話は手動で注意深く書き起こされている。
音声のマニュアルの書き起こしに使用するガイドラインと手順を詳述するとともに,私たちが開発した自動音声認識システムを用いて得られた結果について述べる。
コーパスの一部は、非ネイティブ音声認識と第二言語習熟度の自動評価の両方に関心を持つ科学コミュニティに自由に配布される。 This paper describes "TLT-school" a corpus of speech utterances collected in schools of northern Italy for assessing the performance of students learning both English and German. The corpus was recorded in the years 2017 and 2018 from students aged between nine and sixteen years, attending primary, middle and high school. All utterances have been scored, in terms of some predefined proficiency indicators, by human experts. In addition, most of utterances recorded in 2017 have been manually transcribed carefully. Guidelines and procedures used for manual transcriptions of utterances will be described in detail, as well as results achieved by means of an automatic speech recognition system developed by us. Part of the corpus is going to be freely distributed to scientific community particularly interested both in non-native speech recognition and automatic assessment of second language proficiency. | 翻訳日:2023-01-07 18:30:11 公開日:2020-01-22 |
# Ant Colony Optimizationによる各種ハードウェアソリューションにおけるサプライチェーンの高速化 Accelerating supply chains with Ant Colony Optimization across range of hardware solutions ( http://arxiv.org/abs/2001.08102v1 ) ライセンス: Link先を確認 | Ivars Dzalbs, Tatiana Kalganova | (参考訳) Ant Colonyアルゴリズムは、様々な最適化問題に適用されているが、これまでのスケーリングと並列性に関する研究のほとんどは、トラベリングセールスマン問題(TSP)に焦点を当てている。
ベンチマークや新しいアイデア比較に有用であるが、アルゴリズム力学は、ソリューション構築中に追加のメタデータを必要とする複雑な実生活問題に常に移行するとは限らない。
本稿では,Ant Colony Optimization (ACO) を用いた実生活のアウトバウンドサプライチェーン問題と,IAC(Independent Ant Colonies)とPA(Parallel Ants)の2つの並列ACOアーキテクチャによるスケーリングダイナミクスについて検討する。
その結果,並列インスタンス数の増加に伴い,PAは少ないイテレーションでより高いソリューション品質に達することができた。
さらに,16コアCPU,68コアXeon Phi,最大4Geforce GPUという,3種類のハードウェアソリューションで速度パフォーマンスを測定した。
SS-Roulette などの ACO ベクトル化技術は C++ と CUDA を用いて実装された。
TSPには優れるが、与えられたサプライチェーン問題に対してGPUはメタデータアクセスフットプリントを必要とするため不適当であると結論付けた。
さらに、ベクター化されたCPU AVX2はCPU上で25.4倍の高速化を実現し、命令セットのXeon PhiはVectorized (PAwV)でPAで148倍に達した。
したがって、pawvはサプライチェーンネットワーク問題において、少なくとも1024の並列インスタンスをスケールすることができる。 Ant Colony algorithm has been applied to various optimization problems, however most of the previous work on scaling and parallelism focuses on Travelling Salesman Problems (TSPs). Although, useful for benchmarks and new idea comparison, the algorithmic dynamics does not always transfer to complex real-life problems, where additional meta-data is required during solution construction. This paper looks at real-life outbound supply chain problem using Ant Colony Optimization (ACO) and its scaling dynamics with two parallel ACO architectures - Independent Ant Colonies (IAC) and Parallel Ants (PA). Results showed that PA was able to reach a higher solution quality in fewer iterations as the number of parallel instances increased. Furthermore, speed performance was measured across three different hardware solutions - 16 core CPU, 68 core Xeon Phi and up to 4 Geforce GPUs. State of the art, ACO vectorization techniques such as SS-Roulette were implemented using C++ and CUDA. Although excellent for TSP, it was concluded that for the given supply chain problem GPUs are not suitable due to meta-data access footprint required. Furthermore, compared to their sequential counterpart, vectorized CPU AVX2 implementation achieved 25.4x speedup on CPU while Xeon Phi with its AVX512 instruction set reached 148x on PA with Vectorized (PAwV). PAwV is therefore able to scale at least up to 1024 parallel instances on the supply chain network problem solved. | 翻訳日:2023-01-07 18:29:37 公開日:2020-01-22 |
# 分類と回帰のためのマルチスケールテンソルネットワークアーキテクチャ A Multi-Scale Tensor Network Architecture for Classification and Regression ( http://arxiv.org/abs/2001.08286v1 ) ライセンス: Link先を確認 | Justin Reyes, Miles Stoudenmire | (参考訳) テンソルネットワークを用いた教師あり学習のためのアルゴリズムを提案し、ウェーブレット変換の連続を通して粗粒化によってデータを前処理するステップを用いる。
これらの変換は, マルチスケールエンタングルメント再正規化アンサッツ(MERA)テンソルネットワークと同一のテンソルネットワーク層として表現し, 粗粒データに作用する行列積状態(MPS)テンソルネットワークに基づくモデルを用いて, 教師付き学習および回帰タスクを行う。
モデル全体がテンソル収縮(初期非線形特徴写像を除く)で構成されているため、最適化されたMPSモデルを本質的に性能を損なうことなく、下位の層を適応的に微粒化することができる。
MPS自体は、密度行列再正規化群(DMRG)アルゴリズムに基づく適応アルゴリズムを用いて訓練される。
本研究では,音響データに基づく分類タスクと,温度時系列データに対する回帰タスクを行ない,粗粒層数に対するトレーニング精度の依存性を検証し,ネットワークを介して細粒化がモデルの初期化にどのように役立つかを示す。 We present an algorithm for supervised learning using tensor networks, employing a step of preprocessing the data by coarse-graining through a sequence of wavelet transformations. We represent these transformations as a set of tensor network layers identical to those in a multi-scale entanglement renormalization ansatz (MERA) tensor network, and perform supervised learning and regression tasks through a model based on a matrix product state (MPS) tensor network acting on the coarse-grained data. Because the entire model consists of tensor contractions (apart from the initial non-linear feature map), we can adaptively fine-grain the optimized MPS model backwards through the layers with essentially no loss in performance. The MPS itself is trained using an adaptive algorithm based on the density matrix renormalization group (DMRG) algorithm. We test our methods by performing a classification task on audio data and a regression task on temperature time-series data, studying the dependence of training accuracy on the number of coarse-graining layers and showing how fine-graining through the network may be used to initialize models with access to finer-scale features. | 翻訳日:2023-01-07 18:22:47 公開日:2020-01-22 |
# sanst: 次の関心のポイント・オブ・インコメンデーションのための自己完結型ネットワーク SANST: A Self-Attentive Network for Next Point-of-Interest Recommendation ( http://arxiv.org/abs/2001.10379v1 ) ライセンス: Link先を確認 | Qianyu Guo, Jianzhong Qi | (参考訳) 次のPOI(point-of-interest)推奨は、ユーザのPOI訪問履歴から、次にどのPOIを訪問するかを提案することを目的としている。
この問題は観光業界に広く応用されており、poiのチェックインデータが増えるにつれて関心が高まっている。
この問題は、例えば、ニューヨーク市のメトロポリタン美術館の後にセントラルパークを訪れる傾向にあるユーザーチェックインのシーケンシャルなパターンを利用するために、シーケンシャルなレコメンデーション問題としてモデル化されることが多い。
近年、製品やビデオゲーム、映画を推薦するなど、一般的な逐次的推奨問題において、自己注意型ネットワークは効率的かつ効率的であることが示されている。
しかし、次のPOIレコメンデーションに自己注意型ネットワークを直接採用することは、準最適レコメンデーションを生み出す可能性がある。
これは、バニラ自己着信ネットワークは、次のpoi勧告で重要な2つの特徴であるユーザーチェックインの空間的および時間的パターンを考慮しないためである。
本稿では,ユーザチェックインの時空間パターンを自己注意型ネットワークに組み込んだSANSTモデルを提案する。
空間パターンを組み込むために,POIの相対的な位置を埋め込みにエンコードし,その埋め込みを自己注意ネットワークに入力する。
時間的パターンを組み込むために,POIチェックインの時刻を識別し,関係認識型自己認識モジュールによるPOIチェックイン間の時間的関係をモデル化する。
実世界の3つのデータセットを用いてSANSTモデルの性能を評価する。
その結果、SANSTは最先端のモデルよりも一貫して優れており、nDCG@10の利点は13.65%である。 Next point-of-interest (POI) recommendation aims to offer suggestions on which POI to visit next, given a user's POI visit history. This problem has a wide application in the tourism industry, and it is gaining an increasing interest as more POI check-in data become available. The problem is often modeled as a sequential recommendation problem to take advantage of the sequential patterns of user check-ins, e.g., people tend to visit Central Park after The Metropolitan Museum of Art in New York City. Recently, self-attentive networks have been shown to be both effective and efficient in general sequential recommendation problems, e.g., to recommend products, video games, or movies. Directly adopting self-attentive networks for next POI recommendation, however, may produce sub-optimal recommendations. This is because vanilla self-attentive networks do not consider the spatial and temporal patterns of user check-ins, which are two critical features in next POI recommendation. To address this limitation, in this paper, we propose a model named SANST that incorporates spatio-temporal patterns of user check-ins into self-attentive networks. To incorporate the spatial patterns, we encode the relative positions of POIs into their embeddings before feeding the embeddings into the self-attentive network. To incorporate the temporal patterns, we discretize the time of POI check-ins and model the temporal relationship between POI check-ins by a relation-aware self-attention module. We evaluate the performance of our SANST model with three real-world datasets. The results show that SANST consistently outperforms the state-of-theart models, and the advantage in nDCG@10 is up to 13.65%. | 翻訳日:2023-01-07 18:21:47 公開日:2020-01-22 |
# TensorFlow確率のための関節分布 Joint Distributions for TensorFlow Probability ( http://arxiv.org/abs/2001.11819v1 ) ライセンス: Link先を確認 | Dan Piponi, Dave Moore, Joshua V. Dillon | (参考訳) 確率的プログラミングの中心的な特徴は、モデルが推論アルゴリズムで使用可能な標準表現で正確に1度指定されることである。
TensorFlow Probabilityにおける有向グラフモデルの宣言的表現であるJointDistributionsについて説明する。 A central tenet of probabilistic programming is that a model is specified exactly once in a canonical representation which is usable by inference algorithms. We describe JointDistributions, a family of declarative representations of directed graphical models in TensorFlow Probability. | 翻訳日:2023-01-07 18:20:54 公開日:2020-01-22 |
# 脳神経発達解析のための因果関係に基づく特徴融合 Causality based Feature Fusion for Brain Neuro-Developmental Analysis ( http://arxiv.org/abs/2001.08173v1 ) ライセンス: Link先を確認 | Peyman Hosseinzadeh Kassani, Li Xiao, Gemeng Zhang, Julia M. Stephen, Tony W. Wilson, Vince D. Calhoun, Yu Ping Wang | (参考訳) ヒトの脳の発達は複雑でダイナミックなプロセスであり、遺伝学、性ホルモン、環境変化などの要因に影響される。
脳の発達に関する最近の研究は、異なる脳領域の時系列間の時間的相関によって定義される機能的接続(FC)を調査している。
脳の成熟中に情報の流れの方向を付加することを提案する。
そこで我々は,2つの異なる被験者群,すなわち子供と若年者を対象に,Granger causality(GC)を介して効果的な接続性(EC)を抽出した。
この動機は、因果的相互作用が2つの年齢グループ間の脳結合をさらに識別し、脳領域間の新しい結合を見つけるのに役立つ可能性があることである。
この研究の貢献は3倍である。
第一に、脳発達の文脈では、ECベースの特徴抽出に注意が払われていない。
そこで本研究では,本研究で提案するニューラルネットワークを用いて,複素脳ネットワークの非線形性を学習する新しいカーネルベースgc(kgc)法を提案する。
第2に,脳領域間の方向接続の重みとして因果関係値を用いた。
以上の結果から,子どもに比べて若年者の方が接続強度が有意に高かった。
さらに,本研究は,フィラデルフィア・ニューロコホート(PNC)を指標として,年齢集団の識別性の向上を図った。
さらに、これら2つの特徴セット(FC+EC)の融合により、脳年齢予測精度は4%以上向上し、脳開発研究に併用すべきであることが示唆された。 Human brain development is a complex and dynamic process that is affected by several factors such as genetics, sex hormones, and environmental changes. A number of recent studies on brain development have examined functional connectivity (FC) defined by the temporal correlation between time series of different brain regions. We propose to add the directional flow of information during brain maturation. To do so, we extract effective connectivity (EC) through Granger causality (GC) for two different groups of subjects, i.e., children and young adults. The motivation is that the inclusion of causal interaction may further discriminate brain connections between two age groups and help to discover new connections between brain regions. The contributions of this study are threefold. First, there has been a lack of attention to EC-based feature extraction in the context of brain development. To this end, we propose a new kernel-based GC (KGC) method to learn nonlinearity of complex brain network, where a reduced Sine hyperbolic polynomial (RSP) neural network was used as our proposed learner. Second, we used causality values as the weight for the directional connectivity between brain regions. Our findings indicated that the strength of connections was significantly higher in young adults relative to children. In addition, our new EC-based feature outperformed FC-based analysis from Philadelphia neurocohort (PNC) study with better discrimination of the different age groups. Moreover, the fusion of these two sets of features (FC + EC) improved brain age prediction accuracy by more than 4%, indicating that they should be used together for brain development studies. | 翻訳日:2023-01-07 18:14:48 公開日:2020-01-22 |
# 協調的MARL問題の解決について : 若干の経験から On Solving Cooperative MARL Problems with a Few Good Experiences ( http://arxiv.org/abs/2001.07993v1 ) ライセンス: Link先を確認 | Rajiv Ranjan Kumar, Pradeep Varakantham | (参考訳) 協調型マルチエージェント強化学習(marl)は、捜索救助、ドローンの監視、パッケージ配送、消防活動といった多くの分野における協調的分散意思決定に不可欠である。
これらの領域において、重要な課題は、いくつかの良い経験を積んで学ぶことである。つまり、ポジティブな強化は、いくつかの状況(例えば、火災を消したり、犯罪を追跡したり、パッケージを届けたり)でのみ得られ、その他の状況では、ゼロか負の強化がある。
いくつかの優れた経験による意思決定は、3つの理由から、協調的marl問題において極めて困難である。
まず、単一のエージェントケースと比較して、良い経験を得るために複数のエージェントを調整しなければならないため、探索は困難である。
第2に、すべてのエージェントが同時に学習している(従ってポリシの変更)ため、環境は定常的ではない。
第三に、問題の大きさは追加のエージェントごとに大きく増加する。
関連する既存の作業は幅広く、シングルエージェントRL問題や、MARL問題における非定常性を扱うためのスケーラブルなアプローチにおいて、いくつかの優れた経験を扱うことに重点を置いている。
残念なことに、これらのアプローチ(またはその拡張)はどちらも、まばらな良い経験を効果的に解決することができない。
そこで本稿では,非定常性と疎結合な経験をスケーラブルな方法で同時に処理できる,斬新な自己模倣手法を提案する。
最後に,本手法の有用性を実証するために,関連する協調的marlアルゴリズムとの比較(実験的,記述的)を行う。 Cooperative Multi-agent Reinforcement Learning (MARL) is crucial for cooperative decentralized decision learning in many domains such as search and rescue, drone surveillance, package delivery and fire fighting problems. In these domains, a key challenge is learning with a few good experiences, i.e., positive reinforcements are obtained only in a few situations (e.g., on extinguishing a fire or tracking a crime or delivering a package) and in most other situations there is zero or negative reinforcement. Learning decisions with a few good experiences is extremely challenging in cooperative MARL problems due to three reasons. First, compared to the single agent case, exploration is harder as multiple agents have to be coordinated to receive a good experience. Second, environment is not stationary as all the agents are learning at the same time (and hence change policies). Third, scale of problem increases significantly with every additional agent. Relevant existing work is extensive and has focussed on dealing with a few good experiences in single-agent RL problems or on scalable approaches for handling non-stationarity in MARL problems. Unfortunately, neither of these approaches (or their extensions) are able to address the problem of sparse good experiences effectively. Therefore, we provide a novel fictitious self imitation approach that is able to simultaneously handle non-stationarity and sparse good experiences in a scalable manner. Finally, we provide a thorough comparison (experimental or descriptive) against relevant cooperative MARL algorithms to demonstrate the utility of our approach. | 翻訳日:2023-01-07 18:14:24 公開日:2020-01-22 |
# 支払いを伴う文脈帯域の探索と勧告のインセンティブ Incentivising Exploration and Recommendations for Contextual Bandits with Payments ( http://arxiv.org/abs/2001.07853v1 ) ライセンス: Link先を確認 | Priyank Agrawal and Theja Tulabandhula | (参考訳) 筋電図利用者の存在下で,Webプラットフォームの学習目標と社会福祉目標を捉えるための文脈的包帯モデルを提案する。
本研究では、これらのエージェントにインセンティブを与えて異なる項目や勧告を探索することにより、プラットフォームがアイテム固有の属性を学習し、累積的社会福祉を最大化しながらサブ線形後悔を実現する方法を示す。
また,プラットフォームへのインセンティブの累積コストに関する理論的境界を計算する。
この領域における以前の研究とは異なり、状況は完全に敵対的であり、敵の行動がプラットフォームに未知である。
当社のアプローチは,eコマースストア,レコメンデーションエンジン,マッチングプラットフォーム上でのユーザのエンゲージメント指標を改善できる。 We propose a contextual bandit based model to capture the learning and social welfare goals of a web platform in the presence of myopic users. By using payments to incentivize these agents to explore different items/recommendations, we show how the platform can learn the inherent attributes of items and achieve a sublinear regret while maximizing cumulative social welfare. We also calculate theoretical bounds on the cumulative costs of incentivization to the platform. Unlike previous works in this domain, we consider contexts to be completely adversarial, and the behavior of the adversary is unknown to the platform. Our approach can improve various engagement metrics of users on e-commerce stores, recommendation engines and matching platforms. | 翻訳日:2023-01-07 18:13:37 公開日:2020-01-22 |
# スパーストピックモデルの最適推定 Optimal estimation of sparse topic models ( http://arxiv.org/abs/2001.07861v1 ) ライセンス: Link先を確認 | Xin Bing and Florentina Bunea and Marten Wegkamp | (参考訳) トピックモデルは、$p\times n$Matrixに格納された$n$ドキュメント中の$p$ワードの語彙の観測周波数で構成されるテキストデータの次元減少と探索的分析のための一般的なツールとなっている。
主な前提は、このデータ行列の平均は2つの非負行列の積に分解できる: a $p\times K$ワードトピック行列$A$と a $K\times n$トピックドキュメント行列$W$である。
本稿では、要素的にスパースである可能性のある$A$を推定し、$K$のトピックの数は不明である。
この未探索の文脈では、そのような$A$を推定するための新しいミニマックス下限を導出し、その回復のための新しい計算効率の良いアルゴリズムを提案する。
我々は、推定器の有限標本上界を導出し、多くのシナリオにおいてミニマックス下界と一致することを示す。
我々の推定値は、未知の$A$に適応し、我々の分析は任意の有限$n$、$p$、$K$および文書長に対して有効である。
合成データと半合成データの両方を用いた実験結果から,提案手法は,非スパース$a$とスパース$a$の両方において,既存の最先端アルゴリズムと強力な競合関係にあり,優れた性能が注目されている。 Topic models have become popular tools for dimension reduction and exploratory analysis of text data which consists in observed frequencies of a vocabulary of $p$ words in $n$ documents, stored in a $p\times n$ matrix. The main premise is that the mean of this data matrix can be factorized into a product of two non-negative matrices: a $p\times K$ word-topic matrix $A$ and a $K\times n$ topic-document matrix $W$. This paper studies the estimation of $A$ that is possibly element-wise sparse, and the number of topics $K$ is unknown. In this under-explored context, we derive a new minimax lower bound for the estimation of such $A$ and propose a new computationally efficient algorithm for its recovery. We derive a finite sample upper bound for our estimator, and show that it matches the minimax lower bound in many scenarios. Our estimate adapts to the unknown sparsity of $A$ and our analysis is valid for any finite $n$, $p$, $K$ and document lengths. Empirical results on both synthetic data and semi-synthetic data show that our proposed estimator is a strong competitor of the existing state-of-the-art algorithms for both non-sparse $A$ and sparse $A$, and has superior performance is many scenarios of interest. | 翻訳日:2023-01-07 18:12:53 公開日:2020-01-22 |
# キーワードに基づくトピックモデリングとキーワード選択 Keyword-based Topic Modeling and Keyword Selection ( http://arxiv.org/abs/2001.07866v1 ) ライセンス: Link先を確認 | Xingyu Wang, Lida Zhang, Diego Klabjan | (参考訳) ツイートのような特定の種類の文書は、キーワードのセットを指定することで収集される。
時間とともに話題が変わるため、キーワードを動的に調整することは有益である。
課題は、今後のドキュメントと基盤となるトピックを知る前に、これらを指定する必要があることです。
将来的なトピックは過去の関心事のトピックを模倣するべきです。
将来文書の収集に使用するキーワードのサブセットを動的に選択するキーワードベースのトピックモデルを開発した。
生成プロセスは、まずキーワードを選択し、次に指定されたキーワードに基づいて基礎となるドキュメントを選択する。
このモデルは変分下界と確率的勾配最適化を用いて訓練される。
推論は、サブセットが与えられた場合、モデルが未知のドキュメントのトピックワード行列を予測するキーワードのサブセットを見つけることで構成される。
トピックモデルと組み合わせたツイートのバイラル予測を用いて,キーワードトピックモデルをベンチマークモデルと比較する。
キーワードベースのトピックモデルは、この洗練されたベースラインモデルを67%上回っている。 Certain type of documents such as tweets are collected by specifying a set of keywords. As topics of interest change with time it is beneficial to adjust keywords dynamically. The challenge is that these need to be specified ahead of knowing the forthcoming documents and the underlying topics. The future topics should mimic past topics of interest yet there should be some novelty in them. We develop a keyword-based topic model that dynamically selects a subset of keywords to be used to collect future documents. The generative process first selects keywords and then the underlying documents based on the specified keywords. The model is trained by using a variational lower bound and stochastic gradient optimization. The inference consists of finding a subset of keywords where given a subset the model predicts the underlying topic-word matrix for the unknown forthcoming documents. We compare the keyword topic model against a benchmark model using viral predictions of tweets combined with a topic model. The keyword-based topic model outperforms this sophisticated baseline model by 67%. | 翻訳日:2023-01-07 18:12:26 公開日:2020-01-22 |
# 隠蔽者によるコミュニティ検出に対する敵対的攻撃 Adversarial Attack on Community Detection by Hiding Individuals ( http://arxiv.org/abs/2001.07933v1 ) ライセンス: Link先を確認 | Jia Li, Honglei Zhang, Zhichao Han, Yu Rong, Hong Cheng, Junzhou Huang | (参考訳) 逆グラフ、すなわち、知覚不能な摂動が付加されたグラフは、ノード/グラフ分類タスクでディープグラフモデルに失敗することが示されている。
本稿では, 逆グラフを, より困難であるコミュニティ検出の問題に拡張する。
我々は,ブラックボックス攻撃に着目し,ソーシャルネットワークにおける個人のプライバシ保護や,トランザクションネットワークにおけるカモフラージュパターンの理解など,現実世界のシナリオに多くの応用がある深層グラフコミュニティ検出モデルからターゲットの個人を隠蔽することを目指している。
本稿では,制約付きグラフ生成器として動作するモジュールと,サロゲート型コミュニティ検出モデルとして動作するモジュールを交互に更新する反復学習フレームワークを提案する。
また,本手法で生成した逆グラフを,他の学習に基づくコミュニティ検出モデルに転送できることを見いだした。 It has been demonstrated that adversarial graphs, i.e., graphs with imperceptible perturbations added, can cause deep graph models to fail on node/graph classification tasks. In this paper, we extend adversarial graphs to the problem of community detection which is much more difficult. We focus on black-box attack and aim to hide targeted individuals from the detection of deep graph community detection models, which has many applications in real-world scenarios, for example, protecting personal privacy in social networks and understanding camouflage patterns in transaction networks. We propose an iterative learning framework that takes turns to update two modules: one working as the constrained graph generator and the other as the surrogate community detection model. We also find that the adversarial graphs generated by our method can be transferred to other learning based community detection models. | 翻訳日:2023-01-07 18:12:13 公開日:2020-01-22 |
# セルラーコネクテッドドローンの機械学習によるハンドオーバとリソース管理 Machine Learning assisted Handover and Resource Management for Cellular Connected Drones ( http://arxiv.org/abs/2001.07937v1 ) ライセンス: Link先を確認 | Amin Azari, Fayezeh Ghavimi, Mustafa Ozger, Riku Jantti, and Cicek Cavdar | (参考訳) ドローンのセルラー接続を実現するには、さまざまな課題と機会が伴う。
セルラー接続型ドローンの通信は,高度の高いハンドオーバの数の増加につながる3次元移動性と視線チャネル特性の影響を受けている。
地上ユーザーと地上ユーザーを共存させるセル計画シミュレーションは、地上ユーザーとのアップリンク通信において、ドローンから基地局への深刻な干渉が大きな課題であることを示している。
ここではまず,ストックホルムの実際の地理的ネットワークデータを考慮し,地上およびドローン通信の共存における大きな課題について述べる。
そこで我々は,携帯電話ネットワーク上での通信遅延や干渉を含むキー性能指標(KPI)の解析モデルを導出し,ハンドオーバと無線リソース管理(H-RRM)の最適化問題を定式化する。
その後、この問題を機械学習問題に変換し、H-RRM問題を解決するための深層強化学習ソリューションを提案する。
最後に、シミュレーション結果を用いて、ドローンの速度と高度、および許容レベルの干渉が、ネットワーク内の最適なH-RRMポリシーを形成する方法を示す。
特に、異なる高度/速度でのハンドオーバ決定のヒートマップが提示され、レガシーハンドオーバスキームの改訂と空におけるセルの境界の再定義を促進している。 Enabling cellular connectivity for drones introduces a wide set of challenges and opportunities. Communication of cellular-connected drones is influenced by 3-dimensional mobility and line-of-sight channel characteristics which results in higher number of handovers with increasing altitude. Our cell planning simulations in coexistence of aerial and terrestrial users indicate that the severe interference from drones to base stations is a major challenge for uplink communications of terrestrial users. Here, we first present the major challenges in co-existence of terrestrial and drone communications by considering real geographical network data for Stockholm. Then, we derive analytical models for the key performance indicators (KPIs), including communications delay and interference over cellular networks, and formulate the handover and radio resource management (H-RRM) optimization problem. Afterwards, we transform this problem into a machine learning problem, and propose a deep reinforcement learning solution to solve H-RRM problem. Finally, using simulation results, we present how the speed and altitude of drones, and the tolerable level of interference, shape the optimal H-RRM policy in the network. Especially, the heat-maps of handover decisions in different drone's altitudes/speeds have been presented, which promote a revision of the legacy handover schemes and redefining the boundaries of cells in the sky. | 翻訳日:2023-01-07 18:11:36 公開日:2020-01-22 |
# 抽象項目から潜在空間へ、観測データとバック:構成変分自動エンコーダ From abstract items to latent spaces to observed data and back: Compositional Variational Auto-Encoder ( http://arxiv.org/abs/2001.07910v1 ) ライセンス: Link先を確認 | Victor Berger (TAU), Mich\`ele Sebag (LRI) | (参考訳) 条件付き生成モデルは現在、機械学習に不可欠なツールとして認められている。
本稿では,その制御に着目する。
本論文では, 遅延表現の座標ワイド制御によりデータをアンタングする手法が多数提案されているが, また別の方向が検討されている。
提案されたcompvaeは、自然のマルチセンスリスト構造(つまり、自然に要素に分解できる)を持つデータを扱う。
ベイズ変分原理から派生したCompVAEは、観測情報と記号情報の両方を活用する潜在表現を学ぶ。
このアプローチの第一の貢献は、この潜在表現が合成生成モデルをサポートし、マルチアンサンブラスト演算(合成における要素の追加または減算)に順応できることである。
この構成能力は、各要素の位数と数であるフレームワーク全体の不変性と一般性によって実現される。
本論文の第二の貢献は, 合成1次元および2次元問題の概念実証であり, 提案手法の有効性を示すものである。 Conditional Generative Models are now acknowledged an essential tool in Machine Learning. This paper focuses on their control. While many approaches aim at disentangling the data through the coordinate-wise control of their latent representations, another direction is explored in this paper. The proposed CompVAE handles data with a natural multi-ensemblist structure (i.e. that can naturally be decomposed into elements). Derived from Bayesian variational principles, CompVAE learns a latent representation leveraging both observational and symbolic information. A first contribution of the approach is that this latent representation supports a compositional generative model, amenable to multi-ensemblist operations (addition or subtraction of elements in the composition). This compositional ability is enabled by the invariance and generality of the whole framework w.r.t. respectively, the order and number of the elements. The second contribution of the paper is a proof of concept on synthetic 1D and 2D problems, demonstrating the efficiency of the proposed approach. | 翻訳日:2023-01-07 18:04:45 公開日:2020-01-22 |
# 分類のための最終階層アルゴリズムについて:不確かさ推定からの表現の分離 On Last-Layer Algorithms for Classification: Decoupling Representation from Uncertainty Estimation ( http://arxiv.org/abs/2001.08049v1 ) ライセンス: Link先を確認 | Nicolas Brosse, Carlos Riquelme, Alice Martin, Sylvain Gelly, \'Eric Moulines | (参考訳) ディープラーニングにおける不確実性定量化は、難しいオープン問題である。
ベイズ統計学は不確かさを推論するために数学的に基礎づけられた枠組みを提供するが、現代のニューラルネットワークの近似的な後方は依然として計算コストを必要とする。
本稿では,分類課題を表現学習と不確実性推定の2段階に分けたアルゴリズム群を提案する。
我々は,Stochastic Gradient DescentとStochastic Gradient Langevin Dynamicsのスナップショットのアンサンブル,ブートストラップされたロジスティック回帰のアンサンブル,あるいはモンテカルロ・ドロップアウトのパスによる不確実性推定を行う4つの事例を比較した。
我々は,その性能を<emph{selective}分類 (risk-coverage) と分布外サンプルの検出能力の観点から評価した。
実験の結果,複数の不確実性層を深層分類器に付加することには限界があることが明らかとなり,これらの単純な手法がImageNetのような複雑なベンチマークにおいて,バニラ点推定SGDを強く上回っていることがわかった。 Uncertainty quantification for deep learning is a challenging open problem. Bayesian statistics offer a mathematically grounded framework to reason about uncertainties; however, approximate posteriors for modern neural networks still require prohibitive computational costs. We propose a family of algorithms which split the classification task into two stages: representation learning and uncertainty estimation. We compare four specific instances, where uncertainty estimation is performed via either an ensemble of Stochastic Gradient Descent or Stochastic Gradient Langevin Dynamics snapshots, an ensemble of bootstrapped logistic regressions, or via a number of Monte Carlo Dropout passes. We evaluate their performance in terms of \emph{selective} classification (risk-coverage), and their ability to detect out-of-distribution samples. Our experiments suggest there is limited value in adding multiple uncertainty layers to deep classifiers, and we observe that these simple methods strongly outperform a vanilla point-estimate SGD in some complex benchmarks like ImageNet. | 翻訳日:2023-01-07 18:04:28 公開日:2020-01-22 |
# 通信効率のよい連合学習のための局所補償による間欠的引き抜き Intermittent Pulling with Local Compensation for Communication-Efficient Federated Learning ( http://arxiv.org/abs/2001.08277v1 ) ライセンス: Link先を確認 | Haozhao Wang, Zhihao Qu, Song Guo, Xin Gao, Ruixuan Li, and Baoliu Ye | (参考訳) Federated Learningは、高度に分散したデータでグローバルモデルを協調訓練する強力な機械学習パラダイムである。
大規模フェデレーション学習のための分散確率勾配降下(sgd)アルゴリズムの性能における大きなボトルネックは、局所勾配を押してグローバルモデルを引く際の通信オーバーヘッドである。
本稿では,フェデレートラーニングの通信複雑性を低減するために,Pulling Reduction with Local Compensation (PRLC) という新しい手法を提案する。
具体的には、各トレーニングノードは、sgdイテレーションでグローバルモデルをサーバから断続的に引き出すため、サーバと同期しない場合もある。
そのような場合、ローカルモデルとグローバルモデルの間のギャップを補うためにローカルアップデートを使用する。
PRLCの厳密な理論的解析は2つの重要な結果をもたらす。
まず, PRLCの収束速度は, トレーニングノード数に対する線形高速化によるスケーラビリティに優れる, 強凸および非凸の双方に対して, 古典的同期SGDと同じ順序を保っていることを示す。
第2に,PRLCは局所的な補償を伴わない既存の引き込み低減法よりも低周波であることを示す。
また、理論的結果を検証するために、様々な機械学習モデルに関する広範な実験を行った。
実験結果より, PRLC は LAG の牽引操作の半分しか必要としないなど, 最先端手法よりも大幅なプルダウンを実現することが示唆された。 Federated Learning is a powerful machine learning paradigm to cooperatively train a global model with highly distributed data. A major bottleneck on the performance of distributed Stochastic Gradient Descent (SGD) algorithm for large-scale Federated Learning is the communication overhead on pushing local gradients and pulling global model. In this paper, to reduce the communication complexity of Federated Learning, a novel approach named Pulling Reduction with Local Compensation (PRLC) is proposed. Specifically, each training node intermittently pulls the global model from the server in SGD iterations, resulting in that it is sometimes unsynchronized with the server. In such a case, it will use its local update to compensate the gap between the local model and the global model. Our rigorous theoretical analysis of PRLC achieves two important findings. First, we prove that the convergence rate of PRLC preserves the same order as the classical synchronous SGD for both strongly-convex and non-convex cases with good scalability due to the linear speedup with respect to the number of training nodes. Second, we show that PRLC admits lower pulling frequency than the existing pulling reduction method without local compensation. We also conduct extensive experiments on various machine learning models to validate our theoretical results. Experimental results show that our approach achieves a significant pulling reduction over the state-of-the-art methods, e.g., PRLC requiring only half of the pulling operations of LAG. | 翻訳日:2023-01-07 18:03:42 公開日:2020-01-22 |
# 畳み込みニューラルネットワークはどの程度の位置情報をエンコードするのか? How Much Position Information Do Convolutional Neural Networks Encode? ( http://arxiv.org/abs/2001.08248v1 ) ライセンス: Link先を確認 | Md Amirul Islam, Sen Jia, Neil D. B. Bruce | (参考訳) 完全接続されたネットワークとは対照的に、畳み込みニューラルネットワーク(cnns)は、有限の空間範囲の局所フィルタに関連する重みを学習することで効率を上げる。
この意味するところは、フィルタが見ているものを知っているかもしれないが、イメージのどこにあるかは分かっていないということだ。
絶対位置に関する情報は本質的に有用であり、もしそれを行う手段があるなら、深層CNNが暗黙的にこの情報を符号化することを学べると仮定することは妥当である。
本稿では,この仮説を用いて,ニューラルネットワークで符号化された絶対位置情報の驚くほどの度合いを明らかにする。
包括的実験により、この仮説の有効性が示され、深層cnnにおける位置情報の導出の手がかりを提供しながら、この情報がどのように表現され、どこで表現されるかが明らかにされた。 In contrast to fully connected networks, Convolutional Neural Networks (CNNs) achieve efficiency by learning weights associated with local filters with a finite spatial extent. An implication of this is that a filter may know what it is looking at, but not where it is positioned in the image. Information concerning absolute position is inherently useful, and it is reasonable to assume that deep CNNs may implicitly learn to encode this information if there is a means to do so. In this paper, we test this hypothesis revealing the surprising degree of absolute position information that is encoded in commonly used neural networks. A comprehensive set of experiments show the validity of this hypothesis and shed light on how and where this information is represented while offering clues to where positional information is derived from in deep CNNs. | 翻訳日:2023-01-07 18:02:59 公開日:2020-01-22 |
# CT正規化のための生成逆ネットワークの利用とその放射能特性への影響 Using a Generative Adversarial Network for CT Normalization and its Impact on Radiomic Features ( http://arxiv.org/abs/2001.08741v1 ) ライセンス: Link先を確認 | Leihao Wei and Yannan Lin and William Hsu | (参考訳) computer-aided-diagnosis (cadx) システムは、形態学的およびテクスチャベースの(放射線学的)特徴を用いて、胸部ctスキャンで悪性肺結節の同定と分類を支援する。
しかし、放射線学的特徴は、線量レベルとスライス厚さの違いによる取得の違いに敏感である。
本研究では,異種CTスキャンから正規化スキャンを入力として生成する可能性について検討した。
低用量胸部CT検査40例から投射データを取得し, 取得率10%, 25%, 50%をシミュレーションし, 1.0mm, 2.0mmのスライス厚で再構成した。
減量された線量、太いスライス (2.0mm) 画像から正常線量 (100%) 、薄いスライス (1.0mm) 画像を同時に正規化するために、gan (3d generative adversarial network) が用いられた。
ピーク信号対雑音比(PSNR)、構造類似度指数(SSIM)、Learred Perceptual Image Patch similarity(LPIPS)を用いて、正規化画像の品質を評価した。
GANはベースラインCNN法と比較して知覚的類似性を35%改善した。
また,ganに基づくアプローチは9つの放射能の特徴を解析した結果,誤差(p値 < 0.05)が有意に小さいことが判明した。
以上の結果から,GANは異種CT画像の正常化や,放射線学的特徴値の変動を低減するために有用であることが示唆された。 Computer-Aided-Diagnosis (CADx) systems assist radiologists with identifying and classifying potentially malignant pulmonary nodules on chest CT scans using morphology and texture-based (radiomic) features. However, radiomic features are sensitive to differences in acquisitions due to variations in dose levels and slice thickness. This study investigates the feasibility of generating a normalized scan from heterogeneous CT scans as input. We obtained projection data from 40 low-dose chest CT scans, simulating acquisitions at 10%, 25% and 50% dose and reconstructing the scans at 1.0mm and 2.0mm slice thickness. A 3D generative adversarial network (GAN) was used to simultaneously normalize reduced dose, thick slice (2.0mm) images to normal dose (100%), thinner slice (1.0mm) images. We evaluated the normalized image quality using peak signal-to-noise ratio (PSNR), structural similarity index (SSIM) and Learned Perceptual Image Patch Similarity (LPIPS). Our GAN improved perceptual similarity by 35%, compared to a baseline CNN method. Our analysis also shows that the GAN-based approach led to a significantly smaller error (p-value < 0.05) in nine studied radiomic features. These results indicated that GANs could be used to normalize heterogeneous CT images and reduce the variability in radiomic feature values. | 翻訳日:2023-01-07 17:56:29 公開日:2020-01-22 |
# 進化的動的制約付き最適化におけるニューラルネットワーク:計算コストとメリット Neural Networks in Evolutionary Dynamic Constrained Optimization: Computational Cost and Benefits ( http://arxiv.org/abs/2001.11588v1 ) ライセンス: Link先を確認 | Maryam Hasani-Shoreh, Renato Hermoza Aragon\'es, Frank Neumann | (参考訳) ニューラルネットワーク(NN)は最近、動的最適化問題を解決するために進化的アルゴリズム(EA)と共に適用されている。
適用されたnnは、前回の最適解に基づいて次の最適位置を推定する。
変化を検出した後、予測された解を用いて、EAの人口をソリューション空間の有望な領域に移動させ、収束を加速し、最適追跡の精度を向上させる。
以前の研究は結果の改善を示しているが、NNが生み出したオーバーヘッドを無視している。
本研究では、最適化時間におけるNNのトレーニングに要する時間を反映し、その結果をベースラインEAと比較する。
生成したオーバーヘッドを考慮することで、NNは結果を改善することができ、どの条件でそれを行うことができるかを検討する。
NNを訓練する主な困難は次のとおりである。
1)新しいデータの予測を一般化するための十分なサンプルを得る、
2)信頼できるサンプルを得る。
NNは各タイムステップでデータを収集する必要があるため、時間が短ければ、NNをトレーニングするのに十分なサンプルを収集することはできない。
これを緩和するため,より短い時間ステップでサンプル収集を高速化するために,各変更の個々人を検討することを提案する。
変化の頻度が高い環境では、EAが生み出すソリューションは実際の最適から遠く離れている可能性が高い。
NNの信頼できない列車データを使用することで、信頼性の低い予測が生まれる。
また、NNに費やされる時間は周波数によらず固定されているため、変化の頻度が高ければ、EAに比例してNNが生み出すオーバーヘッドが高くなる。
一般に、生成したオーバーヘッドを考慮すると、NNは変化頻度の高い環境や短時間の地平線に適さないと結論付けている。
しかし、変更の頻度の低さ、特に変更がパターンを持つ環境では有望である。 Neural networks (NN) have been recently applied together with evolutionary algorithms (EAs) to solve dynamic optimization problems. The applied NN estimates the position of the next optimum based on the previous time best solutions. After detecting a change, the predicted solution can be employed to move the EA's population to a promising region of the solution space in order to accelerate convergence and improve accuracy in tracking the optimum. While previous works show improvement of the results, they neglect the overhead created by NN. In this work, we reflect the time spent on training NN in the optimization time and compare the results with a baseline EA. We explore if by considering the generated overhead, NN is still able to improve the results, and under which condition is able to do so. The main difficulties to train the NN are: 1) to get enough samples to generalize predictions for new data, and 2) to obtain reliable samples. As NN needs to collect data at each time step, if the time horizon is short, we will not be able to collect enough samples to train the NN. To alleviate this, we propose to consider more individuals on each change to speed up sample collection in shorter time steps. In environments with a high frequency of changes, the solutions produced by EA are likely to be far from the real optimum. Using unreliable train data for the NN will, in consequence, produce unreliable predictions. Also, as the time spent for NN stays fixed regardless of the frequency, a higher frequency of change will mean a higher produced overhead by the NN in proportion to the EA. In general, after considering the generated overhead, we conclude that NN is not suitable in environments with a high frequency of changes and/or short time horizons. However, it can be promising for the low frequency of changes, and especially for the environments that changes have a pattern. | 翻訳日:2023-01-07 17:55:50 公開日:2020-01-22 |
# HER2を標的とした術前ダイナミック乳房MRIによるネオアジュバント化学療法反応の深層学習による予測 Deep learning-based prediction of response to HER2-targeted neoadjuvant chemotherapy from pre-treatment dynamic breast MRI: A multi-institutional validation study ( http://arxiv.org/abs/2001.08570v1 ) ライセンス: Link先を確認 | Nathaniel Braman, Mohammed El Adoui, Manasa Vulchi, Paulette Turk, Maryam Etesami, Pingfu Fu, Kaustav Bera, Stylianos Drisis, Vinay Varadan, Donna Plecha, Mohammed Benjelloun, Jame Abraham, Anant Madabhushi | (参考訳) 乳がんにおけるネオアジュバント療法の適応予測は, 重篤な課題である。
本研究では,HER2標的型ネオアジュバント化学療法(NAC)に対する深層学習の有用性について,治療前に取得したダイナミックコントラスト強調(DCE)MRIを用いて検討した。
5施設157例のHER2+乳癌患者のDCE-MRIデータを含む振り返り調査において,HER2ターゲットNACに対する病理学的完全反応(pCR)を予測するための深層学習手法を開発した。
1施設でHER2標的のネオアジュバント化学療法を受けた100例は、pCRを予測するために(n=85)、(n=15)畳み込みニューラルネットワーク(CNN)を訓練した。
前コントラストと後コントラストDCE-MRIを併用したマルチインプットCNNを同定し、検証セット内で最適な応答予測を実現する(AUC=0.93)。
このモデルは、DCE-MRIデータを用いた2つの独立したテストコホートで試験された。
第2の機関(auc=0.85, 95% ci 0.67-1.0, p=.0008)からの28の患者試験と、3つの追加機関(auc=0.77, 95% ci 0.58-0.97, p=0.006)のデータを含む29の患者多施設試験において、強力な性能を得た。
深層学習に基づく反応予測モデルは、予測的臨床変数(テストコホートではAUC < .65)と半定量的DCE-MRI薬物動態測定(テストコホートではAUC < .60)を組み込んだ多変量モデルを超えた。
以上の結果から, 深層学習のさらなる検証により, 乳癌に対する標的治療を指導し, HER2+患者に対する過剰治療を軽減できる可能性が示唆された。 Predicting response to neoadjuvant therapy is a vexing challenge in breast cancer. In this study, we evaluate the ability of deep learning to predict response to HER2-targeted neo-adjuvant chemotherapy (NAC) from pre-treatment dynamic contrast-enhanced (DCE) MRI acquired prior to treatment. In a retrospective study encompassing DCE-MRI data from a total of 157 HER2+ breast cancer patients from 5 institutions, we developed and validated a deep learning approach for predicting pathological complete response (pCR) to HER2-targeted NAC prior to treatment. 100 patients who received HER2-targeted neoadjuvant chemotherapy at a single institution were used to train (n=85) and tune (n=15) a convolutional neural network (CNN) to predict pCR. A multi-input CNN leveraging both pre-contrast and late post-contrast DCE-MRI acquisitions was identified to achieve optimal response prediction within the validation set (AUC=0.93). This model was then tested on two independent testing cohorts with pre-treatment DCE-MRI data. It achieved strong performance in a 28 patient testing set from a second institution (AUC=0.85, 95% CI 0.67-1.0, p=.0008) and a 29 patient multicenter trial including data from 3 additional institutions (AUC=0.77, 95% CI 0.58-0.97, p=0.006). Deep learning-based response prediction model was found to exceed a multivariable model incorporating predictive clinical variables (AUC < .65 in testing cohorts) and a model of semi-quantitative DCE-MRI pharmacokinetic measurements (AUC < .60 in testing cohorts). The results presented in this work across multiple sites suggest that with further validation deep learning could provide an effective and reliable tool to guide targeted therapy in breast cancer, thus reducing overtreatment among HER2+ patients. | 翻訳日:2023-01-07 17:55:22 公開日:2020-01-22 |
# pymoo: Pythonの多目的最適化 pymoo: Multi-objective Optimization in Python ( http://arxiv.org/abs/2002.04504v1 ) ライセンス: Link先を確認 | Julian Blank, Kalyanmoy Deb | (参考訳) pythonは、データサイエンス、機械学習、ディープラーニングに関連する研究および産業プロジェクトで選択されるプログラミング言語になった。
最適化はこれらの研究分野の本質的な部分であるため、近年より多くの最適化関連フレームワークが生まれている。
同時に複数の競合する目標の最適化をサポートするのはわずかだが、完全な多目的最適化タスクのための包括的なツールを提供していない。
この問題に対処するため,Python の多目的最適化フレームワーク pymoo を開発した。
我々は,模範的な制約付き多目的最適化シナリオの実装を実演して,フレームワークを始めるためのガイドを提供する。
さらに,pymoo のアーキテクチャを高レベルに概観し,その機能を示すとともに,各モジュールとそのサブモジュールの説明を行う。
フレームワークの実装はカスタマイズ可能であり、アルゴリズムはカスタム演算子の提供によって変更・拡張できる。
さらに、様々な単一、多目的、多目的のテスト問題が提供され、ボックスから自動的に微分することで勾配を取得できる。
また、関数評価の並列化、低次元空間と高次元空間の可視化方法、複数基準決定のためのツールなど、実用的なニーズに対処する。
pymooに関する詳細については、読者はこちらを参照してほしい。 Python has become the programming language of choice for research and industry projects related to data science, machine learning, and deep learning. Since optimization is an inherent part of these research fields, more optimization related frameworks have arisen in the past few years. Only a few of them support optimization of multiple conflicting objectives at a time, but do not provide comprehensive tools for a complete multi-objective optimization task. To address this issue, we have developed pymoo, a multi-objective optimization framework in Python. We provide a guide to getting started with our framework by demonstrating the implementation of an exemplary constrained multi-objective optimization scenario. Moreover, we give a high-level overview of the architecture of pymoo to show its capabilities followed by an explanation of each module and its corresponding sub-modules. The implementations in our framework are customizable and algorithms can be modified/extended by supplying custom operators. Moreover, a variety of single, multi and many-objective test problems are provided and gradients can be retrieved by automatic differentiation out of the box. Also, pymoo addresses practical needs, such as the parallelization of function evaluations, methods to visualize low and high-dimensional spaces, and tools for multi-criteria decision making. For more information about pymoo, readers are encouraged to visit: https://pymoo.org | 翻訳日:2023-01-07 17:54:43 公開日:2020-01-22 |
# 名前付きエンティティ認識における文脈化埋め込み:一般化に関する実証的研究 Contextualized Embeddings in Named-Entity Recognition: An Empirical Study on Generalization ( http://arxiv.org/abs/2001.08053v1 ) ライセンス: Link先を確認 | Bruno Taill\'e, Vincent Guigue, Patrick Gallinari | (参考訳) 文脈化埋め込みは、教師なし言語モデルを用いて、文脈に応じて単語表現を計算する。
これは直観的には一般化、特に訓練中に見たことのない言及を検出することが重要である名前付きエンティティ認識において有用である。
しかし、標準英語のベンチマークは、列車とテストの言及が非現実的な語彙重複のため、文脈的特徴よりも語彙的の重要性を過大評価している。
本稿では,新奇さによる言及とドメイン外評価を分離することで,最先端のコンテキスト埋め込みの一般化能力を実証分析する。
特にドメイン外の参照検出には特に有益であることを示す。
CoNLL03でトレーニングされたモデルでは、言語モデルの文脈化により、WNUTデータセットの+13%のドメイン外領域に対して、最大で1.2%のマイクロF1スコアがドメイン内で増加する。 Contextualized embeddings use unsupervised language model pretraining to compute word representations depending on their context. This is intuitively useful for generalization, especially in Named-Entity Recognition where it is crucial to detect mentions never seen during training. However, standard English benchmarks overestimate the importance of lexical over contextual features because of an unrealistic lexical overlap between train and test mentions. In this paper, we perform an empirical analysis of the generalization capabilities of state-of-the-art contextualized embeddings by separating mentions by novelty and with out-of-domain evaluation. We show that they are particularly beneficial for unseen mentions detection, especially out-of-domain. For models trained on CoNLL03, language model contextualization leads to a +1.2% maximal relative micro-F1 score increase in-domain against +13% out-of-domain on the WNUT dataset | 翻訳日:2023-01-07 17:53:43 公開日:2020-01-22 |
# 人オントロジー人口のためのニューラルアーキテクチャ A Neural Architecture for Person Ontology population ( http://arxiv.org/abs/2001.08013v1 ) ライセンス: Link先を確認 | Balaji Ganesan, Riddhiman Dasgupta, Akshay Parekh, Hima Patel, and Berthold Reinwald | (参考訳) 人の概念、属性、関係からなる人体オントロジーは、データ保護、服従、ビジネスインテリジェンスのための知識グラフの人口、不正防止に多くの応用がある。
人工ニューラルネットワークはエンティティ認識、エンティティ分類、リレーショナル抽出の改善につながっているが、概念間のセマンティックリレーションの固定セットを必要とするため、オントロジーの作成は手作業のままである。
本研究では、エンティティ分類と関係抽出のためのニューラルモデルを用いて、非構造化データから人オントロジーグラフを自動的に収集するシステムを提案する。
我々は,これらのタスクに新たなデータセットを導入し,その結果について考察する。 A person ontology comprising concepts, attributes and relationships of people has a number of applications in data protection, didentification, population of knowledge graphs for business intelligence and fraud prevention. While artificial neural networks have led to improvements in Entity Recognition, Entity Classification, and Relation Extraction, creating an ontology largely remains a manual process, because it requires a fixed set of semantic relations between concepts. In this work, we present a system for automatically populating a person ontology graph from unstructured data using neural models for Entity Classification and Relation Extraction. We introduce a new dataset for these tasks and discuss our results. | 翻訳日:2023-01-07 17:53:05 公開日:2020-01-22 |
# ビデオによるゼロショット活動認識 Zero-Shot Activity Recognition with Videos ( http://arxiv.org/abs/2002.02265v1 ) ライセンス: Link先を確認 | Evin Pinar Ornek | (参考訳) 本稿では,ビデオを用いたゼロショット活動認識タスクについて検討した。
視覚的およびテキスト的多様体間の複数モーダルな結合埋め込み空間を構築するための自動エンコーダモデルを提案する。
視覚面では,アクティビティビデオと最先端の3d畳み込み動作認識ネットワークを用いて特徴抽出を行った。
テキスト側では、GloVeワードの埋め込みで作業しました。
ゼロショット認識結果をトップn精度で評価する。
そして、最近傍のオーバーラップ平均により、多様体学習能力を測定する。
最後に、結果と今後の方向性について広範な議論を行います。 In this paper, we examined the zero-shot activity recognition task with the usage of videos. We introduce an auto-encoder based model to construct a multimodal joint embedding space between the visual and textual manifolds. On the visual side, we used activity videos and a state-of-the-art 3D convolutional action recognition network to extract the features. On the textual side, we worked with GloVe word embeddings. The zero-shot recognition results are evaluated by top-n accuracy. Then, the manifold learning ability is measured by mean Nearest Neighbor Overlap. In the end, we provide an extensive discussion over the results and the future directions. | 翻訳日:2023-01-07 17:47:02 公開日:2020-01-22 |
# サスペンションアニメーション問題を取り除く - グラフ半教師付き分類による深い拡散型ニューラルネットワーク Get Rid of Suspended Animation Problem: Deep Diffusive Neural Network on Graph Semi-Supervised Classification ( http://arxiv.org/abs/2001.07922v1 ) ライセンス: Link先を確認 | Jiawei Zhang | (参考訳) モデルアーキテクチャが深くなると、既存のグラフニューラルネットワークは"制限されたアニメーション問題"に苦しむ可能性がある。
一方、例えばテキスト/イメージ属性を持つノードや長距離ノード相関を持つグラフなどのグラフ学習シナリオでは、グラフ表現学習にディープグラフニューラルネットワークが必要である。
本稿では,グラフ表現学習とノード分類のための新しいグラフニューラルネットワークであるDIFNET(Graph Diffusive Neural Network)を提案する。
DIFNETはノード隠れ状態モデリングにニューラルゲートとグラフ残差学習の両方を使用し、ノード近傍情報拡散のための注意機構を含む。
本稿では,difnetを最先端のグラフニューラルネットワークモデルと比較するために,広範な実験を行う。
実験結果から,difnetの学習性能の利点と効果,特に「分散アニメーション問題」に対処できることを示すことができる。 Existing graph neural networks may suffer from the "suspended animation problem" when the model architecture goes deep. Meanwhile, for some graph learning scenarios, e.g., nodes with text/image attributes or graphs with long-distance node correlations, deep graph neural networks will be necessary for effective graph representation learning. In this paper, we propose a new graph neural network, namely DIFNET (Graph Diffusive Neural Network), for graph representation learning and node classification. DIFNET utilizes both neural gates and graph residual learning for node hidden state modeling, and includes an attention mechanism for node neighborhood information diffusion. Extensive experiments will be done in this paper to compare DIFNET against several state-of-the-art graph neural network models. The experimental results can illustrate both the learning performance advantages and effectiveness of DIFNET, especially in addressing the "suspended animation problem". | 翻訳日:2023-01-07 17:46:54 公開日:2020-01-22 |
# 医療データの表現学習 Representation Learning for Medical Data ( http://arxiv.org/abs/2001.08269v1 ) ライセンス: Link先を確認 | Karol Antczak | (参考訳) 本稿では,医学診断領域における表現学習フレームワークを提案する。
これは、診断データの異種ネットワークベースモデルと、潜在ノード表現を学習するための改良されたメタパス2vecアルゴリズムに基づいている。
提案手法を他の表現学習法と比較し,症状分類と疾患予測の2つの実践例について検討した。
異種ネットワークの形でドメインデータの表現を学習した結果,これらのタスクにおける顕著なパフォーマンス向上が観察された。 We propose a representation learning framework for medical diagnosis domain. It is based on heterogeneous network-based model of diagnostic data as well as modified metapath2vec algorithm for learning latent node representation. We compare the proposed algorithm with other representation learning methods in two practical case studies: symptom/disease classification and disease prediction. We observe a significant performance boost in these task resulting from learning representations of domain data in a form of heterogeneous network. | 翻訳日:2023-01-07 17:46:39 公開日:2020-01-22 |
# ManyModalQA: 様々な入力に対するモダリティの曖昧さとQA ManyModalQA: Modality Disambiguation and QA over Diverse Inputs ( http://arxiv.org/abs/2001.08034v1 ) ライセンス: Link先を確認 | Darryl Hannan, Akshay Jain, and Mohit Bansal | (参考訳) 我々は,エージェントがテキスト,画像,テーブルの3つの異なるモダリティを考慮し,質問に答えなければならない,新たなマルチモーダル質問応答課題であるmultimodalqaを提案する。
ウィキペディアをスクラップしてデータを収集し、クラウドソーシングを使って質問と回答のペアを収集します。
我々の質問は曖昧であり、答えを含むモダリティは、質問のみに基づいて簡単に決定されない。
この曖昧性を示すために、モダリティセレクタ(あるいは非曖昧性)ネットワークを構築し、このモデルは既存のデータセットと比較して、チャレンジセットの精度が大幅に低下し、質問があいまいであることを示している。
このモデルを解析することにより,どの単語がモダリティを示すかを調べる。
次に,モダリティセレクタからの予測に基づいて,事前学習されたunimodal qaモデルを起動する,単純なベースラインの manymodalqa モデルを構築する。
我々は,新たなマルチモーダル評価セットの提供に重点を置いており,既存のデータセットやアプローチがほとんどのトレーニングで移行されることを期待して,微調整セットのみを提供し,新たなタスク毎に大規模なモノリシックなトレーニングセットを使わずに,低リソースの一般化を促進することに重点を置いている。
ベースラインモデルと人的パフォーマンスの間には大きなギャップがあり、この課題が、エンドツーエンドのモダリティの曖昧さとマルチモーダルQAモデルの研究を奨励し、トランスファーラーニングを奨励することを願っている。
コードとデータ: https://github.com/hannandarryl/manymodalqa We present a new multimodal question answering challenge, ManyModalQA, in which an agent must answer a question by considering three distinct modalities: text, images, and tables. We collect our data by scraping Wikipedia and then utilize crowdsourcing to collect question-answer pairs. Our questions are ambiguous, in that the modality that contains the answer is not easily determined based solely upon the question. To demonstrate this ambiguity, we construct a modality selector (or disambiguator) network, and this model gets substantially lower accuracy on our challenge set, compared to existing datasets, indicating that our questions are more ambiguous. By analyzing this model, we investigate which words in the question are indicative of the modality. Next, we construct a simple baseline ManyModalQA model, which, based on the prediction from the modality selector, fires a corresponding pre-trained state-of-the-art unimodal QA model. We focus on providing the community with a new manymodal evaluation set and only provide a fine-tuning set, with the expectation that existing datasets and approaches will be transferred for most of the training, to encourage low-resource generalization without large, monolithic training sets for each new task. There is a significant gap between our baseline models and human performance; therefore, we hope that this challenge encourages research in end-to-end modality disambiguation and multimodal QA models, as well as transfer learning. Code and data available at: https://github.com/hannandarryl/ManyModalQA | 翻訳日:2023-01-07 17:46:33 公開日:2020-01-22 |
# ディープニューラルネットワークを用いたトランスファーラーニングによるファントム自動テストパターン分類 Automatic phantom test pattern classification through transfer learning with deep neural networks ( http://arxiv.org/abs/2001.08189v1 ) ライセンス: Link先を確認 | Rafael B. Fricks, Justin Solomon, Ehsan Samei | (参考訳) イメージングファントム(英: imaging phantoms)は、コンピュータ断層撮影(ct)システムにおける画像品質を測定するためのテストパターンである。
新しい幻プラットフォーム(Mercury Phantom, Gammex)は、タスク伝達関数(TTF)またはノイズパワースペクトル(NPF)を推定し、異なる患者サイズをシミュレートするためのテストパターンを提供する。
現在、分析に適した画像スライスを決定するには、専門家による手作業によるこれらのパターンの注釈が必要である。
深層学習技術を用いて,一連のファントム画像にこれらのテストパターンを自動的に分類する手法を提案する。
imagenetでトレーニングされた重み付きvgg19アーキテクチャに基づいた畳み込みニューラルネットワークを適用することで、このドメインの分類器を生成するために転送学習を利用する。
分類器は、大学医療センターで取得した3500枚のファントム画像を用いて訓練され、評価される。
カラー画像の入力チャネルは、ファントム画像のコンテキスト情報を伝達するためにうまく適合する。
分類器の設計面を検証するために一連のアブレーション研究を行い、様々な訓練条件下でその性能を評価する。
提案手法では,従来のファントム画像の98%の精度で精度よく分類できる分類器を作成するために画像拡張を広範囲に利用し,その精度を86%まで維持する。 Imaging phantoms are test patterns used to measure image quality in computer tomography (CT) systems. A new phantom platform (Mercury Phantom, Gammex) provides test patterns for estimating the task transfer function (TTF) or noise power spectrum (NPF) and simulates different patient sizes. Determining which image slices are suitable for analysis currently requires manual annotation of these patterns by an expert, as subtle defects may make an image unsuitable for measurement. We propose a method of automatically classifying these test patterns in a series of phantom images using deep learning techniques. By adapting a convolutional neural network based on the VGG19 architecture with weights trained on ImageNet, we use transfer learning to produce a classifier for this domain. The classifier is trained and evaluated with over 3,500 phantom images acquired at a university medical center. Input channels for color images are successfully adapted to convey contextual information for phantom images. A series of ablation studies are employed to verify design aspects of the classifier and evaluate its performance under varying training conditions. Our solution makes extensive use of image augmentation to produce a classifier that accurately classifies typical phantom images with 98% accuracy, while maintaining as much as 86% accuracy when the phantom is improperly imaged. | 翻訳日:2023-01-07 17:46:03 公開日:2020-01-22 |
# 償却近似最大化による巨大行動空間のq学習 Q-Learning in enormous action spaces via amortized approximate maximization ( http://arxiv.org/abs/2001.08116v1 ) ライセンス: Link先を確認 | Tom Van de Wiele, David Warde-Farley, Andriy Mnih and Volodymyr Mnih | (参考訳) Q-ラーニングを高次元あるいは連続的なアクション空間に適用することは、可能なアクションの集合に対する必要最大化のために困難である。
償却推論(amortized inference)のテクニックに動機づけられ、すべてのアクションに対する高価な最大化を、学習された提案ディストリビューションからサンプリングされた可能なアクションの小さなサブセットに対する最大化に置き換えます。
結果として得られたアプローチは、Amortized Q-learning(AQL)を模倣したもので、Q-learningのメリットを維持しながら、離散的、連続的、あるいはハイブリッドなアクションスペースを処理できる。
最大21次元動作による連続制御タスクの実験は、AQLがD3PG(Barth-Maron et al, 2018)とQT-Opt(Kalashnikov et al, 2018)より優れていることを示している。
構造化された離散アクション空間の実験は、AQLが数千の離散アクションを持つ空間で優れたポリシーを効率的に学習できることを示しています。 Applying Q-learning to high-dimensional or continuous action spaces can be difficult due to the required maximization over the set of possible actions. Motivated by techniques from amortized inference, we replace the expensive maximization over all actions with a maximization over a small subset of possible actions sampled from a learned proposal distribution. The resulting approach, which we dub Amortized Q-learning (AQL), is able to handle discrete, continuous, or hybrid action spaces while maintaining the benefits of Q-learning. Our experiments on continuous control tasks with up to 21 dimensional actions show that AQL outperforms D3PG (Barth-Maron et al, 2018) and QT-Opt (Kalashnikov et al, 2018). Experiments on structured discrete action spaces demonstrate that AQL can efficiently learn good policies in spaces with thousands of discrete actions. | 翻訳日:2023-01-07 17:45:28 公開日:2020-01-22 |
# Twitterフィードから意図的マイニングのための特徴選択による分類手法の調査 Investigating Classification Techniques with Feature Selection For Intention Mining From Twitter Feed ( http://arxiv.org/abs/2001.10380v1 ) ライセンス: Link先を確認 | Qadri Mishael and Aladdin Ayesh | (参考訳) この10年間で、ソーシャルネットワークはコミュニケーションと対話の最も人気のある媒体となった。
例えば、Twitterには2億人以上の登録ユーザーがいて、1日に6500万以上の投稿をやりとりしている。
ユーザーはこれらのツイートを通じて自分の考えや考え、意図を表現できる。
ほとんどのツイートは非公式に書かれ、しばしばスラング語で書かれ、ミスペルトと短縮語が含まれている。
本稿では,テキストマイニング技術に基づくTwitterフィードからユーザの意図を抽出する機能の選択の問題について検討する。
まず最初に、抽出したtwitterフィードから独自のデータセットを構築するために使用したメソッドを提示します。
その後,特徴選択と分類の2つの手法を提案する。
第1の手法では,情報ゲインを一相特徴選択として,次に教師付き分類アルゴリズムを用いる。
第2の手法では、前方特徴選択アルゴリズムに基づくハイブリッド手法を用いて、2つの特徴選択手法を用いて分類アルゴリズムを用いる。
これら2つの手法を4つの分類アルゴリズムを用いて検討する。
独自のデータセットを用いて評価し、結果を批判的にレビューする。 In the last decade, social networks became most popular medium for communication and interaction. As an example, micro-blogging service Twitter has more than 200 million registered users who exchange more than 65 million posts per day. Users express their thoughts, ideas, and even their intentions through these tweets. Most of the tweets are written informally and often in slang language, that contains misspelt and abbreviated words. This paper investigates the problem of selecting features that affect extracting user's intention from Twitter feeds based on text mining techniques. It starts by presenting the method we used to construct our own dataset from extracted Twitter feeds. Following that, we present two techniques of feature selection followed by classification. In the first technique, we use Information Gain as a one-phase feature selection, followed by supervised classification algorithms. In the second technique, we use a hybrid approach based on forward feature selection algorithm in which two feature selection techniques employed followed by classification algorithms. We examine these two techniques with four classification algorithms. We evaluate them using our own dataset, and we critically review the results. | 翻訳日:2023-01-07 17:45:08 公開日:2020-01-22 |
# 深層学習を用いた安全批判的知覚課題における安全性と緩和的アプローチ Safety Concerns and Mitigation Approaches Regarding the Use of Deep Learning in Safety-Critical Perception Tasks ( http://arxiv.org/abs/2001.08001v1 ) ライセンス: Link先を確認 | Oliver Willers, Sebastian Sudholt, Shervin Raafatnia, Stephanie Abrecht | (参考訳) ディープラーニングの手法は、ロボットやドローン、自動運転車などの自律的なエージェントの知覚パイプラインを設計する上で不可欠だ、と広く考えられている。
しかし、ディープラーニングが大規模に自律エージェントに使われていない主な理由は、安全性に関する懸念である。
ディープラーニングアプローチは一般的にブラックボックスの振る舞いを示すため、安全クリティカルな側面に関して評価することが難しい。
ディープラーニングには安全性に関する研究がいくつかあるが、ほとんどの論文は高レベルの安全性に重点を置いている。
本研究は,深層学習手法の安全性に関する課題を掘り下げ,より技術的なレベルでの簡潔な列挙を提案する。
さらに, 本研究は, 深層学習手法の安全性の議論を容易にするため, 緩和手法の可能性を広く議論するとともに, 緩和手法の欠如について展望する。 Deep learning methods are widely regarded as indispensable when it comes to designing perception pipelines for autonomous agents such as robots, drones or automated vehicles. The main reasons, however, for deep learning not being used for autonomous agents at large scale already are safety concerns. Deep learning approaches typically exhibit a black-box behavior which makes it hard for them to be evaluated with respect to safety-critical aspects. While there have been some work on safety in deep learning, most papers typically focus on high-level safety concerns. In this work, we seek to dive into the safety concerns of deep learning methods and present a concise enumeration on a deeply technical level. Additionally, we present extensive discussions on possible mitigation methods and give an outlook regarding what mitigation methods are still missing in order to facilitate an argumentation for the safety of a deep learning method. | 翻訳日:2023-01-07 17:44:56 公開日:2020-01-22 |