このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20191229となっている論文です。

PDF登録状況(公開日: 20191229)

TitleAuthorsAbstract論文公表日・翻訳日
# 統計力学における射影作用素:教育的アプローチ

Projection operators in statistical mechanics: a pedagogical approach ( http://arxiv.org/abs/2001.01572v1 )

ライセンス: Link先を確認
Michael te Vrugt, Raphael Wittkowski(参考訳) モリ=ツワンジヒ射影作用素形式論は非平衡統計力学の中心的な道具の1つであり、微視的力学から体系的な粗粒化手順を通じて巨視的運動方程式を導出することができる。 物理研究の手法として重要であり、非平衡輸送方程式の一般構造や顕微鏡的導出の一般的な手順について多くの洞察を与える。 そのため、統計力学の基本的・先進的なコースの貴重な要素である。 しかし、この方法、特にそのより先進的な形式へのアクセス可能な導入は極めて稀である。 本稿では,森・ツワンジヒ形式論について,学生が現在の研究で使われている手法を理解できるように,単純かつ体系的に紹介する。 これには理論の基本版と近代版の両方が含まれる。 さらに、形式論を統計力学や量子力学のより一般的な側面に関連付ける。 そこで我々は, この手法を, 非平衡系研究の一般的な導入方法として, 統計力学の講義コースに組み込む方法について解説する。 特にスピン緩和や動的密度汎関数論への応用についても論じられている。

The Mori-Zwanzig projection operator formalism is one of the central tools of nonequilibrium statistical mechanics, allowing to derive macroscopic equations of motion from the microscopic dynamics through a systematic coarse-graining procedure. It is important as a method in physical research and gives many insights into the general structure of nonequilibrium transport equations and the general procedure of microscopic derivations. Therefore, it is a valuable ingredient of basic and advanced courses in statistical mechanics. However, accessible introductions to this method - in particular in its more advanced forms - are extremely rare. In this article, we give a simple and systematic introduction to the Mori-Zwanzig formalism, which allows students to understand the methodology in the form it is used in current research. This includes both basic and modern versions of the theory. Moreover, we relate the formalism to more general aspects of statistical mechanics and quantum mechanics. Thereby, we explain how this method can be incorporated into a lecture course on statistical mechanics as a way to give a general introduction to the study of nonequilibrium systems. Applications, in particular to spin relaxation and dynamical density functional theory, are also discussed.
翻訳日:2023-01-17 08:22:06 公開日:2019-12-29
# mmWaveシステムにおけるビームトラッキングのための機械学習ソリューション

A Machine Learning Solution for Beam Tracking in mmWave Systems ( http://arxiv.org/abs/2001.01574v1 )

ライセンス: Link先を確認
Daoud Burghal, Naveed A. Abbasi, and Andreas F. Molisch(参考訳) 無線通信におけるミリ波(mmWave)周波数の利用は,ビーム方向の連続的な追跡を必要とするため困難である。 近年,チャネル幅やカルマンフィルタに基づくビームトラッキング技術が提案され,実際のシナリオでは適用できない環境や機器の移動に関する仮定が提案されている。 本稿では,現実シナリオにおける特定の経路に対する到着角度(AoA)を追跡する機械学習アプローチについて検討する。 特に、AoAを追跡するためにコスト関数を修正したリカレントニューラルネットワーク(R-NN)構造を用いる。 提案手法は,QuaDRiGaフレームワークの確率チャネルモデルに基づく現実的なmmWaveシナリオにおける拡張Kalmanフィルタベースソリューションと比較して,ネットワークを逐次データでトレーニングする方法を提案し,提案手法の性能について検討する。 提案手法は, aoaの停止確率を低減し, 頻繁なビーム探索の必要性を低減し, 拡張カルマンフィルタに基づく手法よりも優れていることを示す。

Utilizing millimeter-wave (mmWave) frequencies for wireless communication in \emph{mobile} systems is challenging since it requires continuous tracking of the beam direction. Recently, beam tracking techniques based on channel sparsity and/or Kalman filter-based techniques were proposed where the solutions use assumptions regarding the environment and device mobility that may not hold in practical scenarios. In this paper, we explore a machine learning-based approach to track the angle of arrival (AoA) for specific paths in realistic scenarios. In particular, we use a recurrent neural network (R-NN) structure with a modified cost function to track the AoA. We propose methods to train the network in sequential data, and study the performance of our proposed solution in comparison to an extended Kalman filter based solution in a realistic mmWave scenario based on stochastic channel model from the QuaDRiGa framework. Results show that our proposed solution outperforms an extended Kalman filter-based method by reducing the AoA outage probability, and thus reducing the need for frequent beam search.
翻訳日:2023-01-17 08:21:13 公開日:2019-12-29
# アハロノフ・ボームからパンチャラトナム・ベリーまでの幾何学的位相

Geometric phase from Aharonov-Bohm to Pancharatnam-Berry and beyond ( http://arxiv.org/abs/1912.12596v1 )

ライセンス: Link先を確認
Eliahu Cohen, Hugo Larocque, Frederic Bouchard, Farshad Nejadsattari, Yuval Gefen, Ebrahim Karimi(参考訳) 量子系がパラメータの遅い変化によって支配されるサイクルを経るたびに、位相因子(幾何学的位相)を得る。 最も一般的な定式化はaharonov-bohm、pancharatnam、berry phasesとして知られているが、いずれも前と後に存在する。 伝統的に量子力学の基礎に起因するが、幾何学的位相は一般化され、凝縮物質物理学や光学から高エネルギー・粒子物理学、流体力学から重力・宇宙論まで、多くの領域に影響を及ぼすようになった。 興味深いことに、幾何学的位相は量子情報と計算にユニークな機会を提供する。 本論では,まず幾何学的位相の重要化としてアハロノフ・ボーム効果を紹介する。 次に,幾何学的位相の研究において用いられる最も重要な数学的手法と実験手法を強調する幾何学的位相の広義の意味,結果,実現について詳細に論じる。

Whenever a quantum system undergoes a cycle governed by a slow change of parameters, it acquires a phase factor: the geometric phase. Its most common formulations are known as the Aharonov-Bohm, Pancharatnam and Berry phases, but both prior and later manifestations exist. Though traditionally attributed to the foundations of quantum mechanics, the geometric phase has been generalized and became increasingly influential in many areas from condensed-matter physics and optics to high energy and particle physics and from fluid mechanics to gravity and cosmology. Interestingly, the geometric phase also offers unique opportunities for quantum information and computation. In this Review we first introduce the Aharonov-Bohm effect as an important realization of the geometric phase. Then we discuss in detail the broader meaning, consequences and realizations of the geometric phase emphasizing the most important mathematical methods and experimental techniques used in the study of geometric phase, in particular those related to recent works in optics and condensed-matter physics.
翻訳日:2023-01-17 08:20:44 公開日:2019-12-29
# 排他的生産最小化と3次木に基づく量子画像作成

Quantum Image Preparation Based on Exclusive Sum-of-Product Minimization and Ternary Trees ( http://arxiv.org/abs/1912.12599v1 )

ライセンス: Link先を確認
Younatan Matthew and Ghose Shohini(参考訳) 量子画像処理は、量子情報の有望な分野の1つである。 量子画像を表す回路の設計における複雑さのオーバーヘッドは大きな問題である。 そこで我々は,量子ゲートの量子画像表現に必要な総数を最小化する新しい手法を提案した。 量子画像回路における toffoli ゲート数を削減するため,三元木を用いた手法を提案する。 また、2つの toffoli ゲートを1つにまとめるために toffoli ゲートの集合上のブール代数の補数性を使用し、したがって全体のゲートの数を減少させる。 3次木はトフォリゲートの表現に使われ、実行時間が大幅に増加し、サンプル画像の実験によって支持される。 実験の結果,従来の手法と比較して高速なアップが見られ,数千のトフォリゲートの処理時間を数分から秒に短縮した。

Quantum image processing is one of the promising fields of quantum information. The complexity overhead to design circuits to represent quantum images is a significant problem. So, we proposed a new method to minimize the total number required of quantum gates to represent the quantum image. Our approach uses ternary trees to reduce the number of Toffoli gates in a quantum image circuit. Also, it uses the complement property of Boolean algebra on a set of Toffoli gates to combine two Toffoli gates into one, therefore reducing the number of overall gates. Ternary trees are used to represent Toffoli gates as they significantly increase run time and is supported through experiments on sample images. The experimental results show that there is a high-speed up compared with previous methods, bringing the processing time for thousands of Toffoli gates from minutes to seconds.
翻訳日:2023-01-17 08:20:26 公開日:2019-12-29
# DEFT-FUNNEL:制約付きグレーボックス問題とブラックボックス問題に対するオープンソースグローバル最適化

DEFT-FUNNEL: an open-source global optimization solver for constrained grey-box and black-box problems ( http://arxiv.org/abs/1912.12637v1 )

ライセンス: Link先を確認
Phillipe R. Sampaio(参考訳) 医学、化学、工学、人工知能といった分野における制約付きグローバル最適化問題に対するグレーボックスとブラックボックス最適化手法の急速な需要は、最良の解を見つけるための新しい効率的なアルゴリズムの設計に寄与している。 本稿では,信頼領域逐次2次最適化アルゴリズムに属する一般制約付きグレイボックス問題とブラックボックス問題に対する,オープンソースのグローバル最適化アルゴリズムdeft-funnelを提案する。 sampaioとtoint(2015, 2016)による以前の成果を、クローズドフォーム関数からの情報を活用可能なグローバル最適化ソルバに拡張したものだ。 多項式補間モデルはブラックボックス関数のサロゲートとして使われ、クラスタリングベースのマルチスタート戦略はグローバルミニマの探索に適用される。 数値実験により、DEFT-FUNNELは2つのベンチマーク問題に対して、各関数がブラックボックスであるような問題を含む一組と、ある関数とその導関数がソルバに既知であるような問題を含む一組とを比較できる。 実験に使用されるコードとテストセットは、githubリポジトリのhttp://github.com/phrsampaio/deft-funnel.com/で入手できる。

The fast-growing need for grey-box and black-box optimization methods for constrained global optimization problems in fields such as medicine, chemistry, engineering and artificial intelligence, has contributed for the design of new efficient algorithms for finding the best possible solution. In this work, we present DEFT-FUNNEL, an open-source global optimization algorithm for general constrained grey-box and black-box problems that belongs to the class of trust-region sequential quadratic optimization algorithms. It extends the previous works by Sampaio and Toint (2015, 2016) to a global optimization solver that is able to exploit information from closed-form functions. Polynomial interpolation models are used as surrogates for the black-box functions and a clustering-based multistart strategy is applied for searching for the global minima. Numerical experiments show that DEFT-FUNNEL compares favorably with other state-of-the-art methods on two sets of benchmark problems: one set containing problems where every function is a black box and another set with problems where some of the functions and their derivatives are known to the solver. The code as well as the test sets used for experiments are available at the Github repository http://github.com/phrsampaio/deft-funnel.
翻訳日:2023-01-17 08:13:54 公開日:2019-12-29
# 深部畳み込みニューラルネットワークの静的重み付きパイプライントレーニング

Pipelined Training with Stale Weights of Deep Convolutional Neural Networks ( http://arxiv.org/abs/1912.12675v1 )

ライセンス: Link先を確認
Lifu Zhang, Tarek S. Abdelrahman(参考訳) 畳み込みニューラルネットワーク(CNN)の複雑さの増大は、トレーニング中に複数のアクセラレータ間でネットワークを分割し、アクセラレータ上でのバックプロパゲーション計算をパイプライン化することへの関心が高まっている。 既存のアプローチでは、マイクロバッチングやウェイトスタッシングといったテクニックによって、古い重みの使用を回避または制限している。 これらの技術はアクセラレーターを過小評価するか、メモリフットプリントを増加させる。 本稿では,加速器の利用を最大化し,メモリオーバーヘッドを抑えるパイプラインバックプロパゲーション方式において,固定重みが統計的効率と性能に与える影響について検討する。 4つのcnn(lenet-5、alexnet、vgg、resnet)を使用して、パイプライン化がネットワークの初期層に制限されると、古い重みを持つトレーニングが収束し、mnistとcifar-10データセットの非パイプライン化トレーニングから得られるものと同等の推論精度を持つモデルが生成されることを示し、それぞれ0.4%、4%、0.83%、1.45%の精度低下を示した。 しかし、パイプライニングがネットワークの奥深くにある場合、推測精度は大幅に低下する。 本稿では,パイプラインと非パイプライン学習を組み合わせたハイブリッド方式を提案する。 ResNetを用いた2つのGPU上でのPyTorchのパイプラインバックプロパゲーションの実装と性能を実演し、1-GPUベースライン上で最大1.8倍の高速化を実現し、推論精度を低下させる。

The growth in the complexity of Convolutional Neural Networks (CNNs) is increasing interest in partitioning a network across multiple accelerators during training and pipelining the backpropagation computations over the accelerators. Existing approaches avoid or limit the use of stale weights through techniques such as micro-batching or weight stashing. These techniques either underutilize of accelerators or increase memory footprint. We explore the impact of stale weights on the statistical efficiency and performance in a pipelined backpropagation scheme that maximizes accelerator utilization and keeps memory overhead modest. We use 4 CNNs (LeNet-5, AlexNet, VGG and ResNet) and show that when pipelining is limited to early layers in a network, training with stale weights converges and results in models with comparable inference accuracies to those resulting from non-pipelined training on MNIST and CIFAR-10 datasets; a drop in accuracy of 0.4%, 4%, 0.83% and 1.45% for the 4 networks, respectively. However, when pipelining is deeper in the network, inference accuracies drop significantly. We propose combining pipelined and non-pipelined training in a hybrid scheme to address this drop. We demonstrate the implementation and performance of our pipelined backpropagation in PyTorch on 2 GPUs using ResNet, achieving speedups of up to 1.8X over a 1-GPU baseline, with a small drop in inference accuracy.
翻訳日:2023-01-17 08:13:29 公開日:2019-12-29
# 対称および最適確率-可能性変換の一般化

A generalization of the symmetrical and optimal probability-to-possibility transformations ( http://arxiv.org/abs/2001.00007v1 )

ライセンス: Link先を確認
Esteve del Acebo, Yousef Alizadeh-Q, Sayyed Ali Hossayni(参考訳) 可能性論と確率論は不確実性を扱うための代替的かつ相補的な方法であり、これは近年、確率分布を可能性分布に変換する方法の研究や逆に研究の動機となっている。 本稿では、最適変換と対称変換という2つの確率変換に対するよく知られた離散確率の利点と欠点について考察し、確率変換を一般化し、その欠点を緩和する新しいパラメトリック・ファミリーを提示し、実用的な応用の可能性を示す。 また, ファジィ部分集合の概念に基づく確率分布の特異性の新たなファジィ測度を導入し, テキストオーサシップ帰属問題に適用した一般化変換の有用性を実証的に検証する。

Possibility and probability theories are alternative and complementary ways to deal with uncertainty, which has motivated over the last years an interest for the study of ways to transform probability distributions into possibility distributions and conversely. This paper studies the advantages and shortcomings of two well-known discrete probability to possibility transformations: the optimal transformation and the symmetrical transformation, and presents a novel parametric family of probability to possibility transformations which generalizes them and alleviate their shortcomings, showing a big potential for practical application. The paper also introduces a novel fuzzy measure of specificity for probability distributions based on the concept of fuzzy subsethood and presents a empirical validation of the generalized transformation usefulness applying it to the text authorship attribution problem.
翻訳日:2023-01-17 08:13:04 公開日:2019-12-29
# 量子とランダムな問合せの最適分離に向けて

Towards Optimal Separations between Quantum and Randomized Query Complexities ( http://arxiv.org/abs/1912.12561v1 )

ライセンス: Link先を確認
Avishay Tal(参考訳) クエリモデルは、量子アルゴリズムがランダム化アルゴリズムよりも確実に優れている具体的な設定を提供する。 Bernstein-Vazirani、Simon、Aaronsonらによる美しい結果は、ランダム化されたアナログに比べてはるかに少ないクエリを量子アルゴリズムで計算できる部分ブール関数を提示した。 現在まで、量子化されたクエリとランダム化されたクエリの複雑さの間の$O(1)$ vs. $\sqrt{N}$の分離は最先端のままであり($N$は入力長である)、$O(1)$ vs. $N^{1/2+\Omega(1)}$の分離は可能か? 私たちはこの質問を肯定的に答える。 我々の分離問題は Aaronson-Ambainis $k$-fold Forrelation 問題の変種である。 1)入力に対して$2^{O(k)}$クエリを行う量子アルゴリズムによって解けることを示す。 2)任意のランダム化アルゴリズムに対して少なくとも$\tilde{\Omega}(N^{2(k-1)/(3k-1)})$クエリを必要とする。 任意の定数 $\varepsilon>0$ に対して、$O(1)$ vs. $N^{2/3-\varepsilon} の部分ブール関数の量子的およびランダムなクエリ複雑度を分離する。 我々の証明はフーリエ解析であり、古典的決定木のフーリエスペクトルの新たな境界を使い、これは独立した関心を持つ可能性がある。 今後は、フーリエ境界はより正確に改善できると予測し、そのような予想された境界は、部分ブール関数の量子的およびランダムなクエリ複雑度の間の分離を、最適に$O(1)$ vs. $N^{1-\varepsilon} であることを示す。

The query model offers a concrete setting where quantum algorithms are provably superior to randomized algorithms. Beautiful results by Bernstein-Vazirani, Simon, Aaronson, and others presented partial Boolean functions that can be computed by quantum algorithms making much fewer queries compared to their randomized analogs. To date, separations of $O(1)$ vs. $\sqrt{N}$ between quantum and randomized query complexities remain the state-of-the-art (where $N$ is the input length), leaving open the question of whether $O(1)$ vs. $N^{1/2+\Omega(1)}$ separations are possible? We answer this question in the affirmative. Our separating problem is a variant of the Aaronson-Ambainis $k$-fold Forrelation problem. We show that our variant: (1) Can be solved by a quantum algorithm making $2^{O(k)}$ queries to the inputs. (2) Requires at least $\tilde{\Omega}(N^{2(k-1)/(3k-1)})$ queries for any randomized algorithm. For any constant $\varepsilon>0$, this gives a $O(1)$ vs. $N^{2/3-\varepsilon}$ separation between the quantum and randomized query complexities of partial Boolean functions. Our proof is Fourier analytical and uses new bounds on the Fourier spectrum of classical decision trees, which could be of independent interest. Looking forward, we conjecture that the Fourier bounds could be further improved in a precise manner, and show that such conjectured bounds imply optimal $O(1)$ vs. $N^{1-\varepsilon}$ separations between the quantum and randomized query complexities of partial Boolean functions.
翻訳日:2023-01-17 08:12:51 公開日:2019-12-29
# 分子系に対する電位分割法

Potential splitting approach for molecular systems ( http://arxiv.org/abs/1912.12708v1 )

ライセンス: Link先を確認
E. Yarevsky, S.L. Yakovlev, N. Elander, {\AA}sa Larson(参考訳) クーロン相互作用における小体散乱を記述するために、反応電位を有限範囲と長範囲の尾部に分割したアプローチを示す。 長い範囲尾に対するシュル・オーディンガー方程式の解は、有限範囲ポテンシャルを持つ不均質シュル・オーディンガー方程式の入射波として用いられる。 得られた漸近波の方程式は、外部複素スケーリングによって解かれる。 ポテンシャル分割アプローチは、一状態の電子ポテンシャル面を持つ3体系と見なされる h${}^+$ -- h${}^+_2$ 系における散乱過程の計算によって示される。

In order to describe few-body scattering in the case of the Coulomb interaction, an approach based on splitting the reaction potential into a finite range part and a long range tail part is presented. The solution to the Schr\"odinger equation for the long range tail is used as an incoming wave in an inhomogeneous Schr\"odinger equation with the finite range potential. The resulting equation with asymptotic outgoing waves is then solved with the exterior complex scaling. The potential splitting approach is illustrated with calculations of scattering processes in the H${}^+$ -- H${}^+_2$ system considered as the three-body system with one-state electronic potential surface.
翻訳日:2023-01-17 08:11:50 公開日:2019-12-29
# マルチエージェント強化学習者によるマルチタスク環境の個別化

Individual specialization in multi-task environments with multiagent reinforcement learners ( http://arxiv.org/abs/1912.12671v1 )

ライセンス: Link先を確認
Marco Jerome Gasparrini, Ricard Sol\'e, Mart\'i S\'anchez-Fibla(参考訳) MARL(Multi-Agent Reinforcement Learning、マルチエージェント強化学習)は、他のエージェントの存在下で非定常的な複雑な環境において、低レベルかつ高レベルな意思決定を学習する一般的な知的エージェントを構築するための第一歩である。 これまでの結果から,協調性,効率/公正性,共有プール資源共有の条件の増加が示唆された。 我々はさらに,複数の報酬タスクが実行できるマルチタスク環境において,エージェントが必ずしもすべてのタスクでうまく機能する必要はないが,特定の条件下では特殊化できるマルチタスク環境でのコーディネーションについても検討する。 本研究から得られた観察は、ランダムな行動を選択する確率を制御するepsilonパラメータがエージェントを人工的に同期させ、同時に決定論的ポリシーを持つように強制するため、価値に基づく強化学習手法のepsilon greedy探索はマルチエージェント独立学習者には不十分である。 独立エントロピー正規化探索更新を用いたポリシベースの手法を用いることで,よりスムーズな収束を実現した。 さらに調べる必要があるもう1つの結果は、エージェントの専門化が増加するにつれて、より確率が高い傾向があることである。

There is a growing interest in Multi-Agent Reinforcement Learning (MARL) as the first steps towards building general intelligent agents that learn to make low and high-level decisions in non-stationary complex environments in the presence of other agents. Previous results point us towards increased conditions for coordination, efficiency/fairness, and common-pool resource sharing. We further study coordination in multi-task environments where several rewarding tasks can be performed and thus agents don't necessarily need to perform well in all tasks, but under certain conditions may specialize. An observation derived from the study is that epsilon greedy exploration of value-based reinforcement learning methods is not adequate for multi-agent independent learners because the epsilon parameter that controls the probability of selecting a random action synchronizes the agents artificially and forces them to have deterministic policies at the same time. By using policy-based methods with independent entropy regularised exploration updates, we achieved a better and smoother convergence. Another result that needs to be further investigated is that with an increased number of agents specialization tends to be more probable.
翻訳日:2023-01-17 08:04:56 公開日:2019-12-29
# 声門音源推定のための複素ケプストラムに基づく音声の分解

Complex Cepstrum-based Decomposition of Speech for Glottal Source Estimation ( http://arxiv.org/abs/1912.12602v1 )

ライセンス: Link先を確認
Thomas Drugman, Baris Bozkurt, Thierry Dutoit(参考訳) ホモモルフィック解析は非線形結合信号の分離法としてよく知られている。 より具体的には、ソーストラクションのデコンボリューションにおける複素ケプストラムの使用について様々な記事で議論されている。 しかし,ケプストラムに基づくスロットタルフロー推定手法を提案し,有効な結果を報告する研究は存在しない。 本稿では,Z-Transform (ZZT)分解の零点によるウィンドウ音声信号の因果成分と反因果成分を分離することにより,複雑なケプストラムをスロットルフロー推定に有効に利用できることを示す。 ZZT分解のために提示されたのと全く同じ原理に基づいて、窓面の音声信号が、声門流開相が主な原因である音声生成モデルに適合する混合位相特性を示すようにウィンドウ化を適用する必要がある。 ZZT分解と比較して複雑なケプストラムベースのアプローチの利点は、はるかに高速である。

Homomorphic analysis is a well-known method for the separation of non-linearly combined signals. More particularly, the use of complex cepstrum for source-tract deconvolution has been discussed in various articles. However there exists no study which proposes a glottal flow estimation methodology based on cepstrum and reports effective results. In this paper, we show that complex cepstrum can be effectively used for glottal flow estimation by separating the causal and anticausal components of a windowed speech signal as done by the Zeros of the Z-Transform (ZZT) decomposition. Based on exactly the same principles presented for ZZT decomposition, windowing should be applied such that the windowed speech signals exhibit mixed-phase characteristics which conform the speech production model that the anticausal component is mainly due to the glottal flow open phase. The advantage of the complex cepstrum-based approach compared to the ZZT decomposition is its much higher speed.
翻訳日:2023-01-17 08:04:35 公開日:2019-12-29
# glottal ソース処理:分析からアプリケーションへ

Glottal Source Processing: from Analysis to Applications ( http://arxiv.org/abs/1912.12604v1 )

ライセンス: Link先を確認
Thomas Drugman, Paavo Alku, Abeer Alwan, Bayya Yegnanarayana(参考訳) 現在の音声技術応用の大半は、LPCパラメータの広く使われているMFCCのような声道応答を特徴付ける音響的特徴に依存している。 しかし,声帯内を流れる気流は声門流と呼ばれ,関連する相補性を示すことが期待される。 残念なことに、音声記録からの声門解析には特定の複雑な処理操作が必要である。 本総説では,Glottal Source Processing 用に設計された技術の概要を概説する。 ピッチトラッキング,声門閉鎖の瞬時検出,声門フロー推定,モデリングといった基本的な分析ツールから,これらのソリューションを様々な音声技術アプリケーションに適切に組み込む方法について紹介する。

The great majority of current voice technology applications relies on acoustic features characterizing the vocal tract response, such as the widely used MFCC of LPC parameters. Nonetheless, the airflow passing through the vocal folds, and called glottal flow, is expected to exhibit a relevant complementarity. Unfortunately, glottal analysis from speech recordings requires specific and more complex processing operations, which explains why it has been generally avoided. This review gives a general overview of techniques which have been designed for glottal source processing. Starting from fundamental analysis tools of pitch tracking, glottal closure instant detection, glottal flow estimation and modelling, this paper then highlights how these solutions can be properly integrated within various voice technology applications.
翻訳日:2023-01-17 08:04:19 公開日:2019-12-29
# パラメトリック音声合成の改善のための残差信号の決定論的・確率的モデル

A Deterministic plus Stochastic Model of the Residual Signal for Improved Parametric Speech Synthesis ( http://arxiv.org/abs/2001.00842v1 )

ライセンス: Link先を確認
Thomas Drugman, Geoffrey Wilfart, Thierry Dutoit(参考訳) パラメトリックシンセサイザーが発する音声は、通常、古いlpcライクなボコーダで見られるような、典型的なバズンジーに苦しむ。 この問題を緩和するために、より適切な励起のモデル化が採用されるべきである。 そこで本稿では,残差に対する決定論的+確率モデル(DSM)の適応を提案する。 このモデルでは、励起を最大発声周波数で区切られた2つの異なるスペクトル帯域に分割する。 決定的部分は低周波の内容に関係し、主成分分析により得られる正規直交に基づくピッチ同期残差フレームの分解からなる。 確率成分は高域通過フィルタノイズであり、時間構造はハーモニックプラスノイズモデル(HNM)と同様にエネルギーエンベロープによって変調される。 提案した残差モデルはHMMに基づく音声合成装置に統合され、主観的テストによる従来の励起と比較される。 その結果,男女ともに有意な改善が認められた。 さらに,提案モデルでは計算負荷とメモリをほとんど必要とせず,商用アプリケーションへの統合が不可欠である。

Speech generated by parametric synthesizers generally suffers from a typical buzziness, similar to what was encountered in old LPC-like vocoders. In order to alleviate this problem, a more suited modeling of the excitation should be adopted. For this, we hereby propose an adaptation of the Deterministic plus Stochastic Model (DSM) for the residual. In this model, the excitation is divided into two distinct spectral bands delimited by the maximum voiced frequency. The deterministic part concerns the low-frequency contents and consists of a decomposition of pitch-synchronous residual frames on an orthonormal basis obtained by Principal Component Analysis. The stochastic component is a high-pass filtered noise whose time structure is modulated by an energy-envelope, similarly to what is done in the Harmonic plus Noise Model (HNM). The proposed residual model is integrated within a HMM-based speech synthesizer and is compared to the traditional excitation through a subjective test. Results show a significative improvement for both male and female voices. In addition the proposed model requires few computational load and memory, which is essential for its integration in commercial applications.
翻訳日:2023-01-17 08:04:07 公開日:2019-12-29
# 残留信号の決定論的・確率的モデルとその応用

The Deterministic plus Stochastic Model of the Residual Signal and its Applications ( http://arxiv.org/abs/2001.01000v1 )

ライセンス: Link先を確認
Thomas Drugman, Thierry Dutoit(参考訳) 音声生成のモデル化は、しばしばソースフィルタアプローチに依存する。 近年, フィルタのパラメータ化手法は一定の成熟度に達しているが, 適切な励起モデルを見つけるためには, 音声処理の応用にはまだ多くのメリットがある。 この原稿は残留信号の決定論的+確率的モデル(DSM)を示す。 DSMは、最大発声周波数で区切られた2つの異なるスペクトル帯域で作用する2つのコントリビューションから構成される。 両成分は、ピッチ同期残差フレームの話者依存データセットで実行される分析から抽出される。 決定論的部分は低周波コンテンツをモデル化し、これらのフレームの正規直交分解から生じる。 確率成分については、時間と周波数の両方で変調される高周波ノイズである。 DSMの興味深い音声的および計算的性質も強調されている。 次に,2分野の音声処理におけるDSMの適用性について検討した。 まず,HMM音声合成にDSMボコーダを組み込むことで,納音品質が向上することを示した。 提案手法は従来のパルス励起を著しく上回っており、ストレートと同等の品質を提供する。 第2の応用として,提案したDSMから得られる声門信号の電位を話者識別のために検討した。 興味深いことに、これらのシグネチャは他のスロットタル法よりも認識率が高いことが示されている。

The modeling of speech production often relies on a source-filter approach. Although methods parameterizing the filter have nowadays reached a certain maturity, there is still a lot to be gained for several speech processing applications in finding an appropriate excitation model. This manuscript presents a Deterministic plus Stochastic Model (DSM) of the residual signal. The DSM consists of two contributions acting in two distinct spectral bands delimited by a maximum voiced frequency. Both components are extracted from an analysis performed on a speaker-dependent dataset of pitch-synchronous residual frames. The deterministic part models the low-frequency contents and arises from an orthonormal decomposition of these frames. As for the stochastic component, it is a high-frequency noise modulated both in time and frequency. Some interesting phonetic and computational properties of the DSM are also highlighted. The applicability of the DSM in two fields of speech processing is then studied. First, it is shown that incorporating the DSM vocoder in HMM-based speech synthesis enhances the delivered quality. The proposed approach turns out to significantly outperform the traditional pulse excitation and provides a quality equivalent to STRAIGHT. In a second application, the potential of glottal signatures derived from the proposed DSM is investigated for speaker identification purpose. Interestingly, these signatures are shown to lead to better recognition rates than other glottal-based methods.
翻訳日:2023-01-17 08:03:51 公開日:2019-12-29
# ポイントクラウドのターゲットレス登録:レビュー

Target-less registration of point clouds: A review ( http://arxiv.org/abs/1912.12756v1 )

ライセンス: Link先を確認
Yue Pan(参考訳) ポイントクラウド登録はポイントクラウド処理の基本的なステップのひとつであり、リモートセンシングやロボティクスに多くの応用がある。 本報告では、ターゲットレスポイントクラウド登録の基本的なワークフロー、すなわち対応決定と変換推定について要約する。 次に,特徴マッチングに基づく手法,反復的最近点アルゴリズム,ランダム仮説と検証に基づく手法の3つの一般的な登録手法について検討した。 さらに、これらの手法の利点と欠点を分析し、それらの共通アプリケーションシナリオを紹介した。 最後に,現在のポイントクラウド登録手法の課題を議論し,自動登録手法の今後の展開に向けて,いくつかの疑問を提起した。

Point cloud registration has been one of the basic steps of point cloud processing, which has a lot of applications in remote sensing and robotics. In this report, we summarized the basic workflow of target-less point cloud registration,namely correspondence determination and transformation estimation. Then we reviewed three commonly used groups of registration approaches, namely the feature matching based methods, the iterative closest points algorithm and the randomly hypothesis and verify based methods. Besides, we analyzed the advantage and disadvantage of these methods are introduced their common application scenarios. At last, we discussed the challenges of current point cloud registration methods and proposed several open questions for the future development of automatic registration approaches.
翻訳日:2023-01-17 08:03:16 公開日:2019-12-29
# サンプリングなしのスケーラブルな影響推定

Scalable Influence Estimation Without Sampling ( http://arxiv.org/abs/1912.12749v1 )

ライセンス: Link先を確認
Andrey Y. Lokhov, David Saad(参考訳) ネットワーク上の拡散過程では、初期スプレッドラーの集合に影響を受けるノードがいくつあると期待されているか? この自然問題は、しばしば影響推定(英語版)と呼ばれ、プロセスが指定された初期状態から始まるある時点であるノードがアクティブであるという限界確率を計算しようとする。 他の多くのアプリケーションでは、このタスクは影響力の最大化に関するよく研究された問題、つまり特定の時間軸によって広がる影響を最大化するソーシャルネットワークにおける最適なスプレッダーを見つけるために不可欠である。 実際、影響推定は候補シードセットを比較するために複数回呼び出す必要がある。 残念なことに、多くの興味のあるモデルでは、マージンの正確な計算は#pハードである。 実際には、モンテカルロサンプリング法を用いて、特に大規模において高忠実度予測を得るために大量の実行を必要とする影響をしばしば推定する。 したがって,サンプリング手法の代替として解析技術を開発することが望ましい。 本稿では、スケーラブルな動的メッセージパッシングアプローチに基づく、一般的な独立カスケードモデルにおける影響関数の推定アルゴリズムを提案する。 この手法は、単一のモンテカルロシミュレーションの計算複雑性を持ち、一般的なグラフ上の期待展開の上界を提供し、木のようなネットワークに対して正確な答えを与える。 また,線形しきい値モデルの確率バージョンに対する動的メッセージパッシング方程式も提供する。 その結果、シミュレーションベースの技術と比較して、実行時間内で潜在的に大きなサンプリング係数が節約されるため、大規模な問題インスタンスへの対処が可能になる。

In a diffusion process on a network, how many nodes are expected to be influenced by a set of initial spreaders? This natural problem, often referred to as influence estimation, boils down to computing the marginal probability that a given node is active at a given time when the process starts from specified initial condition. Among many other applications, this task is crucial for a well-studied problem of influence maximization: finding optimal spreaders in a social network that maximize the influence spread by a certain time horizon. Indeed, influence estimation needs to be called multiple times for comparing candidate seed sets. Unfortunately, in many models of interest an exact computation of marginals is #P-hard. In practice, influence is often estimated using Monte-Carlo sampling methods that require a large number of runs for obtaining a high-fidelity prediction, especially at large times. It is thus desirable to develop analytic techniques as an alternative to sampling methods. Here, we suggest an algorithm for estimating the influence function in popular independent cascade model based on a scalable dynamic message-passing approach. This method has a computational complexity of a single Monte-Carlo simulation and provides an upper bound on the expected spread on a general graph, yielding exact answer for treelike networks. We also provide dynamic message-passing equations for a stochastic version of the linear threshold model. The resulting saving of a potentially large sampling factor in the running time compared to simulation-based techniques hence makes it possible to address large-scale problem instances.
翻訳日:2023-01-17 08:03:04 公開日:2019-12-29
# 複合プロテイン親和性と接触の予測のための説明可能な深い関係ネットワーク

Explainable Deep Relational Networks for Predicting Compound-Protein Affinities and Contacts ( http://arxiv.org/abs/1912.12553v1 )

ライセンス: Link先を確認
Mostafa Karimi, Di Wu, Zhangyang Wang, Yang Shen(参考訳) 化合物タンパク質親和性の予測は、薬物発見の加速に重要である。 機械学習による最近の進歩は正確性に重点を置いているが、解釈性にはあまり期待できない。 分子間の親和性によって、我々の大規模解釈可能性評価は、一般的に使用される注意機構が不十分であることがわかった。 そこで,予測接触が予測親和性の基礎となる階層型多目的学習問題を定式化する。 さらに、物理に着想を得たディープリレーショナルネットワークDeepRelationsを、本質的に説明可能なアーキテクチャで設計する。 具体的には、様々な原子レベルの接触や「関係」は分子レベルの親和性予測につながる。 そして、組み込みの注意は予測された構造的コンテキストで規則化され、部分的に利用可能なトレーニングコンタクトで監督される。 親和性予測を損なうことなく、auprc of contact prediction 9.5, 16.9, 19.3, 5.7-fold for the test, compound-unique, protein-unique, and both-unique setをそれぞれ促進させる。 本研究は,複合タンパク質親和性の解釈可能な機械学習のための,最初の専用モデル開発と体系モデル評価である。

Predicting compound-protein affinity is critical for accelerating drug discovery. Recent progress made by machine learning focuses on accuracy but leaves much to be desired for interpretability. Through molecular contacts underlying affinities, our large-scale interpretability assessment finds commonly-used attention mechanisms inadequate. We thus formulate a hierarchical multi-objective learning problem whose predicted contacts form the basis for predicted affinities. We further design a physics-inspired deep relational network, DeepRelations, with intrinsically explainable architecture. Specifically, various atomic-level contacts or "relations" lead to molecular-level affinity prediction. And the embedded attentions are regularized with predicted structural contexts and supervised with partially available training contacts. DeepRelations shows superior interpretability to the state-of-the-art: without compromising affinity prediction, it boosts the AUPRC of contact prediction 9.5, 16.9, 19.3 and 5.7-fold for the test, compound-unique, protein-unique, and both-unique sets, respectively. Our study represents the first dedicated model development and systematic model assessment for interpretable machine learning of compound-protein affinity.
翻訳日:2023-01-17 08:02:42 公開日:2019-12-29
# ソーシャル・ネットワークの視覚的・テキスト的特徴に基づく高速動画のパーソナライズ

Personalizing Fast-Forward Videos Based on Visual and Textual Features from Social Network ( http://arxiv.org/abs/1912.12655v1 )

ライセンス: Link先を確認
Washington L. S. Ramos, Michel M. Silva, Edson R. Araujo, Alan C. Neves, Erickson R. Nascimento(参考訳) ソーシャルネットワークの成長は、日々の活動をロギングする人々の習慣を刺激し、ロングファーストパーソンビデオ(fpvs)はこの新しい習慣の主要なツールの1つだ。 セマンティクスを意識した高速フォワード手法は、視聴時間を短縮し、有意義なモーメントを選択することができる。 しかし、これらの手法はパーソナライズの観点から意味論を扱えない。 本研究では、FPV向けにパーソナライズされた高速フォワードビデオを自動的に作成するための新しいアプローチを提案する。 提案手法は,興味のある話題を推測するためのステータス更新など,ユーザのソーシャルネットワークからのテキスト中心データの可用性を探求し,その好みに応じてスコアを入力フレームに割り当てる。 シミュレーションと実世界のユーザを入力として3つの異なるデータセットで大規模な実験が行われ、F1スコアの平均12.8ポイントに達した。 また,本手法の有効性を示すため,ユーザ調査を行った。

The growth of Social Networks has fueled the habit of people logging their day-to-day activities, and long First-Person Videos (FPVs) are one of the main tools in this new habit. Semantic-aware fast-forward methods are able to decrease the watch time and select meaningful moments, which is key to increase the chances of these videos being watched. However, these methods can not handle semantics in terms of personalization. In this work, we present a new approach to automatically creating personalized fast-forward videos for FPVs. Our approach explores the availability of text-centric data from the user's social networks such as status updates to infer her/his topics of interest and assigns scores to the input frames according to her/his preferences. Extensive experiments are conducted on three different datasets with simulated and real-world users as input, achieving an average F1 score of up to 12.8 percentage points higher than the best competitors. We also present a user study to demonstrate the effectiveness of our method.
翻訳日:2023-01-17 07:56:48 公開日:2019-12-29
# 画像分類と物体検出のためのビット幅の漸減を伴う混合精度量子化ニューラルネットワーク

Mixed-Precision Quantized Neural Network with Progressively Decreasing Bitwidth For Image Classification and Object Detection ( http://arxiv.org/abs/1912.12656v1 )

ライセンス: Link先を確認
Tianshu Chu, Qin Luo, Jie Yang, Xiaolin Huang(参考訳) 効率的なモデル推論は、リソース制約プラットフォームにディープニューラルネットワークを配置する上で、重要かつ実用的な問題である。 ネットワーク量子化は、専用組み込みシステム上で実行できる低ビット表現と演算を活用することで、この問題を効果的に解決する。 前作では、パラメータビット幅を均等に設定し、優れた性能と攻撃的圧縮のトレードオフが存在する。 実際、階層的特徴抽出器と見なされるネットワーク層は、全体的なパフォーマンスに多様である。 十分に訓練されたニューラルネットワークでは、異なるカテゴリの特徴分布は、ネットワークが前進するにつれて徐々に分化する。 したがって、後続の機能抽出器の能力要件が軽減される。 これは、後層のニューロンが量子化されたニューラルネットワークの下位ビット幅に割り当てられることを示している。 この観察に基づいて,ビット幅を漸進的に緩和する簡易かつ効果的な混合精度量子化ニューラルネットワークを提案し,精度と圧縮のトレードオフを改善した。 典型的なネットワークアーキテクチャとベンチマークデータセットに関する広範囲な実験により、提案手法は、均質なパラメータに比べて、量子化パラメータのメモリ空間を30%以上削減しながら、より良い、あるいは同等の結果を得られることが証明された。 さらに,より高精度のボトム層が元の画像情報の保存性の向上により1ビットネットワーク性能を向上し,低精度の後層が$k-$bitネットワークの正規化に寄与することを示した。

Efficient model inference is an important and practical issue in the deployment of deep neural network on resource constraint platforms. Network quantization addresses this problem effectively by leveraging low-bit representation and arithmetic that could be conducted on dedicated embedded systems. In the previous works, the parameter bitwidth is set homogeneously and there is a trade-off between superior performance and aggressive compression. Actually the stacked network layers, which are generally regarded as hierarchical feature extractors, contribute diversely to the overall performance. For a well-trained neural network, the feature distributions of different categories differentiate gradually as the network propagates forward. Hence the capability requirement on the subsequent feature extractors is reduced. It indicates that the neurons in posterior layers could be assigned with lower bitwidth for quantized neural networks. Based on this observation, a simple but effective mixed-precision quantized neural network with progressively ecreasing bitwidth is proposed to improve the trade-off between accuracy and compression. Extensive experiments on typical network architectures and benchmark datasets demonstrate that the proposed method could achieve better or comparable results while reducing the memory space for quantized parameters by more than 30\% in comparison with the homogeneous counterparts. In addition, the results also demonstrate that the higher-precision bottom layers could boost the 1-bit network performance appreciably due to a better preservation of the original image information while the lower-precision posterior layers contribute to the regularization of $k-$bit networks.
翻訳日:2023-01-17 07:56:30 公開日:2019-12-29
# FLAT: 自動エンコード変換正規化による数ショット学習

FLAT: Few-Shot Learning via Autoencoding Transformation Regularizers ( http://arxiv.org/abs/1912.12674v1 )

ライセンス: Link先を確認
Haohang Xu, Hongkai Xiong, Guojun Qi(参考訳) 少数の学習タスクに直面する最も重要な課題の1つは、ベースから新しいカテゴリへの(メタ)モデルの一般化である。 既存の少数ショット学習モデルのほとんどは、ベースカテゴリで複数のシミュレーションタスクからメタ知識を学ぶか、トレーニング例にさまざまな変換を適用してデータ拡張に頼ることで、この課題に対処しようとしている。 しかしながら、これらのアプローチにおけるモデルトレーニングの監督された性質は、異なるカテゴリにまたがるバリエーションを探索する能力を制限するため、新しい概念のモデリングにおけるカテゴリー間の一般化可能性を制限する。 そこで本研究では,データ例のラベルを用いずに変換の分布によって引き起こされる特徴表現の変化を学習し,新しい正規化機構を提案する。 この正規化器は、特徴表現の変換を通じて、新しいカテゴリのセマンティックな空間をカバーできることを期待している。 エンコードされた特徴レベルで変換強化されたバリエーションを検査することで、ベースカテゴリへのオーバーフィットのリスクを最小限に抑えることができる。 これにより、適用された変換を自動エンコードすることで、FLAT(Few-shot Learning via Autoencoding Transformations)アプローチが提案される。 実験の結果,文学における現状の手法よりも優れた性能を示した。

One of the most significant challenges facing a few-shot learning task is the generalizability of the (meta-)model from the base to the novel categories. Most of existing few-shot learning models attempt to address this challenge by either learning the meta-knowledge from multiple simulated tasks on the base categories, or resorting to data augmentation by applying various transformations to training examples. However, the supervised nature of model training in these approaches limits their ability of exploring variations across different categories, thus restricting their cross-category generalizability in modeling novel concepts. To this end, we present a novel regularization mechanism by learning the change of feature representations induced by a distribution of transformations without using the labels of data examples. We expect this regularizer could expand the semantic space of base categories to cover that of novel categories through the transformation of feature representations. It could minimize the risk of overfitting into base categories by inspecting the transformation-augmented variations at the encoded feature level. This results in the proposed FLAT (Few-shot Learning via Autoencoding Transformations) approach by autoencoding the applied transformations. The experiment results show the superior performances to the current state-of-the-art methods in literature.
翻訳日:2023-01-17 07:56:08 公開日:2019-12-29
# アウトペイントによる超長期自然景観画像の予測

Very Long Natural Scenery Image Prediction by Outpainting ( http://arxiv.org/abs/1912.12688v1 )

ライセンス: Link先を確認
Zongxin Yang, Jian Dong, Ping Liu, Yi Yang, Shuicheng Yan(参考訳) 画像の塗り絵に比べて、画像の塗り絵は2つの課題によりあまり注目されない。 最初の課題は、生成された画像とオリジナルの入力の間の空間的およびコンテンツの一貫性を維持する方法である。 第2の課題は、特に生成領域が初期入力から空間的に離れているマルチステップ世代において、生成結果の高品質を維持する方法である。 この2つの問題を解決するために,Skip Horizontal Connection と Recurrent Content Transfer という,革新的なモジュールを開発し,それを設計したエンコーダ・デコーダ構造に統合した。 この設計により, ネットワークは, 効果的かつ効率的に, 高度に現実的なアウトパインティング予測を生成できる。 それ以外は,提案手法は入力と同一のスタイルとセマンティックコンテンツを保ちながら,非常に長いサイズで新たな画像を生成することができる。 提案手法の有効性を検証するため,多様で複雑な自然シーンを持つ新たな景観データセットを収集する。 このデータセットを用いた実験により,提案するネットワークの有効性が実証された。 コードとデータセットはhttps://github.com/z-x-yang/ns-outpaintingから入手できる。

Comparing to image inpainting, image outpainting receives less attention due to two challenges in it. The first challenge is how to keep the spatial and content consistency between generated images and original input. The second challenge is how to maintain high quality in generated results, especially for multi-step generations in which generated regions are spatially far away from the initial input. To solve the two problems, we devise some innovative modules, named Skip Horizontal Connection and Recurrent Content Transfer, and integrate them into our designed encoder-decoder structure. By this design, our network can generate highly realistic outpainting prediction effectively and efficiently. Other than that, our method can generate new images with very long sizes while keeping the same style and semantic content as the given input. To test the effectiveness of the proposed architecture, we collect a new scenery dataset with diverse, complicated natural scenes. The experimental results on this dataset have demonstrated the efficacy of our proposed network. The code and dataset are available from https://github.com/z-x-yang/NS-Outpainting.
翻訳日:2023-01-17 07:55:49 公開日:2019-12-29
# 効率的なボトムアップセマンティックインスタンスセグメンテーションのためのセマンティックミューテックス流域

The Semantic Mutex Watershed for Efficient Bottom-Up Semantic Instance Segmentation ( http://arxiv.org/abs/1912.12717v1 )

ライセンス: Link先を確認
Steffen Wolf, Yuyan Li, Constantin Pape, Alberto Bailoni, Anna Kreshuk, Fred A. Hamprecht(参考訳) セマンティックインスタンスのセグメンテーションは、各ピクセルにクラスラベルを関連付けながら、画像を別々のセグメントに同時に分割するタスクである。 一般的なパイプラインでは、統合最適化は計算コストがかかるため、セグメンテーションとラベル割り当ては別々に解決される。 本研究では,効率の良いミューテックス流域分割アルゴリズムに基づくグラフ分割とラベル付けのためのグリーディアルゴリズムを提案する。 対称マルチウェイカット目標と密接に関連する目的関数を最適化し、効率的なスケーリング動作を実証的に示す。 アルゴリズムの効率のため、イメージをスーパーピクセルにオーバーセグメンテーションすることなくピクセルを直接操作することができる。 都市景観データセット(2次元都市シーン)と3次元顕微鏡ボリュームの性能評価を行った。 都市のシーンでは、提案アルゴリズムと現在のディープニューラルネットワークが組み合わさって、キリロフらによる"Panoptic Feature Pyramid Networks"(2019年)の強いベースラインを上回っている。 3次元電子顕微鏡画像では,関節の定式化が分割とラベル付けの問題を別々に最適化することを示す。

Semantic instance segmentation is the task of simultaneously partitioning an image into distinct segments while associating each pixel with a class label. In commonly used pipelines, segmentation and label assignment are solved separately since joint optimization is computationally expensive. We propose a greedy algorithm for joint graph partitioning and labeling derived from the efficient Mutex Watershed partitioning algorithm. It optimizes an objective function closely related to the Symmetric Multiway Cut objective and empirically shows efficient scaling behavior. Due to the algorithm's efficiency it can operate directly on pixels without prior over-segmentation of the image into superpixels. We evaluate the performance on the Cityscapes dataset (2D urban scenes) and on a 3D microscopy volume. In urban scenes, the proposed algorithm combined with current deep neural networks outperforms the strong baseline of `Panoptic Feature Pyramid Networks' by Kirillov et al. (2019). In the 3D electron microscopy images, we show explicitly that our joint formulation outperforms a separate optimization of the partitioning and labeling problems.
翻訳日:2023-01-17 07:55:31 公開日:2019-12-29
# 深層環境を考慮したカーネルネットワーク

Deep Context-Aware Kernel Networks ( http://arxiv.org/abs/1912.12735v1 )

ライセンス: Link先を確認
Mingyuan Jiu and Hichem Sahbi(参考訳) コンテキストは、画像分類やアノテーションを含むさまざまな学習タスクの補完的な手がかりを提供するため、視覚認識において重要な役割を果たす。 これらのタスクのパフォーマンスは現在高水準に達しているため、これらのパフォーマンスに大きな飛躍を求めるために、コンテキストを含む余分な知識を活用すべきである。 カーネルマシンの特定のシナリオにおいて、コンテキスト対応カーネル設計は、データが類似したコンテンツを共有する場合だけでなく、類似した構造(コンテキスト)も高い値を返す正の半定類似性関数を学習することを目的としている。 しかし、カーネル設計におけるコンテキストの使用は十分に検討されておらず、実際、これらのソリューションのコンテキストは学習されるのではなく、手作りである。 本稿では,カーネル設計におけるコンテキストを学習する新しいディープネットワークアーキテクチャを提案する。 このアーキテクチャは、データ間の内在的な類似性をキャプチャするコンテンツ項と、その構造をモデル化するコンテキスト基準と、スムーズなカーネルネットワーク表現を設計するのに役立つ正規化項とを混合する客観的関数の解によって完全に決定される。 この目的関数の解は、パラメータが階層的、定常的、およびクラス的に学習された文脈の異なる変種に対応する特定のディープネットワークアーキテクチャを定義し、これらのパラメータのより大きな値は、データ間の最も影響のあるコンテキスト関係に対応する。 ImageCLEF Photo Annotation と Corel5k ベンチマークで実施された大規模な実験により、深層文脈ネットワークは画像分類に非常に有効であり、学習コンテキストは画像アノテーションの性能をさらに向上させることが示された。

Context plays a crucial role in visual recognition as it provides complementary clues for different learning tasks including image classification and annotation. As the performances of these tasks are currently reaching a plateau, any extra knowledge, including context, should be leveraged in order to seek significant leaps in these performances. In the particular scenario of kernel machines, context-aware kernel design aims at learning positive semi-definite similarity functions which return high values not only when data share similar contents, but also similar structures (a.k.a contexts). However, the use of context in kernel design has not been fully explored; indeed, context in these solutions is handcrafted instead of being learned. In this paper, we introduce a novel deep network architecture that learns context in kernel design. This architecture is fully determined by the solution of an objective function mixing a content term that captures the intrinsic similarity between data, a context criterion which models their structure and a regularization term that helps designing smooth kernel network representations. The solution of this objective function defines a particular deep network architecture whose parameters correspond to different variants of learned contexts including layerwise, stationary and classwise; larger values of these parameters correspond to the most influencing contextual relationships between data. Extensive experiments conducted on the challenging ImageCLEF Photo Annotation and Corel5k benchmarks show that our deep context networks are highly effective for image classification and the learned contexts further enhance the performance of image annotation.
翻訳日:2023-01-17 07:55:14 公開日:2019-12-29
# 画像クラスタリングのための分析ワークフロー

An Analytical Workflow for Clustering Forensic Images ( http://arxiv.org/abs/2001.05845v1 )

ライセンス: Link先を確認
Sara Mousavi, Dylan Lee, Tatianna Griffin, Dawnie Steadman and Audris Mockus(参考訳) 大量の画像が収集されると、多くの分野の研究の質が劇的に向上する。 教師なしクラスタリングは直感的で、このようなデータセットをキュレーションするための効果的なステップです。 本稿では,多数の法医学画像群を教師なしクラスタリングするワークフローを提案する。 このワークフローは、画像の深い特徴表現に古典的なクラスタリングを使用し、ドメイン関連のデータをまとめてグループ化する。 手作業による評価の結果,クラスターの純度は89\%であった。

Large collections of images, if curated, drastically contribute to the quality of research in many domains. Unsupervised clustering is an intuitive, yet effective step towards curating such datasets. In this work, we present a workflow for unsupervisedly clustering a large collection of forensic images. The workflow utilizes classic clustering on deep feature representation of the images in addition to domain-related data to group them together. Our manual evaluation shows a purity of 89\% for the resulted clusters.
翻訳日:2023-01-17 07:54:47 公開日:2019-12-29
# グリッド状態の測定自由化

Measurement-free preparation of grid states ( http://arxiv.org/abs/1912.12645v1 )

ライセンス: Link先を確認
Jacob Hastrup, Kimin Park, Jonatan Bohr Brask, Radim Filip and Ulrik Lund Andersen(参考訳) 量子コンピューティングは、特定のタスクに対して古典コンピューティングよりも指数的なスピードアップを提供する可能性がある。 量子コンピューティングを実用化するための中心的で際立った課題は、フォールトトレランスを達成することであり、すなわち、どんな長さや大きさの計算でもノイズの存在下で実現可能である。 Gottesman-Kitaev-Preskill符号はフォールトトレラント量子コンピューティングへの有望なアプローチであり、論理量子ビットを高調波発振器の格子状態に符号化する。 しかし、コードがフォールトトレラントであるためには、グリッド状態の品質が非常に高くなければならない。 近似格子状態は最近実験的に実現されているが、その品質は依然として耐故障性に乏しい。 グリッド状態を生成するための現在の実装可能なプロトコルは、ポストセレクションまたはフィードフォワードと組み合わせたアシラリーキュービットの測定に依存している。 このような測定の実行には、状態がここで分解するかなりの時間を要するため、品質が制限される。 本稿では、任意の論理格子状態に長方形または六角形格子で決定的に準備する無測定準備プロトコルを提案する。 このプロトコルは、閉じ込められたイオンや超伝導回路のプラットフォームで容易に実装でき、現在のシステムに見られるノイズレベルであっても、わずかな相互作用だけで高品質なグリッド状態を生成することができる。

Quantum computing potentially offers exponential speed-ups over classical computing for certain tasks. A central, outstanding challenge to making quantum computing practical is to achieve fault tolerance, meaning that computations of any length or size can be realised in the presence of noise. The Gottesman-Kitaev-Preskill code is a promising approach towards fault-tolerant quantum computing, encoding logical qubits into grid states of harmonic oscillators. However, for the code to be fault tolerant, the quality of the grid states has to be extremely high. Approximate grid states have recently been realized experimentally, but their quality is still insufficient for fault tolerance. Current implementable protocols for generating grid states rely on measurements of ancillary qubits combined with either postselection or feed forward. Implementing such measurements take up significant time during which the states decohere, thus limiting their quality. Here we propose a measurement-free preparation protocol which deterministically prepares arbitrary logical grid states with a rectangular or hexagonal lattice. The protocol can be readily implemented in trapped-ion or superconducting-circuit platforms to generate high-quality grid states using only a few interactions, even with the noise levels found in current systems.
翻訳日:2023-01-17 07:54:16 公開日:2019-12-29
# 散逸結合を有するキャビティにおけるエミッタアンサンブルの断熱除去

Adiabatic elimination for ensembles of emitters in cavities with dissipative couplings ( http://arxiv.org/abs/1912.12703v1 )

ライセンス: Link先を確認
David Hagenm\"uller, Stefan Sch\"utz, Guido Pupillo, Johannes Schachenmayer(参考訳) 空洞結合型2レベルエミッタのアンサンブルは,全双極子-双極子相互作用を介して相互作用すると考えられる。 断熱除去法を用いて,キャビティと単一エミッタからなるサブシステムに対して有効な運動方程式を導出する。 これらの方程式は[S]に示すように、単一エミッタの空洞結合を強化するスキームに使用できる。 Sch\"{u}tz, J. Schachenmayer, D. Hagenm\"{u}ller, G. K. Brennen, T. Volz, V. Sandoghdar, T. W. Ebbesen, C. Genes, G. Pupillo, e-print arXiv:1904.08888]。 有効サブシステムパラメータの限界を分析し,単一エミッタとキャビティ透過スペクトルのキャビティ結合特性にサブシステムの合同散逸崩壊過程が与える影響について検討した。

We consider an ensemble of cavity-coupled two-level emitters interacting via full (coherent and dissipative) dipole-dipole interactions. Using an adiabatic elimination procedure we derive effective equations of motion for a subsystem consisting of the cavity and a single emitter. Those equations can be used for schemes to enhance the cavity-coupling of single emitters as shown in [S. Sch\"{u}tz, J. Schachenmayer, D. Hagenm\"{u}ller, G. K. Brennen, T. Volz, V. Sandoghdar, T. W. Ebbesen, C. Genes, and G. Pupillo, e-print arXiv:1904.08888]. We analyze limitations of effective subsystem parameters, and study how joint dissipative decay processes in the subsystem affect cavity-coupling properties of the single emitter and cavity transmission spectra.
翻訳日:2023-01-17 07:53:56 公開日:2019-12-29
# CHAMELEON:ニュースレコメンダシステムのためのディープラーニングメタアーキテクチャ [博士論文]

CHAMELEON: A Deep Learning Meta-Architecture for News Recommender Systems [Phd. Thesis] ( http://arxiv.org/abs/2001.04831v1 )

ライセンス: Link先を確認
Gabriel de Souza Pereira Moreira(参考訳) レコメンダシステム(rs)は一般的な研究テーマとなり、2016年以降、この分野ではディープラーニングの手法やテクニックがますます研究されている。 news rsはユーザー体験をパーソナライズすることを目的としており、大規模でダイナミックな検索空間から関連記事を見つけるのに役立つ。 この研究の主な貢献は、ニュースレコメンデーションの特定の課題に取り組むために設計されたディープラーニングメタアーキテクチャであるCHAMELEONである。 モジュラー参照アーキテクチャで構成されており、異なるニューラルビルディングブロックを使用してインスタンス化することができる。 ニュースドメインでは,過去のインタラクションに関する情報が乏しいため,ユーザのコールドスタート問題に対処するためにユーザコンテキストを活用することができる。 記事の内容は、アイテムコールドスタート問題に取り組む上でも重要である。 さらに、ニュース領域では、項目(記事)の時間的減衰が非常に加速される。 さらに、外部の破壊イベントは、一般的に機械学習の概念ドリフトとして知られる、グローバルな読者の注意を引き付ける可能性がある。 これらの特徴はすべて、リカレントニューラルネットワークを用いたコンテキストハイブリッドセッションベースレコメンデーションアプローチによって、この研究に基づいて明確にモデル化されている。 本研究の課題は、セッションベースのニュースレコメンデーション、すなわち、現在のユーザセッションで利用可能な情報のみを用いた次クリック予測である。 ユーザクリックのストリームを再生し,ニュースポータルに新たな記事が継続的に掲載されるという,現実的な時間的オフライン評価手法を提案する。 2つの大きなデータセットを用いて行った実験では、従来のセッションベースの推薦アルゴリズムと比較して、正確性、項目カバレッジ、新規性、アイテムコールトスタート問題などの多くの品質要因において、ニュースレコメンデーションに対するCHAMELEONの有効性が示されている。

Recommender Systems (RS) have became a popular research topic and, since 2016, Deep Learning methods and techniques have been increasingly explored in this area. News RS are aimed to personalize users experiences and help them discover relevant articles from a large and dynamic search space. The main contribution of this research was named CHAMELEON, a Deep Learning meta-architecture designed to tackle the specific challenges of news recommendation. It consists of a modular reference architecture which can be instantiated using different neural building blocks. As information about users' past interactions is scarce in the news domain, the user context can be leveraged to deal with the user cold-start problem. Articles' content is also important to tackle the item cold-start problem. Additionally, the temporal decay of items (articles) relevance is very accelerated in the news domain. Furthermore, external breaking events may temporally attract global readership attention, a phenomenon generally known as concept drift in machine learning. All those characteristics are explicitly modeled on this research by a contextual hybrid session-based recommendation approach using Recurrent Neural Networks. The task addressed by this research is session-based news recommendation, i.e., next-click prediction using only information available in the current user session. A method is proposed for a realistic temporal offline evaluation of such task, replaying the stream of user clicks and fresh articles being continuously published in a news portal. Experiments performed with two large datasets have shown the effectiveness of the CHAMELEON for news recommendation on many quality factors such as accuracy, item coverage, novelty, and reduced item cold-start problem, when compared to other traditional and state-of-the-art session-based recommendation algorithms.
翻訳日:2023-01-17 07:47:23 公開日:2019-12-29
# sloam:セマンティックlidarオドメトリと森林目録のマッピング

SLOAM: Semantic Lidar Odometry and Mapping for Forest Inventory ( http://arxiv.org/abs/1912.12726v1 )

ライセンス: Link先を確認
Steven W. Chen, Guilherme V. Nardari, Elijah S. Lee, Chao Qu, Xu Liu, Roseli A. F. Romero, Vijay Kumar(参考訳) 本稿では,セマンティクスセグメンテーションとライダーオドメトリーとマッピングに基づく木径推定のためのエンドツーエンドパイプラインについて述べる。 このタイプの環境の正確なマッピングは、地面と木々が葉、くちばし、くちばしに囲まれているため困難であり、センサーは通常極端な動きを経験する。 本研究では,ロボットのポーズ推定中に木モデルを同時に洗練する,意味的特徴に基づくポーズ最適化を提案する。 このパイプラインは、セマンティックセグメンテーションネットワークのトレーニングに使用される3Dスキャンのラベル付けにカスタムバーチャルリアリティツールを使用する。 masked point cloudは、slamモジュールが使用する個々のインスタンスを特定し、関連する機能を抽出するtrellisグラフの計算に使用される。 従来のlidarおよび画像ベース手法は,無人航空機 (uav) とハンドキャリーシステムの両方の森林環境では失敗するが,本手法はより堅牢でスケーラブルであり,木径推定を自動的に生成する。

This paper describes an end-to-end pipeline for tree diameter estimation based on semantic segmentation and lidar odometry and mapping. Accurate mapping of this type of environment is challenging since the ground and the trees are surrounded by leaves, thorns and vines, and the sensor typically experiences extreme motion. We propose a semantic feature based pose optimization that simultaneously refines the tree models while estimating the robot pose. The pipeline utilizes a custom virtual reality tool for labeling 3D scans that is used to train a semantic segmentation network. The masked point cloud is used to compute a trellis graph that identifies individual instances and extracts relevant features that are used by the SLAM module. We show that traditional lidar and image based methods fail in the forest environment on both Unmanned Aerial Vehicle (UAV) and hand-carry systems, while our method is more robust, scalable, and automatically generates tree diameter estimations.
翻訳日:2023-01-17 07:46:54 公開日:2019-12-29
# ORB: 機械読解の総合的評価のためのオープン読解ベンチマーク

ORB: An Open Reading Benchmark for Comprehensive Evaluation of Machine Reading Comprehension ( http://arxiv.org/abs/1912.12598v1 )

ライセンス: Link先を確認
Dheeru Dua, Ananth Gottumukkala, Alon Talmor, Sameer Singh, and Matt Gardner(参考訳) 理解を読むことは、自然言語理解の研究を促進する重要な課題の1つである。 さまざまな読解データセットが最近導入され、単純なパラフレーズマッチングやエンティティタイピング、エンティティトラッキング、コンテキストの意味の理解など、自然言語の様々な現象が研究されている。 このようなデータセットが多数利用可能であることを考えると、この問題に取り組む研究者にとって、包括的で信頼性の高い評価は面倒で時間がかかる。 我々は,7種類の読解データセットの性能を報告し,多様な読解現象を理解するための単一モデルの能力試験を奨励し,促進する評価サーバORBを提案する。 評価サーバは、モデルの訓練方法に制限を課さないので、一般的な読書施設の訓練パラダイムや表現学習を探索するのに適したテストベッドである。 より適切なデータセットがリリースされると、評価サーバに追加される。 また、これらのデータセットの合成拡張を収集、含み、モデルがドメイン外の質問をうまく扱えるかテストします。

Reading comprehension is one of the crucial tasks for furthering research in natural language understanding. A lot of diverse reading comprehension datasets have recently been introduced to study various phenomena in natural language, ranging from simple paraphrase matching and entity typing to entity tracking and understanding the implications of the context. Given the availability of many such datasets, comprehensive and reliable evaluation is tedious and time-consuming for researchers working on this problem. We present an evaluation server, ORB, that reports performance on seven diverse reading comprehension datasets, encouraging and facilitating testing a single model's capability in understanding a wide variety of reading phenomena. The evaluation server places no restrictions on how models are trained, so it is a suitable test bed for exploring training paradigms and representation learning for general reading facility. As more suitable datasets are released, they will be added to the evaluation server. We also collect and include synthetic augmentations for these datasets, testing how well models can handle out-of-domain questions.
翻訳日:2023-01-17 07:46:38 公開日:2019-12-29
# 動的に類似した建物における地震応答改善のためのダンパ配置の多目的最適化

Multi-Objective Optimisation of Damper Placement for Improved Seismic Response in Dynamically Similar Adjacent Buildings ( http://arxiv.org/abs/2001.03237v1 )

ライセンス: Link先を確認
Mahesh B. Patil, Ramakrishna U., Mohan S. C(参考訳) 動的対称隣接建物におけるダンパー配置の多目的最適化は, 振動制御に用いる同一粘弾性ダンパーを用いて検討する。 まず, 最大床変位量, 最大床加速度量, ベースせん断量, 層間ドリフト量など, 様々な関心事で解空間を記述する。 例えば、これらの問題におけるparetoのフロントは、非常に少ない数のソリューションを含んでいることが指摘されている。 一般的に用いられる2つの多目的進化アルゴリズムであるNSGA-IIとMOPSOの有効性を, 具体例で評価した。

Multi-objective optimisation of damper placement in dynamically symmetric adjacent buildings is considered with identical viscoelastic dampers used for vibration control. First, exhaustive search is used to describe the solution space in terms of various quantities of interest such as maximum top floor displacement, maximum floor acceleration, base shear, and interstorey drift. With the help of examples, it is pointed out that the Pareto fronts in these problems contain a very small number of solutions. The effectiveness of two commonly used multi-objective evolutionary algorithms, viz., NSGA-II and MOPSO, is evaluated for a specific example.
翻訳日:2023-01-17 07:46:02 公開日:2019-12-29
# 損失回避は独立強化学習者間の協調を促進する

Loss aversion fosters coordination among independent reinforcement learners ( http://arxiv.org/abs/1912.12633v1 )

ライセンス: Link先を確認
Marco Jerome Gasparrini, Mart\'i S\'anchez-Fibla(参考訳) 自立型利己的学習エージェント間の協調行動の出現を促進する要因について検討した。 我々は、人間の行動データ(ホーキングスとゴールドストーンによる2016年)が得られた空間的反復ゲームである「エクセズの戦い」(boe)から出発し、この2つのケースを考慮すれば興味深いことが分かる: 古典的なゲーム理論バージョン、すなわち、エージェントが1つのアクション/決定(セクシーズの戦いに相当)しかできない古典的なゲーム理論バージョンと、エージェントが意思決定を変更できる空間バージョン(空間的連続バージョン)である。 独立強化学習エージェントを用いて両バージョンをモデル化し,これを「ロス・アバージョン」を導入したユーティリティに変換する報酬関数を操作する。 損失回避の導入は, 出現を加速し, 動的条件などで可能とすることで, 協調を促進することを実験的に証明する。 これはホーキングスとゴールドストーンの実験で報告されたコラボレーションに対する人間の行動の急速な収束を説明する重要な要素である可能性が示唆されている。

We study what are the factors that can accelerate the emergence of collaborative behaviours among independent selfish learning agents. We depart from the "Battle of the Exes" (BoE), a spatial repeated game from which human behavioral data has been obtained (by Hawkings and Goldstone, 2016) that we find interesting because it considers two cases: a classic game theory version, called ballistic, in which agents can only make one action/decision (equivalent to the Battle of the Sexes) and a spatial version, called dynamic, in which agents can change decision (a spatial continuous version). We model both versions of the game with independent reinforcement learning agents and we manipulate the reward function transforming it into an utility introducing "loss aversion": the reward that an agent obtains can be perceived as less valuable when compared to what the other got. We prove experimentally the introduction of loss aversion fosters cooperation by accelerating its appearance, and by making it possible in some cases like in the dynamic condition. We suggest that this may be an important factor explaining the rapid converge of human behaviour towards collaboration reported in the experiment of Hawkings and Goldstone.
翻訳日:2023-01-17 07:45:36 公開日:2019-12-29
# アップルハーベスティングロボットにおける非構造オーチャードの視覚知覚とモデリング

Visual Perception and Modelling in Unstructured Orchard for Apple Harvesting Robots ( http://arxiv.org/abs/1912.12555v1 )

ライセンス: Link先を確認
Hanwen Kang and Chao Chen(参考訳) 視覚知覚とモデリングは、非構造果樹園におけるロボット収穫の重要なタスクである。 本稿では,果樹園における果実収穫のための視覚知覚とモデリングの枠組みを考案する。 開発したフレームワークには、視覚知覚、シナリオマッピング、フルーツモデリングが含まれる。 シナリオマッピングモジュールは、環境内の複数のオブジェクトまたは要素のクラスを表現するためにOctoMapを適用します。 フルーツモデリングモジュールは、オブジェクトの幾何学的特性を推定し、各果物の適切なアクセスポーズを推定します。 開発されたフレームワークは、apple orchardsで実装され、評価される。 実験の結果,視覚知覚およびモデリングアルゴリズムは実果を正確に検出し,局所化し,実果樹園環境での作業シナリオをモデル化できることがわかった。 F_{1}$スコアと果実検出と分画における視覚知覚モジュールの結合の平均値は0.833と0.852である。 中心局在およびポーズ推定における果実モデリングの精度はそれぞれ0.955と0.923である。 本論文では,視覚の正確な認識とモデリングのアルゴリズムについて述べる。

Vision perception and modelling are the essential tasks of robotic harvesting in the unstructured orchard. This paper develops a framework of visual perception and modelling for robotic harvesting of fruits in the orchard environments. The developed framework includes visual perception, scenarios mapping, and fruit modelling. The Visual perception module utilises a deep-learning model to perform multi-purpose visual perception task within the working scenarios; The scenarios mapping module applies OctoMap to represent the multiple classes of objects or elements within the environment; The fruit modelling module estimates the geometry property of objects and estimates the proper access pose of each fruit. The developed framework is implemented and evaluated in the apple orchards. The experiment results show that visual perception and modelling algorithm can accurately detect and localise the fruits, and modelling working scenarios in real orchard environments. The $F_{1}$ score and mean intersection of union of visual perception module on fruit detection and segmentation are 0.833 and 0.852, respectively. The accuracy of the fruit modelling in terms of centre localisation and pose estimation are 0.955 and 0.923, respectively. Overall, an accurate visual perception and modelling algorithm are presented in this paper.
翻訳日:2023-01-17 07:45:16 公開日:2019-12-29
# 注意とエージェント機能を組み合わせた強化学習の高速化

Speeding up reinforcement learning by combining attention and agency features ( http://arxiv.org/abs/1912.12623v1 )

ライセンス: Link先を確認
Berkay Demirel, Mart\'i S\'anchez-Fibla(参考訳) ビデオゲームをするとき、我々はすぐに制御する実体を検出し、学習に集中し、その次元を小さくするために注意を集中する。 強化学習(RL)は、アタリゲームにおける画素画像から派生した状態を含む大きな状態空間を扱うことができるが、学習は遅く、世界状態からアクション値(Q-関数)へのブルート力マッピングに依存しているため、その性能は状態の寸法に大きく影響され、同じゲームの他のゲームや他の部分に転送することはできない。 我々は,rlで別々に取り組まれてきたが,我々の知識とは無関係な注意と機関検出機構を組み合わせた入力状態の異なる変換を提案する。 本研究は,グローバル・ローカル・エージェンシーが中心とする国別および周辺地域の要約を含む異なるアーキテクチャの提案とベンチマークを行う。 その結果、冗長なグローバルローカルステートネットワークでさえ、グローバルのみよりも速く学習できることが示唆された。 州を要約したバージョンは、インプットサイズの独立学習を達成することを約束しているように見える。

When playing video-games we immediately detect which entity we control and we center the attention towards it to focus the learning and reduce its dimensionality. Reinforcement Learning (RL) has been able to deal with big state spaces, including states derived from pixel images in Atari games, but the learning is slow, depends on the brute force mapping from the global state to the action values (Q-function), thus its performance is severely affected by the dimensionality of the state and cannot be transferred to other games or other parts of the same game. We propose different transformations of the input state that combine attention and agency detection mechanisms which both have been addressed separately in RL but not together to our knowledge. We propose and benchmark different architectures including both global and local agency centered versions of the state and also including summaries of the surroundings. Results suggest that even a redundant global-local state network can learn faster than the global alone. Summarized versions of the state look promising to achieve input-size independence learning.
翻訳日:2023-01-17 07:38:35 公開日:2019-12-29
# 制御プログラムの階層的変動模倣学習

Hierarchical Variational Imitation Learning of Control Programs ( http://arxiv.org/abs/1912.12612v1 )

ライセンス: Link先を確認
Roy Fox, Richard Shin, William Paul, Yitian Zou, Dawn Song, Ken Goldberg, Pieter Abbeel, Ion Stoica(参考訳) 自律エージェントは、意図した行動の教師のデモンストレーションを模倣することで学習することができる。 階層制御ポリシは、構造化されたタスクを単純なサブタスクに分解する可能性を持ち、データ効率と一般化を改善する。 本稿では、サブプロデューサを起動してサブタスクを実行するプログラムのような構造である、パラメータ化された階層的プロシージャ(PHP)で表される制御ポリシーの模倣学習のための変分推論手法を提案する。 本手法は, 教師による実演の観察・行動トレースのデータセットにおける階層構造を, 手続き呼び出しや用語の待ち行列に近似した後続分布を学習することによって発見する。 この学習した分布からのサンプルは、階層的制御ポリシーのトレーニングをガイドする。 我々は、階層的模倣学習の文脈において、変分推論の新たな利点を特定し、実証する: ポリシーをより単純な手順に分解することで、推論は、他の手法で使われていない因果情報を利用することができる。 データ効率と一般化の点でLSTMベースラインを上回り、バブルソートアルゴリズムの実行時に24%のエラー率を達成するために半分以下のデータを必要とし、カレルプログラムの実行時にエラーを発生させない。

Autonomous agents can learn by imitating teacher demonstrations of the intended behavior. Hierarchical control policies are ubiquitously useful for such learning, having the potential to break down structured tasks into simpler sub-tasks, thereby improving data efficiency and generalization. In this paper, we propose a variational inference method for imitation learning of a control policy represented by parametrized hierarchical procedures (PHP), a program-like structure in which procedures can invoke sub-procedures to perform sub-tasks. Our method discovers the hierarchical structure in a dataset of observation-action traces of teacher demonstrations, by learning an approximate posterior distribution over the latent sequence of procedure calls and terminations. Samples from this learned distribution then guide the training of the hierarchical control policy. We identify and demonstrate a novel benefit of variational inference in the context of hierarchical imitation learning: in decomposing the policy into simpler procedures, inference can leverage acausal information that is unused by other methods. Training PHP with variational inference outperforms LSTM baselines in terms of data efficiency and generalization, requiring less than half as much data to achieve a 24% error rate in executing the bubble sort algorithm, and to achieve no error in executing Karel programs.
翻訳日:2023-01-17 07:38:16 公開日:2019-12-29
# 畳み込みニューラルネットワークのための統合INT8トレーニングに向けて

Towards Unified INT8 Training for Convolutional Neural Network ( http://arxiv.org/abs/1912.12607v1 )

ライセンス: Link先を確認
Feng Zhu, Ruihao Gong, Fengwei Yu, Xianglong Liu, Yanfei Wang, Zhelong Li, Xiuqi Yang, Junjie Yan(参考訳) 近年、推論を加速するために、低ビット(例:8ビット)ネットワーク量子化が広く研究されている。 推論に加えて、量子化勾配による低ビットトレーニングは、後方プロセスが計算集約的であることが多いため、さらに大きな加速をもたらす可能性がある。 残念ながら、後方伝播の不適切な定量化は、通常トレーニングを不安定にし、クラッシュさせる。 さまざまなタスクで多様なネットワークをサポートする、統一された低ビットトレーニングフレームワークが欠如している。 本稿では,共用畳み込みニューラルネットワークのための統合型8ビット(int8)トレーニングフレームワークの構築を,精度と速度の両面から試みる。 まず,グラデーションの4つの特徴を実験的に把握し,グラデーション量子化に関する洞察に富む手がかりを得る。 そして、理論的に収束境界の深い解析を行い、安定なINT8トレーニングのための2つの原則を導出する。 最後に,傾きの方向ずれを低減させる方向センシティブな勾配クリッピングと,間違った方向に沿って違法な勾配更新を回避した偏差反アクティブ学習率スケーリングという,2つの普遍的な手法を提案する。 実験の結果,MobileNetV2,InceptionV3,オブジェクト検出など,さまざまなネットワークやタスクに対するINT8トレーニングの正確かつ効率的な実現が期待できることがわかった。 さらに、オフザシェルフハードウェア上で実行するための柔軟性も強く、最適化の労力を必要とせず、Pascal GPUでのトレーニング時間を22%削減できる。 この先駆的な研究は、畳み込みニューラルネットワークのための完全に統一されたINT8トレーニングにコミュニティを導くのに役立つと考えています。

Recently low-bit (e.g., 8-bit) network quantization has been extensively studied to accelerate the inference. Besides inference, low-bit training with quantized gradients can further bring more considerable acceleration, since the backward process is often computation-intensive. Unfortunately, the inappropriate quantization of backward propagation usually makes the training unstable and even crash. There lacks a successful unified low-bit training framework that can support diverse networks on various tasks. In this paper, we give an attempt to build a unified 8-bit (INT8) training framework for common convolutional neural networks from the aspects of both accuracy and speed. First, we empirically find the four distinctive characteristics of gradients, which provide us insightful clues for gradient quantization. Then, we theoretically give an in-depth analysis of the convergence bound and derive two principles for stable INT8 training. Finally, we propose two universal techniques, including Direction Sensitive Gradient Clipping that reduces the direction deviation of gradients and Deviation Counteractive Learning Rate Scaling that avoids illegal gradient update along the wrong direction. The experiments show that our unified solution promises accurate and efficient INT8 training for a variety of networks and tasks, including MobileNetV2, InceptionV3 and object detection that prior studies have never succeeded. Moreover, it enjoys a strong flexibility to run on off-the-shelf hardware, and reduces the training time by 22% on Pascal GPU without too much optimization effort. We believe that this pioneering study will help lead the community towards a fully unified INT8 training for convolutional neural networks.
翻訳日:2023-01-17 07:37:53 公開日:2019-12-29
# 適応的交通信号制御のための短期待ち行列長予測のためのグレイモデル

Grey Models for Short-Term Queue Length Predictions for Adaptive Traffic Signal Control ( http://arxiv.org/abs/1912.12676v1 )

ライセンス: Link先を確認
Gurcan Comert, Zadid Khan, Mizanur Rahman, Mashrur Chowdhury(参考訳) 信号交差点での交通渋滞は都市部の走行時間の信頼性を大幅に低下させる。 アダプティブ信号制御システム (ASCS) は, 渋滞を軽減するため, 信号の投射とタイミングをリアルタイムに考慮して制御する最も先進的な信号制御技術である。 待ち行列長のリアルタイム予測は、ASCSとの交点における異なる動きの拍子やタイミングを調整するのに利用できる。 予測の精度は、車両到着率の確率的性質、日時、天気、運転者の特性などによって異なる。 さらに, マルチレーン, 不飽和, 飽和交通シナリオの正確な予測は困難である。 そこで本研究の目的は,4種類のグレーシステムを用いてascで活用可能な信号化交差点の待ち行列長予測モデルを開発することである。 (i)一階単変数グレイモデル(GM(1,1)) (ii) フーリエ誤差補正付きgm(1,1) (三)GVM(Grey Verhulst Model)及び (4)フーリエ誤差補正付きGVM。 GMの有効性は、高速な処理を促進すること、これらのモデルが大量のデータを必要としないこと、人工知能モデルで必要とされること、統計モデルとは異なり確率的な変化に適応できることである。 サウスカロライナ州レキシントンの道路ネットワーク上でASCSと交差する5つの交差点の待ち行列長データを用いたケーススタディを行った。 GMは線形非線形時系列モデルと長い短期記憶(LSTM)ニューラルネットワークと比較した。 その結果, egvmは, 平均待ち行列長を40%, 最大待ち行列長を42%, 平均絶対誤差で51%, 50%の予測誤差を, 最接近モデル (lstmモデル, 時系列モデル) に対して, 予測誤差を40%, 最大待ち行列長を40%, 最大待ち行列長を42%減少させることがわかった。

Traffic congestion at a signalized intersection greatly reduces the travel time reliability in urban areas. Adaptive signal control system (ASCS) is the most advanced traffic signal technology that regulates the signal phasing and timings considering the patterns in real-time in order to reduce congestion. Real-time prediction of queue lengths can be used to adjust the phasing and timings for different movements at an intersection with ASCS. The accuracy of the prediction varies based on the factors, such as the stochastic nature of the vehicle arrival rates, time of the day, weather and driver characteristics. In addition, accurate prediction for multilane, undersaturated and saturated traffic scenarios is challenging. Thus, the objective of this study is to develop queue length prediction models for signalized intersections that can be leveraged by ASCS using four variations of Grey systems: (i) the first order single variable Grey model (GM(1,1)); (ii) GM(1,1) with Fourier error corrections; (iii) the Grey Verhulst model (GVM), and (iv) GVM with Fourier error corrections. The efficacy of the GM is that they facilitate fast processing; as these models do not require a large amount of data; as would be needed in artificial intelligence models; and they are able to adapt to stochastic changes, unlike statistical models. We have conducted a case study using queue length data from five intersections with ASCS on a calibrated roadway network in Lexington, South Carolina. GM were compared with linear, nonlinear time series models, and long short-term memory (LSTM) neural network. Based on our analyses, we found that EGVM reduces the prediction error over closest competing models (i.e., LSTM and time series models) in predicting average and maximum queue lengths by 40% and 42%, respectively, in terms of Root Mean Squared Error, and 51% and 50%, respectively, in terms of Mean Absolute Error.
翻訳日:2023-01-17 07:36:47 公開日:2019-12-29
# サポートベクトルマシン分類のためのデータセットのプライバシ保護公開

Privacy-Preserving Public Release of Datasets for Support Vector Machine Classification ( http://arxiv.org/abs/1912.12576v1 )

ライセンス: Link先を確認
Farhad Farokhi(参考訳) 我々は,データセットにプライベート情報が格納されている個人に対して,データのプライバシを侵害することなく,ベクトルマシン分類をサポートするデータセットを公開することの問題点を考察する。 データセットは、プライバシ保護のために付加ノイズを使用して体系的に難読化される。 クラッカー・ラオ境界によって動機づけられたフィッシャー情報行列のトレースの逆は、プライバシーの尺度として用いられる。 元のデータセットから抽出された分類器と難読化データとが互いに近接していることを保証する(ユーティリティの取得)条件が確立される。 プライバシとユーティリティの尺度の重み付け和を最大化することにより最適なノイズ分布を決定する。 最適なプライバシー保存ノイズは、局所的な差分プライバシーを実現することが証明される。 結果は、最適化に基づく教師付き機械学習アルゴリズムの幅広いクラスに一般化される。 方法論の適用性は、複数のデータセットで示される。

We consider the problem of publicly releasing a dataset for support vector machine classification while not infringing on the privacy of data subjects (i.e., individuals whose private information is stored in the dataset). The dataset is systematically obfuscated using an additive noise for privacy protection. Motivated by the Cramer-Rao bound, inverse of the trace of the Fisher information matrix is used as a measure of the privacy. Conditions are established for ensuring that the classifier extracted from the original dataset and the obfuscated one are close to each other (capturing the utility). The optimal noise distribution is determined by maximizing a weighted sum of the measures of privacy and utility. The optimal privacy-preserving noise is proved to achieve local differential privacy. The results are generalized to a broader class of optimization-based supervised machine learning algorithms. Applicability of the methodology is demonstrated on multiple datasets.
翻訳日:2023-01-17 07:36:16 公開日:2019-12-29
# 強化学習による計算モデル発見

Computational model discovery with reinforcement learning ( http://arxiv.org/abs/2001.00008v1 )

ライセンス: Link先を確認
Maxime Bassenne and Adri\'an Lozano-Dur\'an(参考訳) この研究の動機は、人工知能研究の最近の進歩を利用して、計算科学で遭遇する重要な科学的問題に対する新しい解決策を解き放つことである。 減数次モデルの発見における人間の知能の限界に対処するため、人間思考を人工知能で補うことを提案する。 3段階の戦略は学習から成り立っている (i)分析形式で表現されたモデル (ii)後肢の評価、及び 三 基準解から排他的に総合的な量を先行知識とする。 ポイントは (i) ブラックボックスニューラルネットワークとは対照的に解釈可能なモデルを探索し, 後者は学習時にのみ, 可能なモデルの大きな探索空間を効率的にパラメータ化するために使用される。 ポイントは (II) 学習したモデルは、前処理された高忠実度データからの事前情報に基づいて計算解法における後部を動的に評価し、その数値のような手元の解法の特異性を考慮する。 最後に (iii)新モデルの探索は、レイノルズ平均あるいは大渦シミュレーション(les)に対する工学的関心の平均値など、事前定義された積分量のみに導かれる。 これらの目的を同時に達成するために,深層強化学習フレームワークと計算解法を併用した。 強化学習と目的の組合せ (i) (ii)および (iii)機械学習に基づく過去のモデリングの試みとを区別する。 本稿では,強化学習を用いたモデル発見フレームワークの高レベルな記述を提案する。 本手法は微分方程式における欠落項の発見の応用について詳述する。 バーガーズ方程式の欠失項を発見する手法の基本的なインスタンス化について述べる。

The motivation of this study is to leverage recent breakthroughs in artificial intelligence research to unlock novel solutions to important scientific problems encountered in computational science. To address the human intelligence limitations in discovering reduced-order models, we propose to supplement human thinking with artificial intelligence. Our three-pronged strategy consists of learning (i) models expressed in analytical form, (ii) which are evaluated a posteriori, and iii) using exclusively integral quantities from the reference solution as prior knowledge. In point (i), we pursue interpretable models expressed symbolically as opposed to black-box neural networks, the latter only being used during learning to efficiently parameterize the large search space of possible models. In point (ii), learned models are dynamically evaluated a posteriori in the computational solver instead of based on a priori information from preprocessed high-fidelity data, thereby accounting for the specificity of the solver at hand such as its numerics. Finally in point (iii), the exploration of new models is solely guided by predefined integral quantities, e.g., averaged quantities of engineering interest in Reynolds-averaged or large-eddy simulations (LES). We use a coupled deep reinforcement learning framework and computational solver to concurrently achieve these objectives. The combination of reinforcement learning with objectives (i), (ii) and (iii) differentiate our work from previous modeling attempts based on machine learning. In this report, we provide a high-level description of the model discovery framework with reinforcement learning. The method is detailed for the application of discovering missing terms in differential equations. An elementary instantiation of the method is described that discovers missing terms in the Burgers' equation.
翻訳日:2023-01-17 07:35:42 公開日:2019-12-29
# 連続制御による強化学習における拡張リプレイメモリ

Augmented Replay Memory in Reinforcement Learning With Continuous Control ( http://arxiv.org/abs/1912.12719v1 )

ライセンス: Link先を確認
Mirza Ramicic, Andrea Bonarini(参考訳) オンライン強化学習エージェントは現在、高次値関数に変換することで、データ量の増大を処理することができる。 この環境から収集された情報の拡張により、エージェントの状態空間が増大し、より複雑な問題にスケールアップできるだけでなく、冗長なデータや矛盾するデータで学習することで忘れるリスクも高まる。 大量のデータの近似を改善するために、リプレイメモリバッファに格納された過去の経験のランダムなミニバッチを各学習ステップで頻繁に再生する。 提案した研究は、人間の脳の高次認知機能の保護層として機能する生物学的メカニズムからインスピレーションを得ており、アクティブメモリの統合は、新しい記憶を動的に処理することで、過去の記憶を忘れることの影響を緩和する。 類似のダイナミクスは、エージェントのメモリ構造からの経験の再生を、それらの関連性を変更したり拡張したりすることで最適化することができる拡張メモリ再生AMRによって実装される。 実験の結果、特定の記憶の重要度を高めることができる進化したamr拡張関数は、連続的な動作領域の複雑さを扱う学習アルゴリズムの安定性と収束速度をさらに高めることができることがわかった。

Online reinforcement learning agents are currently able to process an increasing amount of data by converting it into a higher order value functions. This expansion of the information collected from the environment increases the agent's state space enabling it to scale up to a more complex problems but also increases the risk of forgetting by learning on redundant or conflicting data. To improve the approximation of a large amount of data, a random mini-batch of the past experiences that are stored in the replay memory buffer is often replayed at each learning step. The proposed work takes inspiration from a biological mechanism which act as a protective layer of human brain higher cognitive functions: active memory consolidation mitigates the effect of forgetting of previous memories by dynamically processing the new ones. The similar dynamics are implemented by a proposed augmented memory replay AMR capable of optimizing the replay of the experiences from the agent's memory structure by altering or augmenting their relevance. Experimental results show that an evolved AMR augmentation function capable of increasing the significance of the specific memories is able to further increase the stability and convergence speed of the learning algorithms dealing with the complexity of continuous action domains.
翻訳日:2023-01-17 07:29:15 公開日:2019-12-29
# ディリクレの不確実性ラッパーによるアルゴリズムの精度と監査可能性の検証

Dirichlet uncertainty wrappers for actionable algorithm accuracy accountability and auditability ( http://arxiv.org/abs/1912.12628v1 )

ライセンス: Link先を確認
Jos\'e Mena, Oriol Pujol, Jordi Vitri\`a(参考訳) 現在、機械学習モデルの使用は多くのアプリケーションでユーティリティになっています。 企業は、開発者がサードパーティのコンポーネントと自身のモデルとデータを組み合わせて、特定の問題を解決するための複雑なデータ製品を作成するアプリケーションプログラミングインターフェース(api)としてカプセル化された事前トレーニングされたモデルを提供する。 このような製品の複雑さと各コンポーネントの内部の制御と知識の欠如は、透明性の欠如、監査の難しさ、潜在的な制御不能なリスクの発生といった、避けられない影響を引き起こす。 事実上ブラックボックスである。 このようなソリューションのアカウンタビリティは、監査人や機械学習コミュニティにとって課題である。 本研究では,ブラックボックスモデルが与えられたラッパーを提案し,その出力予測を不確実性の尺度で強化する。 このラッパーを用いることで、ブラックボックスを正確なリスク(低い品質や不確実性によるリスク)について監査可能とし、同時に、そのリスクを決定拒否という形で軽減するための実行可能なメカニズムを提供する。 結果として得られた不確実性尺度に基づき、より自信のある予測を選択し、より不確実性のある予測を破棄し、結果のシステムの信頼性を向上させる拒絶システムを提案する。 本稿では,自然言語処理に基づく感情分析apiを異なるドメインに適用する実践シナリオとして,提案手法と手法を紹介する。 その結果、ラッパーが計算した不確実性の有効性と、品質の悪い予測と誤分類との高い相関が示された。

Nowadays, the use of machine learning models is becoming a utility in many applications. Companies deliver pre-trained models encapsulated as application programming interfaces (APIs) that developers combine with third party components and their own models and data to create complex data products to solve specific problems. The complexity of such products and the lack of control and knowledge of the internals of each component used cause unavoidable effects, such as lack of transparency, difficulty in auditability, and emergence of potential uncontrolled risks. They are effectively black-boxes. Accountability of such solutions is a challenge for the auditors and the machine learning community. In this work, we propose a wrapper that given a black-box model enriches its output prediction with a measure of uncertainty. By using this wrapper, we make the black-box auditable for the accuracy risk (risk derived from low quality or uncertain decisions) and at the same time we provide an actionable mechanism to mitigate that risk in the form of decision rejection; we can choose not to issue a prediction when the risk or uncertainty in that decision is significant. Based on the resulting uncertainty measure, we advocate for a rejection system that selects the more confident predictions, discarding those more uncertain, leading to an improvement in the trustability of the resulting system. We showcase the proposed technique and methodology in a practical scenario where a simulated sentiment analysis API based on natural language processing is applied to different domains. Results demonstrate the effectiveness of the uncertainty computed by the wrapper and its high correlation to bad quality predictions and misclassifications.
翻訳日:2023-01-17 07:28:40 公開日:2019-12-29
# 深層強化学習におけるリアルタイム政策蒸留

Real-time Policy Distillation in Deep Reinforcement Learning ( http://arxiv.org/abs/1912.12630v1 )

ライセンス: Link先を確認
Yuxiang Sun and Pooyan Fazli(参考訳) 深層強化学習における政策蒸留は, 大幅な性能低下を伴わずに, より大きなネットワークからより小さな未学習ネットワークへ制御ポリシを伝達する有効な手段を提供する。 しかし、政策蒸留は深層強化学習において未熟であり、既存のアプローチは計算効率が悪く、長い蒸留時間をもたらす。 また, 蒸留プロセスの有効性はモデル容量に限定されている。 本研究では,教師モデルの訓練と学生モデルへの蒸留を同時に行う,リアルタイム政策蒸留と呼ばれる新しい蒸留機構を提案する。 これにより、教師の最新の方針がリアルタイムで生徒モデルに移行される。 これにより、蒸留時間は元の半分かそれ以上に短縮され、非常に小さな学生モデルでも専門家レベルでスキルを習得することができる。 atari 2600ドメインにおいて提案アルゴリズムを評価した。 その結果,圧縮比が1.7%までであっても,ほとんどのゲームで完全蒸留が可能となった。

Policy distillation in deep reinforcement learning provides an effective way to transfer control policies from a larger network to a smaller untrained network without a significant degradation in performance. However, policy distillation is underexplored in deep reinforcement learning, and existing approaches are computationally inefficient, resulting in a long distillation time. In addition, the effectiveness of the distillation process is still limited to the model capacity. We propose a new distillation mechanism, called real-time policy distillation, in which training the teacher model and distilling the policy to the student model occur simultaneously. Accordingly, the teacher's latest policy is transferred to the student model in real time. This reduces the distillation time to half the original time or even less and also makes it possible for extremely small student models to learn skills at the expert level. We evaluated the proposed algorithm in the Atari 2600 domain. The results show that our approach can achieve full distillation in most games, even with compression ratios up to 1.7%.
翻訳日:2023-01-17 07:28:15 公開日:2019-12-29
# 学習機械から学ぶ:最適化、ルール、社会規範

Learning from Learning Machines: Optimisation, Rules, and Social Norms ( http://arxiv.org/abs/2001.00006v1 )

ライセンス: Link先を確認
Travis LaCroix and Yoshua Bengio(参考訳) 機械学習システムと経済エンティティの間には、どちらも適応性があり、その振る舞いが明示的な方法で指定されている点が類似している。 経済的な実体の行動に最も類似したAIの領域は道徳的に良い意思決定の領域であるように思われるが、AIシステムにおいていかに正確な道徳的行動が達成できるかについては、オープンな疑問である。 本稿では、これらの2つの複雑なシステム間の類似性について検討し、この明らかな類似性についてより明確な理解が、社会経済ドメインとAIドメインの両方において私たちを前進させる可能性があることを示唆する。 この主張が正しければ、最近のAIのディープラーニングの成功は、そのような問題を解決するための明示的な仕様よりも暗黙的な仕様の方が優れていることを示唆している。

There is an analogy between machine learning systems and economic entities in that they are both adaptive, and their behaviour is specified in a more-or-less explicit way. It appears that the area of AI that is most analogous to the behaviour of economic entities is that of morally good decision-making, but it is an open question as to how precisely moral behaviour can be achieved in an AI system. This paper explores the analogy between these two complex systems, and we suggest that a clearer understanding of this apparent analogy may help us forward in both the socio-economic domain and the AI domain: known results in economics may help inform feasible solutions in AI safety, but also known results in AI may inform economic policy. If this claim is correct, then the recent successes of deep learning for AI suggest that more implicit specifications work better than explicit ones for solving such problems.
翻訳日:2023-01-17 07:27:36 公開日:2019-12-29
# 臨床領域における分類付き多関係データの表現を組み込む評価プロトコルとしてのクラスタリング

Clustering as an Evaluation Protocol for Knowledge Embedding Representation of Categorised Multi-relational Data in the Clinical Domain ( http://arxiv.org/abs/2002.09473v1 )

ライセンス: Link先を確認
Jianyu Liu and Hegler Tissot(参考訳) 知識表現の学習は、多くのドメイン固有の機械学習問題に適用できる、ますます重要な技術である。 臨床領域に分類された複数関連データに対して知識表現を埋め込む場合,従来のリンク予測や知識グラフ完成度評価プロトコルの有効性について検討する。 リンク予測は、データをトレーニングと評価サブセットに分割することで、トレーニングに伴う情報の喪失と知識表現モデルの精度の低下につながる。 本稿では,従来の評価タスクの代替としてクラスタリング評価プロトコルを提案する。 臨床データセットで評価した知識埋め込みアプローチで学習した埋め込みモデルを用いた。 Pearson と Spearman の相関による実験結果から,提案手法がリンク予測の置き換えに有効であることが示唆された。

Learning knowledge representation is an increasingly important technology applicable in many domain-specific machine learning problems. We discuss the effectiveness of traditional Link Prediction or Knowledge Graph Completion evaluation protocol when embedding knowledge representation for categorised multi-relational data in the clinical domain. Link prediction uses to split the data into training and evaluation subsets, leading to loss of information along training and harming the knowledge representation model accuracy. We propose a Clustering Evaluation Protocol as a replacement alternative to the traditionally used evaluation tasks. We used embedding models trained by a knowledge embedding approach which has been evaluated with clinical datasets. Experimental results with Pearson and Spearman correlations show strong evidence that the novel proposed evaluation protocol is pottentially able to replace link prediction.
翻訳日:2023-01-17 07:27:20 公開日:2019-12-29
# 空間的・視覚的接続のための深層学習サロゲートモデル

Deep learning surrogate models for spatial and visual connectivity ( http://arxiv.org/abs/1912.12616v1 )

ライセンス: Link先を確認
Sherif Tarabishy, Stamatios Psarras, Marcin Kosicki, Martha Tsigkari(参考訳) 空間的および視覚的接続は、職場レイアウトを開発する上で重要な指標である。 これらのメトリクスをリアルタイムで計算することは、分析対象のフロアプランのサイズと分析の解像度によって困難である。 本稿では,空間の空間的および視覚的接続性を識別できるモデルを作成するために機械学習を用いて,そのような計算集約シミュレーションの結果を大幅に高速化する可能性を検討する。 そのために、分散計算パイプラインを通した空間的および視覚的接続分析エンジンの導入から、トレーニングデータを合成し、異なるニューラルネットワークの性能を評価するプロセスに至るまで、さまざまな機械学習モデルとそのようなタスクでそれらを訓練するパイプラインを概説する。

Spatial and visual connectivity are important metrics when developing workplace layouts. Calculating those metrics in real-time can be difficult, depending on the size of the floor plan being analysed and the resolution of the analyses. This paper investigates the possibility of considerably speeding up the outcomes of such computationally intensive simulations by using machine learning to create models capable of identifying the spatial and visual connectivity potential of a space. To that end we present the entire process of investigating different machine learning models and a pipeline for training them on such task, from the incorporation of a bespoke spatial and visual connectivity analysis engine through a distributed computation pipeline, to the process of synthesizing training data and evaluating the performance of different neural networks.
翻訳日:2023-01-17 07:26:59 公開日:2019-12-29