このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200115となっている論文です。

PDF登録状況(公開日: 20200115)

TitleAuthorsAbstract論文公表日・翻訳日
# All-in-one Image-Grounded Conversational Agent

All-in-One Image-Grounded Conversational Agents ( http://arxiv.org/abs/1912.12394v2 )

ライセンス: Link先を確認
Da Ju, Kurt Shuster, Y-Lan Boureau, Jason Weston(参考訳) 個々の言語とイメージタスクに対するシングルタスクの精度はここ数年で大幅に向上しているため、一般的に熟練したエージェントの長期的な目標は探究しやすくなっている。 本研究は、視覚と言語の両方をその目的に組み込んだリソースとともに、個々の言語とイメージタスクの活用に焦点を当てる。 我々は,最新のトランスフォーマーとResNeXtモジュールを組み合わせたアーキテクチャを設計し,多くのタスクで訓練された複合モデルを生成する。 モデルのコンポーネントを徹底的に分析し、あるタスク、あるタスク、またはすべてのタスクでトレーニングを行う際の性能を伝達する。 最終的なモデルは、すべての視覚および言語タスクで良好な結果を得る単一のシステムを提供し、画像接頭辞会話アプリケーションの最先端を改善します。

As single-task accuracy on individual language and image tasks has improved substantially in the last few years, the long-term goal of a generally skilled agent that can both see and talk becomes more feasible to explore. In this work, we focus on leveraging individual language and image tasks, along with resources that incorporate both vision and language towards that objective. We design an architecture that combines state-of-the-art Transformer and ResNeXt modules fed into a novel attentive multimodal module to produce a combined model trained on many tasks. We provide a thorough analysis of the components of the model, and transfer performance when training on one, some, or all of the tasks. Our final models provide a single system that obtains good results on all vision and language tasks considered, and improves the state-of-the-art in image-grounded conversational applications.
翻訳日:2023-01-17 12:37:11 公開日:2020-01-15
# nas-bench-201:再現可能なニューラルネットワーク探索の範囲の拡張

NAS-Bench-201: Extending the Scope of Reproducible Neural Architecture Search ( http://arxiv.org/abs/2001.00326v2 )

ライセンス: Link先を確認
Xuanyi Dong and Yi Yang(参考訳) neural architecture search (nas)はここ数年、多くのアプリケーションで画期的な成功を収めてきた。 一歩戻り、NASの分野における良い面と悪い面を分析する時が来たかもしれない。 異なる検索空間下での様々なアルゴリズム検索アーキテクチャ。 これらの検索アーキテクチャは、ハイパーパラメータ、データ拡張、正規化など、さまざまな設定でトレーニングされている。 これは様々なnasアルゴリズムの性能を比較する際に比較可能性の問題を引き起こす。 NAS-Bench-101はこの問題を緩和することに成功した。 本研究では,NAS-Bench-101:NAS-Bench-201の拡張を提案する。 NAS-Bench-201は固定探索空間を持ち、最新のNASアルゴリズムのほとんどすべてに統一されたベンチマークを提供する。 検索空間の設計は、セルをDAGとして表現する最も一般的なセルベース検索アルゴリズムで使用されるものから着想を得ている。 ここでの各エッジは、予め定義された操作セットから選択された操作に関連付けられる。 すべてのNASアルゴリズムに適用するために、NAS-Bench-201で定義された検索空間は、4つのノードと5つの関連する演算オプションによって生成される全ての可能なアーキテクチャを含み、結果として合計15,625の候補が得られる。 3つのデータセットに対して、トレーニングログと各アーキテクチャ候補のパフォーマンスを提供する。 これにより、研究者は選択した候補に対する不要な反復訓練を回避し、検索アルゴリズム自体に集中することができる。 各候補者の訓練時間は、多くの方法の効率を大幅に改善する。 我々は,nasアルゴリズムの新しい設計にインスピレーションを与えうる細粒度損失や精度などの追加診断情報を提供する。 さらに多くの側面から分析を行い、最近のNASアルゴリズム10をベンチマークした。

Neural architecture search (NAS) has achieved breakthrough success in a great number of applications in the past few years. It could be time to take a step back and analyze the good and bad aspects in the field of NAS. A variety of algorithms search architectures under different search space. These searched architectures are trained using different setups, e.g., hyper-parameters, data augmentation, regularization. This raises a comparability problem when comparing the performance of various NAS algorithms. NAS-Bench-101 has shown success to alleviate this problem. In this work, we propose an extension to NAS-Bench-101: NAS-Bench-201 with a different search space, results on multiple datasets, and more diagnostic information. NAS-Bench-201 has a fixed search space and provides a unified benchmark for almost any up-to-date NAS algorithms. The design of our search space is inspired from the one used in the most popular cell-based searching algorithms, where a cell is represented as a DAG. Each edge here is associated with an operation selected from a predefined operation set. For it to be applicable for all NAS algorithms, the search space defined in NAS-Bench-201 includes all possible architectures generated by 4 nodes and 5 associated operation options, which results in 15,625 candidates in total. The training log and the performance for each architecture candidate are provided for three datasets. This allows researchers to avoid unnecessary repetitive training for selected candidate and focus solely on the search algorithm itself. The training time saved for every candidate also largely improves the efficiency of many methods. We provide additional diagnostic information such as fine-grained loss and accuracy, which can give inspirations to new designs of NAS algorithms. In further support, we have analyzed it from many aspects and benchmarked 10 recent NAS algorithms.
翻訳日:2023-01-16 04:11:14 公開日:2020-01-15
# ゲイフマンモデルの非パラメトリック学習

Non-Parametric Learning of Gaifman Models ( http://arxiv.org/abs/2001.00528v2 )

ライセンス: Link先を確認
Devendra Singh Dhami, Siwen Yan, Gautam Kunapuli, Sriraam Natarajan(参考訳) 我々は、gaifmanモデルの構造学習の問題を検討し、知識ベースから特徴表現を導出するために使用できる関係的特徴を学習する。 これらの関係的特徴は一階法則であり、その特徴表現を得るためにゲイフマンモデルの局所的近傍に部分的に接して数えられる。 本稿では,関係木距離を用いたgaifmanモデルにおける関係特徴の学習手法を提案する。 実データ集合に対する経験的評価は、古典的ルール学習よりも、我々のアプローチが優れていることを示している。

We consider the problem of structure learning for Gaifman models and learn relational features that can be used to derive feature representations from a knowledge base. These relational features are first-order rules that are then partially grounded and counted over local neighborhoods of a Gaifman model to obtain the feature representations. We propose a method for learning these relational features for a Gaifman model by using relational tree distances. Our empirical evaluation on real data sets demonstrates the superiority of our approach over classical rule-learning.
翻訳日:2023-01-16 03:55:10 公開日:2020-01-15
# 高速交換軌道の時空間予測のための爆発型イベントカメラ

Exploiting Event Cameras for Spatio-Temporal Prediction of Fast-Changing Trajectories ( http://arxiv.org/abs/2001.01248v2 )

ライセンス: Link先を確認
Marco Monforte, Ander Arriandiaga, Arren Glover and Chiara Bartolozzi(参考訳) 本稿では,ロボットの軌道予測について検討し,バウンスボールをキャッチするなどの移動目標との相互作用を改善する。 予測不能で非線形な軌道は回帰に基づく適応法では容易には予測できないため、特に長短項記憶(LSTM)アーキテクチャに基づく機械学習の状態を応用する。 さらに、高速移動ターゲットは、従来のカメラのように時間間隔が一定ではなく、空間変化によって引き起こされる非同期出力を生成するイベントカメラにより、よりよく認識される。 イベントカメラデータに適用可能なLSTMモデルについて検討し,特に非同期サンプリングデータの有用性について検討する。

This paper investigates trajectory prediction for robotics, to improve the interaction of robots with moving targets, such as catching a bouncing ball. Unexpected, highly-non-linear trajectories cannot easily be predicted with regression-based fitting procedures, therefore we apply state of the art machine learning, specifically based on Long-Short Term Memory (LSTM) architectures. In addition, fast moving targets are better sensed using event cameras, which produce an asynchronous output triggered by spatial change, rather than at fixed temporal intervals as with traditional cameras. We investigate how LSTM models can be adapted for event camera data, and in particular look at the benefit of using asynchronously sampled data.
翻訳日:2023-01-14 07:41:12 公開日:2020-01-15
# 理論 in, Theory Out: 社会科学のための機械学習における社会理論の利用

Theory In, Theory Out: The uses of social theory in machine learning for social science ( http://arxiv.org/abs/2001.03203v3 )

ライセンス: Link先を確認
Jason Radford and Kenneth Joseph(参考訳) 機械学習と社会科学の交差点における研究は、社会行動に関する重要な新しい洞察をもたらした。 同時に、使用されるデータや特徴に関する技術的な問題、モデルに構築された問題的な仮定、解釈可能性の制限、バイアスや不平等への貢献など、さまざまな批判が提起されている。 このような問題は、モデル構築と分析の様々な段階における社会理論の欠如が主な原因であると主張する。 本論文の前半では,機械学習パイプラインの各段階で生じる基本的な方法論的および解釈的疑問に,社会理論を用いて答える方法について述べる。 後半では,モデルのフェアネスを解釈,一般化,評価するなど,様々な社会学習モデルの質を評価・比較するために理論をどのように利用できるかを示す。 本論文は,機械学習のツールをソーシャルデータに適用する際の現実的な疑問を,コンピュータや社会科学者のガイドとして扱うことができると考えている。

Research at the intersection of machine learning and the social sciences has provided critical new insights into social behavior. At the same time, a variety of critiques have been raised ranging from technical issues with the data used and features constructed, problematic assumptions built into models, their limited interpretability, and their contribution to bias and inequality. We argue such issues arise primarily because of the lack of social theory at various stages of the model building and analysis. In the first half of this paper, we walk through how social theory can be used to answer the basic methodological and interpretive questions that arise at each stage of the machine learning pipeline. In the second half, we show how theory can be used to assess and compare the quality of different social learning models, including interpreting, generalizing, and assessing the fairness of models. We believe this paper can act as a guide for computer and social scientists alike to navigate the substantive questions involved in applying the tools of machine learning to social data.
翻訳日:2023-01-13 05:24:15 公開日:2020-01-15
# supaid:艦隊管理システムにおける監督者自動ロールアウト決定支援のためのルールマイニング方式

SUPAID: A Rule mining based method for automatic rollout decision aid for supervisors in fleet management systems ( http://arxiv.org/abs/2001.03386v2 )

ライセンス: Link先を確認
Sahil Manchanda, Arun Rajkumar, Simarjot Kaur, Narayanan Unny(参考訳) 車両のロールアウトの決定は、間違った判断は、旅行中のメンテナンスと障害のコストを増加させる可能性があるため、車両管理会社にとって重要である。 大量のデータの提供と機械学習技術の進歩により、監督者のロールアウト決定を効果的に自動化し、監督者が学習した判断の誤りを解消することができる。 本稿では,ルールマイニング手法を用いて車両のロールアウト実現可能性に基づいて車両のランク付けを行い,監督者が誤った判断をしないようにするための学習アルゴリズムを提案する。 米国市内の公共交通機関による実データによる実験結果から,SuPAIDの提案手法がコスト削減に寄与する可能性が示唆された。

The decision to rollout a vehicle is critical to fleet management companies as wrong decisions can lead to additional cost of maintenance and failures during journey. With the availability of large amount of data and advancement of machine learning techniques, the rollout decisions of a supervisor can be effectively automated and the mistakes in decisions made by the supervisor learnt. In this paper, we propose a novel learning algorithm SUPAID which under a natural 'one-way efficiency' assumption on the supervisor, uses a rule mining approach to rank the vehicles based on their roll-out feasibility thus helping prevent the supervisor from makingerroneous decisions. Our experimental results on real data from a public transit agency from a city in U.S show that the proposed method SUPAID can result in significant cost savings.
翻訳日:2023-01-12 22:37:44 公開日:2020-01-15
# 深層学習に基づくベイズ法地震イメージングと不確かさ定量化

A deep-learning based Bayesian approach to seismic imaging and uncertainty quantification ( http://arxiv.org/abs/2001.04567v2 )

ライセンス: Link先を確認
Ali Siahkoohi, Gabrio Rizzuti, and Felix J. Herrmann(参考訳) 不確かさの定量化は、解の固有の不合理性のため、不条件逆問題を扱う際に不可欠である。 ベイズ的アプローチは、後方分布を定式化することによって、未知のパラメータの推測の可能性を決定することができる。 残念ながら、未知の知識を正確に符号化する事前分布を定式化することはしばしば不可能である。 さらに、手作りの優先事項への順守は、ベイズ分析の結果に大きく偏る可能性がある。 そこで本研究では,ランダムに初期化された畳み込みニューラルネットワークの機能形式を,自然画像の促進と不自然なノイズを伴う画像の排除を目的とした暗黙の構造化前処理として用いることを提案する。 モデルの不確かさを最終推定値に組み込むため,確率勾配ランゲヴィンダイナミクスを用いて後部分布をサンプリングし,得られたサンプルに対してベイズモデル平均化を行う。 合成数値実験により,ベイズモデル平均化と組み合わせることで,画像アーティファクトの一部を部分的に回避し,過度なノイズの存在下で過度に適合するリスクを低減できることを確認した。 最後に,不確かさの尺度として推定値の点的ばらつきを示し,画像化が難しい領域と一致させる。

Uncertainty quantification is essential when dealing with ill-conditioned inverse problems due to the inherent nonuniqueness of the solution. Bayesian approaches allow us to determine how likely an estimation of the unknown parameters is via formulating the posterior distribution. Unfortunately, it is often not possible to formulate a prior distribution that precisely encodes our prior knowledge about the unknown. Furthermore, adherence to handcrafted priors may greatly bias the outcome of the Bayesian analysis. To address this issue, we propose to use the functional form of a randomly initialized convolutional neural network as an implicit structured prior, which is shown to promote natural images and excludes images with unnatural noise. In order to incorporate the model uncertainty into the final estimate, we sample the posterior distribution using stochastic gradient Langevin dynamics and perform Bayesian model averaging on the obtained samples. Our synthetic numerical experiment verifies that deep priors combined with Bayesian model averaging are able to partially circumvent imaging artifacts and reduce the risk of overfitting in the presence of extreme noise. Finally, we present pointwise variance of the estimates as a measure of uncertainty, which coincides with regions that are more difficult to image.
翻訳日:2023-01-11 22:58:11 公開日:2020-01-15
# 技術システムにおける知識表現 -分類学

Knowledge Representations in Technical Systems -- A Taxonomy ( http://arxiv.org/abs/2001.04835v2 )

ライセンス: Link先を確認
Kristina Scharei, Florian Heidecker, Maarten Bieshaar(参考訳) 近年の人間中心の環境における技術システムの使用は、例えばロボット、人間の望むタスクを理解し、学習し、実行するための技術システムをどのように教えるかという問題に繋がる。 したがって、システムが期待通りに機能するためには、知識の正確な表現が不可欠である。 本稿では,様々な知識表現技術と,人工知能の様々な問題領域への分類について考察する。 さらに、提示された知識表現の応用は、日常ロボットタスクに導入される。 提供された分類学により、特定の問題に関する適切な知識表現手法の探索が促進される。

The recent usage of technical systems in human-centric environments leads to the question, how to teach technical systems, e.g., robots, to understand, learn, and perform tasks desired by the human. Therefore, an accurate representation of knowledge is essential for the system to work as expected. This article mainly gives insight into different knowledge representation techniques and their categorization into various problem domains in artificial intelligence. Additionally, applications of presented knowledge representations are introduced in everyday robotics tasks. By means of the provided taxonomy, the search for a proper knowledge representation technique regarding a specific problem should be facilitated.
翻訳日:2023-01-11 11:47:46 公開日:2020-01-15
# 符号問題の存在下での熱平均の量子計算

Quantum computation of thermal averages in the presence of a sign problem ( http://arxiv.org/abs/2001.05328v1 )

ライセンス: Link先を確認
Giuseppe Clemente, Marco Cardinali, Claudio Bonati, Enrico Calore, Leonardo Cosmai, Massimo D'Elia, Alessandro Gabbana, Davide Rossini, Fabio Sebastiano Schifano, Raffaele Tripiccione and Davide Vadacchino(参考訳) 本稿では, 量子コンピューティング技術を用いて, フラストレーションを伴った3つの量子スピンと, 古典的な計算手法で扱う場合のハードサイン問題の影響を, 簡単な系の熱力学特性の研究に適用する。 量子アルゴリズムがいかにしてこの問題を完全に解決するかを示し、より複雑な物理的関心のシステムにどのように適用できるかを、可能な体系とそれらの制御に重点を置いて論じる。

We illustrate the application of Quantum Computing techniques to the investigation of the thermodynamical properties of a simple system, made up of three quantum spins with frustrated pair interactions and affected by a hard sign problem when treated within classical computational schemes. We show how quantum algorithms completely solve the problem, and discuss how this can apply to more complex systems of physical interest, with emphasis on the possible systematics and on their control.
翻訳日:2023-01-11 07:33:29 公開日:2020-01-15
# 二次元共形場理論における量子クエンチ後の相関測度と絡み合いウェッジ断面積

Correlation measures and the entanglement wedge cross-section after quantum quenches in two-dimensional conformal field theories ( http://arxiv.org/abs/2001.05501v1 )

ライセンス: Link先を確認
Jonah Kudler-Flam, Yuya Kusuki, Shinsei Ryu(参考訳) 本研究では, 2次元等角場理論における混合状態相関測度の時間発展を, 様々な量子クエンチの後に, 対数ネガティビティ, 奇数エントロピー, 反射エントロピーなどの2次元共形場理論で考える。 これらの相関測度は、ホログラフィックの文脈では、全てエンタングルメントウェッジ断面積と関連している。 我々は、有理および不合理(純粋)共形場理論の両方を含む共形場理論の様々なクラスを対比する。 第一に、準粒子像によってダイナミクスをよく説明できる有理共形場理論に対して、特定のクエンチプロトコルによらず、不連続区間の4つの量は全て比例する。 第2に, ライトコーンブートストラップを用いて, 非有理共形場理論に結果を一般化し, 準粒子結果と鋭い区別を見出し, 相互情報と他の測度との差を生じさせる。 相互情報に対する対数ネガティリティの大量過剰は、相互情報と対数ネガティティリティが真に何を測るかを再考させます。 これらの結果は、不合理理論における情報スクランブルとカオスのシグネチャとして解釈する。 これらのCFT結果は、重力(ホログラフィック)の計算に完全に一致する。 さらに,ホログラフィを用いて,光円錐限界の外側に結果を一般化することができる。 最後に、不合理理論の準粒子像の分解により、ランダムなユニタリ回路を動機とする「直線張力像」を現象学的記述としてアピールする。 カルディの公式によって決定される局所ヒルベルト空間次元を持つランダムユニタリ回路は、不合理(ホログラフィックを含む)共形場理論と正確に同じ絡み合いダイナミクスを持つ。

We consider the time evolution of mixed state correlation measures in two-dimensional conformal field theories, such as logarithmic negativity, odd entropy, and reflected entropy, after quantum quenches of various kinds. These correlation measures, in the holographic context, are all associated to the entanglement wedge cross section. We contrast various classes of conformal field theories, both rational and irrational (pure) conformal field theories. First, for rational conformal field theories, whose dynamics can be well described by the quasi-particle picture, we find all four quantities for disjoint intervals to be proportional, regardless of the specific quench protocol. Second, using the light cone bootstrap, we generalize our results to irrational conformal field theories where we find sharp distinctions from the quasi-particle results and striking differences between mutual information and the other measures. The large surplus of logarithmic negativity relative to mutual information forces us to reconsider what mutual information and logarithmic negativity really measure. We interpret these results as a signature of information scrambling and chaos in irrational theories. These CFT results perfectly agree with our gravitational (holographic) calculations. Furthermore, using holography, we are able to generalize the results to outside of the light cone limit. Finally, due to the breakdown of the quasi-particle picture for irrational theories, we appeal to the "line-tension picture," motivated by random unitary circuits, as a phenomenological description. We observe that random unitary circuits, with local Hilbert space dimension determined by the Cardy formula, have precisely the same entanglement dynamics as irrational (including holographic) conformal field theories.
翻訳日:2023-01-11 07:33:03 公開日:2020-01-15
# 反強磁性モット絶縁体におけるARPESスペクトルのパート理論

Parton theory of ARPES spectra in anti-ferromagnetic Mott insulators ( http://arxiv.org/abs/2001.05509v1 )

ライセンス: Link先を確認
Annabelle Bohrdt, Eugene Demler, Frank Pollmann, Michael Knap, Fabian Grusdt(参考訳) 角度分解光電子分光法 (ARPES) により, 相関反強磁性体 (AFMs) における移動体ドーパントの特異な性質が明らかになった。 しかし、理論上は、シンプルなおもちゃのモデルでも、その説明は難しいままだ。 本稿では, 1つのモバイルホールの ARPES スペクトルを$t-J$ モデルで検討する。 近年の移動体ドーパントの微視的記述の進歩により、強い結合におけるスピンと電荷のゆらぎの幾何学的分離が実現され、そこから1対1のスペクトル関数とemph{undoped}親AFMを構成するスピノンのスペクトルとの1対1の関係が推測される。 我々はこの仮説を2次元ハイゼンベルクafmにドープした単一ホールに対して、これまでの量子モンテカルロ計算結果と、スペクトル関数の大規模時間依存行列積状態(td-mps)計算を比較して徹底的に検証した。 我々の結論は、準粒子残基の運動量と$t/J$依存を捕捉するスピノン-カルゴン結合状態を記述する顕微鏡実験によって支持される。 我々の予想は、カップレートの擬ギャップ位相におけるARPES測定は、構成するスピノンのディラックフェルミオンの性質を直接明らかにすることができることを示唆している。 特に,我々の実験波動関数は,Fermi弧の形成に伴う結節点付近のスペクトルの突然の減少を顕微鏡的に説明し,さらなるフラストレーションが長距離AFMの秩序を抑制することを仮定する。 2次元から1次元までのクロスオーバーについて、スピノンとチャーゴンがそれぞれ閉じ込められ、分解される様子を調べた。

Angle-resolved photoemission spectroscopy (ARPES) has revealed peculiar properties of mobile dopants in correlated anti-ferromagnets (AFMs). But describing them theoretically, even in simplified toy models, remains a challenge. Here we study ARPES spectra of a single mobile hole in the $t-J$ model. Recent progress in the microscopic description of mobile dopants allows us to use a geometric decoupling of spin and charge fluctuations at strong couplings, from which we conjecture a one-to-one relation of the one-dopant spectral function and the spectrum of a constituting spinon in the \emph{undoped} parent AFM. We thoroughly test this hypothesis for a single hole doped into a 2D Heisenberg AFM by comparing our semi-analytical predictions to previous quantum Monte Carlo results and our large-scale time-dependent matrix product state (td-MPS) calculations of the spectral function. Our conclusion is supported by a microscopic trial wavefuntion describing spinon-chargon bound states, which captures the momentum and $t/J$ dependence of the quasiparticle residue. Our conjecture suggests that ARPES measurements in the pseudogap phase of cuprates can directly reveal the Dirac-fermion nature of the constituting spinons. Specifically, we demonstrate that our trial wavefunction provides a microscopic explanation for the sudden drop of spectral weight around the nodal point associated with the formation of Fermi arcs, assuming that additional frustration suppresses long-range AFM ordering. We benchmark our results by studying the cross-over from two to one dimension, where spinons and chargons are confined and deconfined respectively.
翻訳日:2023-01-11 07:32:33 公開日:2020-01-15
# 冷たく乱れたライドバーグ気体の3段階速度方程式

Three-level rate equations in cold, disordered Rydberg gases ( http://arxiv.org/abs/2001.05579v1 )

ライセンス: Link先を確認
R. V. Skannrup, T. van Weerden, Y. van der Werf, T. Johri, E. J. D. Vredenbregt, and S. J. J. M. F. Kokkelmans(参考訳) 我々は, 中間状態を排除せずに, 2光子リドベルク励起の速度方程式を用いて, 超低温の気体から励起されるリドベルク原子の構造について検討した。 我々は、これらの速度方程式の有効性範囲を調査し、このモデルが所定のレーザーパラメータのセットに適用できるかどうかを判断するための簡単な尺度を定義した。 我々はこれらの速度方程式をモンテカルロの超低温気体の異なるレーザービームプロファイルに応用し、これらのシミュレーションを実験観測と比較し、一般的な一致を見いだした。

We have investigated formation of structures of Rydberg atoms excited from a disordered gas of ultracold atoms, using rate equations for two-photon Rydberg excitation in a single atom without eliminating the intermediate state. We have explored the validity range of these rate equations and defined a simple measure to determine, whether our model is applicable for a given set of laser parameters. We have applied these rate equations in Monte Carlo simulations of ultracold gases, for different laser beam profiles, and compared these simulations to experimental observations and find a general agreement.
翻訳日:2023-01-11 07:32:02 公開日:2020-01-15
# ブリルアンレーザー光原子時計

A Brillouin Laser Optical Atomic Clock ( http://arxiv.org/abs/2001.06429v1 )

ライセンス: Link先を確認
William Loh, Jules Stuart, David Reens, Colin D. Bruzewicz, Danielle Braje, John Chiaverini, Paul W. Juodawlkis, Jeremy M. Sage, and Robert McConnell(参考訳) 過去10年間で、光原子時計は電子レンジを上回っており、現在2桁以上の精度で時間を測定することができるようになっている。 この性能向上は、地球の測地測定、暗黒物質の探索、基本的な物理定数の長期的変動の可能性の調査など、新しい科学を可能にするだけでなく、地球測位システム(GPS)のような既存の技術に革命をもたらす上でも有益である。 残る重要な課題は、これらの光時計を非調光環境に移行させることであり、これは原子基準とクロックレーザーのラジエーションと小型化と、それらの支援レーザーとエレクトロニクスを必要とする。 ここでは、小型励起ブリルアン散乱(sbs)レーザーを用いて^8$$^8$sr$^+$イオンを尋問し、可搬型光原子時計アーキテクチャの有望成分を実証する。 本研究では,SBSレーザーの安定性をクロック動作に適したレベルに引き上げるために,レーザの温度変動を170ドルnK以内で補償する自己参照技術を用いた。 我々のSBS光クロックは、最先端のマイクロ波クロックよりも大幅に改善された3.9 \times 10^{-14}$1$sの短期安定性を実現する。 この技術に基づいて、ポータブルSBSクロックを用いた将来のGPSは、100倍の解像度で距離測定を行うことができる。

Over the last decade, optical atomic clocks have surpassed their microwave counterparts and now offer the ability to measure time with an increase in precision of two orders of magnitude or more. This performance increase is compelling not only for enabling new science, such as geodetic measurements of the earth, searches for dark matter, and investigations into possible long-term variations of fundamental physics constants but also for revolutionizing existing technology, such as the global positioning system (GPS). A significant remaining challenge is to transition these optical clocks to non-laboratory environments, which requires the ruggedization and miniaturization of the atomic reference and clock laser along with their supporting lasers and electronics. Here, using a compact stimulated Brillouin scattering (SBS) laser to interrogate a $^8$$^8$Sr$^+$ ion, we demonstrate a promising component of a portable optical atomic clock architecture. In order to bring the stability of the SBS laser to a level suitable for clock operation, we utilize a self-referencing technique to compensate for temperature drift of the laser to within $170$ nK. Our SBS optical clock achieves a short-term stability of $3.9 \times 10^{-14}$ at $1$ s---an order of magnitude improvement over state-of-the-art microwave clocks. Based on this technology, a future GPS employing portable SBS clocks offers the potential for distance measurements with a 100-fold increase in resolution.
翻訳日:2023-01-11 07:31:51 公開日:2020-01-15
# MIRチュートリアルのための深層学習

Deep Learning for MIR Tutorial ( http://arxiv.org/abs/2001.05266v1 )

ライセンス: Link先を確認
Alexander Schindler, Thomas Lidy, Sebastian B\"ock(参考訳) ディープラーニングは視覚コンピューティングの最先端技術となり、音楽情報検索(MIR)と音声検索ドメインに継続的に登場している。 この話題に注意を向けるために,本論文では,深層学習に関する入門チュートリアルを提案する。 ニューラルネットワークの一般的な導入に加えて、提案されたチュートリアルは、幅広いMIR関連ディープラーニングアプローチをカバーしている。 \textbf{convolutional neural networks}は現在、ディープラーニングベースのオーディオ検索のデファクトスタンダードである。 \textbf{Recurrent Neural Networks}は、ビートやオーディオイベント検出などのオンセット検出タスクに有効であることが証明されている。 音楽類似性検索に特有な音声表現と距離関数の学習には, <textbf{Siamese Networks} が有効であることが示されている。 チュートリアルには学術的視点と産業的視点の両方を取り入れます。 チュートリアルに合わせて、チュートリアルで提示されたコンテンツのgithubリポジトリを作成し、さらに読むために、最先端のアートワークや文学への参照も作成します。 このリポジトリはカンファレンスの後に公開される。

Deep Learning has become state of the art in visual computing and continuously emerges into the Music Information Retrieval (MIR) and audio retrieval domain. In order to bring attention to this topic we propose an introductory tutorial on deep learning for MIR. Besides a general introduction to neural networks, the proposed tutorial covers a wide range of MIR relevant deep learning approaches. \textbf{Convolutional Neural Networks} are currently a de-facto standard for deep learning based audio retrieval. \textbf{Recurrent Neural Networks} have proven to be effective in onset detection tasks such as beat or audio-event detection. \textbf{Siamese Networks} have been shown effective in learning audio representations and distance functions specific for music similarity retrieval. We will incorporate both academic and industrial points of view into the tutorial. Accompanying the tutorial, we will create a Github repository for the content presented at the tutorial as well as references to state of the art work and literature for further reading. This repository will remain public after the conference.
翻訳日:2023-01-11 07:27:38 公開日:2020-01-15
# モデル駆動ビームフォーミングニューラルネットワーク

Model-Driven Beamforming Neural Networks ( http://arxiv.org/abs/2001.05277v1 )

ライセンス: Link先を確認
Wenchao Xia, Gan Zheng, Kai-Kit Wong, and Hongbo Zhu(参考訳) ビームフォーミングは、近年のモバイル通信ネットワークの中核技術であることは明らかである。 それでも、パラメータの最適化には反復的なプロセスが通常必要であり、複雑さと計算遅延のため、リアルタイム実装では不適当である。 ゼロ強制(ZF)のようなヒューリスティックなソリューションは単純だが、性能損失を犠牲にしている。 あるいは、ディープラーニング(dl)は、十分に訓練された場合、より低い複雑さで、幅広いアプリケーションに対して有望な結果を提供できる一般化技術であるとよく理解されている。 その結果、dlは自身をビームフォーミングの魅力的な解決策として提示することができる。 本稿では、DLを活用するために、汎用データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を導入し、様々な学習戦略を提示し、DLベースのBNNの複雑性低減についても論じる。 また,BNNの汎用性を向上させるため,BNNソリューションの性能を示すコンピュータシミュレーション結果やテストベッド結果とともに,トレーニングセットの強化や伝達学習などの拡張手法も提供する。

Beamforming is evidently a core technology in recent generations of mobile communication networks. Nevertheless, an iterative process is typically required to optimize the parameters, making it ill-placed for real-time implementation due to high complexity and computational delay. Heuristic solutions such as zero-forcing (ZF) are simpler but at the expense of performance loss. Alternatively, deep learning (DL) is well understood to be a generalizing technique that can deliver promising results for a wide range of applications at much lower complexity if it is sufficiently trained. As a consequence, DL may present itself as an attractive solution to beamforming. To exploit DL, this article introduces general data- and model-driven beamforming neural networks (BNNs), presents various possible learning strategies, and also discusses complexity reduction for the DL-based BNNs. We also offer enhancement methods such as training-set augmentation and transfer learning in order to improve the generality of BNNs, accompanied by computer simulation results and testbed results showing the performance of such BNN solutions.
翻訳日:2023-01-11 07:27:22 公開日:2020-01-15
# ネットワークにおけるタイヤ強度予測のためのジェネリック学習モデルNEW

NEW: A Generic Learning Model for Tie Strength Prediction in Networks ( http://arxiv.org/abs/2001.05283v1 )

ライセンス: Link先を確認
Zhen Liu, Hu li, Chao Wang(参考訳) 結合強度予測は時として重み予測と呼ばれ、ネットワークに出現する接続パターンの多様性を探求する上で不可欠である。 基本的重要性から、ネットワーク分析と鉱業の分野で多くの注目を集めている。 近年発表されたいくつかの関連研究は、ソーシャルネットワークの強みと弱みをいかに予測するかについての理解を著しく前進させた。 しかし,提案手法の多くは,特定の文脈に大きく依存するシナリオ認識手法であり,ソーシャルネットワークでのみ使用される。 その結果、それらは様々な種類のネットワークに適用できない。 本稿では,従来の研究とは対照的に,ネットワークの基本構造情報に純粋に駆動され,多様な種類のネットワークに適応するための柔軟性を有する近傍推定重み(new)と呼ばれる新しい計算フレームワークを提案する。 新たな指標,すなわち接続傾斜(connection inclination)をデザインし,結合強度の実際の分布を捉えることができるネットワークの代表的な特徴を生成する。 また,最適化された予測結果を得るために,線形時間複雑性をほぼ有するパラメータ化回帰モデルを提案し,大規模ネットワークの実装に容易に拡張できることを示す。 実世界の6つのネットワークにおける実験結果から,提案した予測モデルは,ネットワークの張力情報の一部しか利用できない場合に,欠落する張力を予測するのに強力な技術手法の状態を上回り,その性能を実証した。

Tie strength prediction, sometimes named weight prediction, is vital in exploring the diversity of connectivity pattern emerged in networks. Due to the fundamental significance, it has drawn much attention in the field of network analysis and mining. Some related works appeared in recent years have significantly advanced our understanding of how to predict the strong and weak ties in the social networks. However, most of the proposed approaches are scenario-aware methods heavily depending on some special contexts and even exclusively used in social networks. As a result, they are less applicable to various kinds of networks. In contrast to the prior studies, here we propose a new computational framework called Neighborhood Estimating Weight (NEW) which is purely driven by the basic structure information of the network and has the flexibility for adapting to diverse types of networks. In NEW, we design a novel index, i.e., connection inclination, to generate the representative features of the network, which is capable of capturing the actual distribution of the tie strength. In order to obtain the optimized prediction results, we also propose a parameterized regression model which approximately has a linear time complexity and thus is readily extended to the implementation in large-scale networks. The experimental results on six real-world networks demonstrate that our proposed predictive model outperforms the state of the art methods, which is powerful for predicting the missing tie strengths when only a part of the network's tie strength information is available.
翻訳日:2023-01-11 07:27:05 公開日:2020-01-15
# 冷間原子三重項の衝突ダイナミクスの直接測定

Direct Measurements of Collisional Dynamics in Cold Atom Triads ( http://arxiv.org/abs/2001.05141v1 )

ライセンス: Link先を確認
L. A. Reynolds, E. Schwartz, U. Ebling, M. Weyland, J. Brand, M. F. Andersen(参考訳) 原子をトラップするための光学的ツイーザーの導入は、少数の体系を操作する驚くべき機会を開いた。 ここでは、原子三重項の最初のボトムアップアセンブリを示す。 単一事象レベルでの非弾性衝突による原子損失を直接観察し, 1-, 2-, 3-粒子過程を識別する多くの原子実験において大きな課題を克服した。 我々は3体損失の強い抑制を計測するが、これは現在の3体プロセスの理論では十分に説明できない。 損失の抑制は、魅力的な短距離相互作用と低次元閉じ込めの相互作用による局所的な反相関の存在を示す可能性がある。 本手法は実験小体力学において有望な経路を開く。

The introduction of optical tweezers for trapping atoms has opened remarkable opportunities for manipulating few-body systems. Here, we present the first bottom-up assembly of atom triads. We directly observe atom loss through inelastic collisions at the single event level, overcoming the substantial challenge in many-atom experiments of distinguishing one-, two-, and three-particle processes. We measure a strong suppression of three-body loss, which is not fully explained by the presently availably theory for three-body processes. The suppression of losses could indicate the presence of local anti-correlations due to the interplay of attractive short range interactions and low dimensional confinement. Our methodology opens a promising pathway in experimental few-body dynamics.
翻訳日:2023-01-11 07:25:45 公開日:2020-01-15
# 二重坑井における無相関フェルミオンの相分離と繰り返し磁性の相互作用

Interplay of phase separation and itinerant magnetism for correlated few fermions in a double-well ( http://arxiv.org/abs/2001.05319v1 )

ライセンス: Link先を確認
G.M. Koutentakis, S.I. Mistakidis, P. Schmelcher(参考訳) ダブルウェルポテンシャルに閉じ込められた数フェルミオンスピンの1/2$系における相分離現象の安定性について検討する。 SU(2)対称の場合、全スピンが保存されている場合、位相分離は完全に安定化できないことが示されている。 準安定相分離によって特徴づけられる相互作用様式は、それぞれの井戸内に存在する強磁性スピン-スピン相関と本質的に関連している中間相互作用に対して現れる。 SU(2)対称性の破れは、弱い磁気ポテンシャル勾配であっても相分離状態が安定化できるため、系の安定性に決定的に影響を及ぼす。 以上の結果から,ストーナー不安定性から外れた位相分離現象と強磁性現象の関係が示唆された。

We explore the stability of the phase separation phenomenon in few-fermion spin-$1/2$ systems confined in a double-well potential. It is shown that within the SU(2) symmetric case, where the total spin is conserved, the phase separation cannot be fully stabilized. An interaction regime characterized by metastable phase separation emerges for intermediate interactions which is inherently related with ferromagnetic spin-spin correlations emanating within each of the wells. The breaking of the SU(2) symmetry crucially affects the stability properties of the system as the phase separated state can be stabilized even for weak magnetic potential gradients. Our results imply an intricate relation between the phenomena of phase separation and ferromagnetism that lies beyond the view of the Stoner instability.
翻訳日:2023-01-11 07:24:50 公開日:2020-01-15
# 改良されたディラックデルタと均一分布を持つクラッツァーポテンシャルの統計学

Superstatistics of the screened Kratzer potential with Modified Dirac Delta and Uniform Distributions ( http://arxiv.org/abs/2001.10496v1 )

ライセンス: Link先を確認
P. O. Amadi, C. O. Edet, U. S. Okorie, G. T. Osobonye, G. J. Rampho and A. N. Ikot(参考訳) シュロディンガー方程式を解くことで、スクリーニングされたクラッツァーポテンシャル(SKP)モデルのエネルギー固有値式を得る。 エネルギー固有値を用いて超統計学の枠組み内での分配関数を評価し, HCl, LiH, H2を含む選択された二原子分子の熱力学関数について検討した。 修正ディラックデルタと一様分布は, いずれの場合も, 欠落の有無, 変形パラメータの有無について検討した。

We solve the Schrodinger equation to obtain the energy eigenvalues expression of the screened Kratzer potential (SKP) model. With the energy eigenvalues, we evaluated for the partition function within the framework of superstatistics and extended to study the thermodynamic function for some selected diatomic molecules including HCl, LiH and H2. The modified Dirac delta and uniform distribution comparatively in each case in the absence and the presence of the deformation parameter were considered.
翻訳日:2023-01-11 07:18:58 公開日:2020-01-15
# 数値事象のブールポーズについて

On Boolean posets of numerical events ( http://arxiv.org/abs/2002.01058v1 )

ライセンス: Link先を確認
Dietmar Dorninger and Helmut L\"anger(参考訳) s を物理系の状態の集合とし、p(s) はシステムが状態 s にあるときに事象が発生する確率とする。 S から [0,1] への関数 p は数値事象、あるいは S-確率と呼ばれる。 S-確率の集合 P が実関数の順序で順序付けられたとき、量子論理とみなすことができる命題となる。 P がブール代数であるとき、基礎となる物理系が古典的であることを示す。 本論文の目的は, ブール代数に遠く及ばない s-確率の集合, 特にこれらの集合に含まれる関数の追加と比較によって研究することである。 特に、S-確率のブールポーズのある種のクラスが特徴づけられ、互いに関連し、状態の集合に基づく記述が導出される。

Let S be a set of states of a physical system and p(s) the probability of the occurrence of an event when the system is in state s. A function p from S to [0,1] is called a numerical event or alternatively, an S-probability. If a set P of S-probabilities is ordered by the order of real functions it becomes a poset which can be considered as a quantum logic. In case P is a Boolean algebra this will indicate that the underlying physical system is a classical one. The goal of this paper is to study sets of S-probabilities which are not far from being Boolean algebras, especially by means of the addition and comparison of functions that occur in these sets. In particular, certain classes of Boolean posets of S-probabilities are characterized and related to each other and descriptions based on sets of states are derived.
翻訳日:2023-01-11 07:18:49 公開日:2020-01-15
# 半解釈型畳み込みニューラルネットワークによる眼球運動の関連予測

Relevance Prediction from Eye-movements Using Semi-interpretable Convolutional Neural Networks ( http://arxiv.org/abs/2001.05152v1 )

ライセンス: Link先を確認
Nilavra Bhattacharya, Somnath Rakshit, Jacek Gwizdka, Paul Kogut(参考訳) 眼球運動からテキストの認識関連性を予測する画像分類法を提案する。 視線追跡調査では、参加者は短いニュース記事を読み、トリガー質問への回答に関連性または無関係であると評価した。 被験者の眼球運動スキャンパスを画像として符号化し,これらのスキャンパス画像を用いて畳み込みニューラルネットワーク分類器を訓練する。 トレーニングされた分類器は、対応するスキャンパス画像から参加者のニュース記事の認識関連性を予測するために使用される。 この方法は、画面コンテンツやユーザの情報タスクに関する知識を必要としないため、コンテンツに依存しない。 少ないデータであっても、イメージ分類器は最大80%の精度で知覚関連を予測できる。 文献による類似の視線追跡研究と比較すると, このスキャンパス画像分類法は, 従来報告されていた計測値よりも精度が高い。 また,画像分類器が関連文書と関連文書のスキャンパスを区別する方法についても解釈する。

We propose an image-classification method to predict the perceived-relevance of text documents from eye-movements. An eye-tracking study was conducted where participants read short news articles, and rated them as relevant or irrelevant for answering a trigger question. We encode participants' eye-movement scanpaths as images, and then train a convolutional neural network classifier using these scanpath images. The trained classifier is used to predict participants' perceived-relevance of news articles from the corresponding scanpath images. This method is content-independent, as the classifier does not require knowledge of the screen-content, or the user's information-task. Even with little data, the image classifier can predict perceived-relevance with up to 80% accuracy. When compared to similar eye-tracking studies from the literature, this scanpath image classification method outperforms previously reported metrics by appreciable margins. We also attempt to interpret how the image classifier differentiates between scanpaths on relevant and irrelevant documents.
翻訳日:2023-01-11 07:18:36 公開日:2020-01-15
# OpenHI2 -- オープンソースの病理画像プラットフォーム

OpenHI2 -- Open source histopathological image platform ( http://arxiv.org/abs/2001.05158v1 )

ライセンス: Link先を確認
Pargorn Puttapirat, Haichuan Zhang, Jingyi Deng, Yuxin Dong, Jiangbo Shi, Hongyu He, Zeyu Gao, Chunbao Wang, Xiangrong Zhang, Chen Li(参考訳) 従来の病理学からデジタル病理学への移行は、デリケートな病理学ルーチンを容易にする新しい生物医学的情報学基盤を必要とする。 病理診断は多くの外部因子に敏感であり、主観的であることが知られている。 病理学の厳格な要件を満たすシステムだけが、病理学のルーチンに沿って走り、最終的に研究領域をデジタル化し、開発プラットフォームは既存の病理学のルーチンや国際標準に従うべきである。 現在、仮想スライドの閲覧、注釈付け、基本的な画像解析など、病理学的なタスクを実行できるソフトウェアツールが多数存在するが、いずれも病理学のデジタルプラットフォームとして機能するものではない。 ここでは、OpenHI2について説明する。Open Histopathological Imageプラットフォームは、すべての基本的な病理学的タスクとファイルフォーマットをサポートし、標準サーバー環境またはクラウドコンピューティングインフラ上の医療機関にデプロイされる準備ができている。 本稿では,このプラットフォームの開発決定について述べるとともに,OpenHI2を病理像のプラットフォームとして利用できるように,技術的な課題を克服するための解決策を提案する。 各コンポーネントはモジュール化され、完全にドキュメント化されているため、プラットフォームに追加することができる。 OpenHI2はオープンソースで、https://gitlab.com/BioAI/OpenHIで入手できる。

Transition from conventional to digital pathology requires a new category of biomedical informatic infrastructure which could facilitate delicate pathological routine. Pathological diagnoses are sensitive to many external factors and is known to be subjective. Only systems that can meet strict requirements in pathology would be able to run along pathological routines and eventually digitized the study area, and the developed platform should comply with existing pathological routines and international standards. Currently, there are a number of available software tools which can perform histopathological tasks including virtual slide viewing, annotating, and basic image analysis, however, none of them can serve as a digital platform for pathology. Here we describe OpenHI2, an enhanced version Open Histopathological Image platform which is capable of supporting all basic pathological tasks and file formats; ready to be deployed in medical institutions on a standard server environment or cloud computing infrastructure. In this paper, we also describe the development decisions for the platform and propose solutions to overcome technical challenges so that OpenHI2 could be used as a platform for histopathological images. Further addition can be made to the platform since each component is modularized and fully documented. OpenHI2 is free, open-source, and available at https://gitlab.com/BioAI/OpenHI.
翻訳日:2023-01-11 07:18:20 公開日:2020-01-15
# 能動物体追跡のための多カメラ協調法

Pose-Assisted Multi-Camera Collaboration for Active Object Tracking ( http://arxiv.org/abs/2001.05161v1 )

ライセンス: Link先を確認
Jing Li and Jing Xu and Fangwei Zhong and Xiangyu Kong and Yu Qiao and Yizhou Wang(参考訳) アクティブオブジェクト追跡(AOT)は、モバイルロボット、インテリジェント監視など、多くのビジョンベースのアプリケーションに不可欠である。 しかし、複雑なシナリオにおいてアクティブトラッキングをデプロイする場合、例えば、ターゲットは障害によって隠蔽されることが多い。 本稿では,単一カメラのAOTをマルチカメラ環境に拡張し,カメラが目標を協調的に追跡する手法を提案する。 本稿では,カメラ間の効果的な協調を実現するために,カメラポーズの共有により,カメラが他者と協調してアクティブな物体追跡を行う,ポーズ支援型多カメラ協調システムを提案する。 システムでは、各カメラは2つのコントローラとスイッチタを備える: 視覚ベースのコントローラは、観測された画像に基づいてターゲットを追跡する。 ポーズベースのコントローラは、他のカメラのポーズに応じてカメラを移動させる。 各ステップで、スイッチャーは、ターゲットの可視性に応じて、2つのコントローラからどのアクションを取るかを決定する。 実験の結果,本システムはすべてのベースラインを上回り,目に見えない環境に一般化できることがわかった。 コードとデモビデオは、私たちのwebサイトhttps://sites.google.com/view/pose-assistedcollaborationで閲覧できます。

Active Object Tracking (AOT) is crucial to many visionbased applications, e.g., mobile robot, intelligent surveillance. However, there are a number of challenges when deploying active tracking in complex scenarios, e.g., target is frequently occluded by obstacles. In this paper, we extend the single-camera AOT to a multi-camera setting, where cameras tracking a target in a collaborative fashion. To achieve effective collaboration among cameras, we propose a novel Pose-Assisted Multi-Camera Collaboration System, which enables a camera to cooperate with the others by sharing camera poses for active object tracking. In the system, each camera is equipped with two controllers and a switcher: The vision-based controller tracks targets based on observed images. The pose-based controller moves the camera in accordance to the poses of the other cameras. At each step, the switcher decides which action to take from the two controllers according to the visibility of the target. The experimental results demonstrate that our system outperforms all the baselines and is capable of generalizing to unseen environments. The code and demo videos are available on our website https://sites.google.com/view/pose-assistedcollaboration.
翻訳日:2023-01-11 07:18:01 公開日:2020-01-15
# 書籍カバー識別のための画像照合手法の評価

Evaluating image matching methods for book cover identification ( http://arxiv.org/abs/2001.05200v1 )

ライセンス: Link先を確認
Rabie Hachemi, Ikram Achar, Biasi Wiga, Mahfoud Sidi Ali Mebarek(参考訳) 人間はカバーを見るだけで本を識別できるが、コンピュータはどうやって同じことができるのか? 本稿では,書籍の表紙識別のための特徴検出器とマッチング手法について検討し,その性能を速度と精度の両面で比較する。 これにより、例えばライブラリは、カバーブック図に基づいてインタラクティブなサービスを開発することができる。 カバーブックの1つのイメージのみをデータベースから取得する必要がある。 各本のカバーイメージの異なる変換を考慮してテストが行われた。 さらなる成果が得られた。

Humans are capable of identifying a book only by looking at its cover, but how can computers do the same? In this paper, we explore different feature detectors and matching methods for book cover identification, and compare their performances in terms of both speed and accuracy. This will allow, for example, libraries to develop interactive services based on cover book picture. Only one single image of a cover book needs to be available through a database. Tests have been performed by taking into account different transformations of each book cover image. Encouraging results have been achieved.
翻訳日:2023-01-11 07:17:42 公開日:2020-01-15
# みんなが話す: 好きなように話させてください

Everybody's Talkin': Let Me Talk as You Want ( http://arxiv.org/abs/2001.05201v1 )

ライセンス: Link先を確認
Linsen Song, Wayne Wu, Chen Qian, Ran He, Chen Change Loy(参考訳) 本稿では,写真リアルな映像を合成するために,音声のシーケンスを入力とし,対象の肖像画を編集する手法を提案する。 この方法は非常にダイナミックであるためユニークです。 任意のソースオーディオを任意のビデオ出力に変換することのできる、個人固有のレンダリングネットワークを前提としない。 音声から映像への高度に不均一で非線形なマッピングを直接学習するのではなく、まず各対象の映像フレームを直交パラメータ空間、すなわち表現、幾何学、ポーズに分解する。 次に、ソースオーディオを主にオーディオコンテンツに関連する表現パラメータに変換するために、リカレントネットワークを導入する。 次に、音声変換された表現パラメータを用いて、各ビデオフレーム内の写実的な人間の被写体を合成し、口領域の動きをソースオーディオに正確にマッピングする。 対象の人間の肖像画の形状とポーズパラメータは保持され、オリジナル映像のコンテキストが保存される。 最後に,時間的コヒーレントかつフォトリアリスティックなビデオを構築するための新しいビデオレンダリングネットワークと動的プログラミング手法を提案する。 大規模な実験は,既存手法よりも本手法の方が優れていることを示す。 本手法はエンドツーエンドで学習可能であり,音源音声の変動に対して頑健である。

We present a method to edit a target portrait footage by taking a sequence of audio as input to synthesize a photo-realistic video. This method is unique because it is highly dynamic. It does not assume a person-specific rendering network yet capable of translating arbitrary source audio into arbitrary video output. Instead of learning a highly heterogeneous and nonlinear mapping from audio to the video directly, we first factorize each target video frame into orthogonal parameter spaces, i.e., expression, geometry, and pose, via monocular 3D face reconstruction. Next, a recurrent network is introduced to translate source audio into expression parameters that are primarily related to the audio content. The audio-translated expression parameters are then used to synthesize a photo-realistic human subject in each video frame, with the movement of the mouth regions precisely mapped to the source audio. The geometry and pose parameters of the target human portrait are retained, therefore preserving the context of the original video footage. Finally, we introduce a novel video rendering network and a dynamic programming method to construct a temporally coherent and photo-realistic video. Extensive experiments demonstrate the superiority of our method over existing approaches. Our method is end-to-end learnable and robust to voice variations in the source audio.
翻訳日:2023-01-11 07:17:34 公開日:2020-01-15
# 残差注意U-Netによるセグメンテーションとエッジエンハンスメントアプローチによる細胞形状特性の保存

Segmentation with Residual Attention U-Net and an Edge-Enhancement Approach Preserves Cell Shape Features ( http://arxiv.org/abs/2001.05548v1 )

ライセンス: Link先を確認
Nanyan Zhu, Chen Liu, Zakary S. Singer, Tal Danino, Andrew F. Laine, Jia Guo(参考訳) 生きた単一細胞の遺伝子発現動態を外挿する能力は、ロバストな細胞分節が必要であり、その課題の1つは、アモルファスまたは不規則な形の細胞境界である。 この問題に対処するため,我々はU-Netアーキテクチャを蛍光ワイドフィールド顕微鏡画像のセグメントセルに修正し,その性能を定量的に評価した。 また,細胞境界のセグメンテーション精度を重視し,形状特徴保存を促進する新しい損失関数法を提案した。 また,97%の感度,93%の特異性,91%のジャカード類似性,95%のDice係数で,従来の測定値と比較すると,エッジ付き残留注意U-Netはセグメント化性能において最先端のU-Netを上回った。 さらに, 同候補は, 面積, 偏心性, 主軸長, 剛性, 配向といった, 貴重な形状の特徴の保存に関して, 最善を尽くした。 これらの形状の特徴保存の改善は、下流の細胞追跡と、時間とともにセル統計や特徴の変化の定量化に役立つ。

The ability to extrapolate gene expression dynamics in living single cells requires robust cell segmentation, and one of the challenges is the amorphous or irregularly shaped cell boundaries. To address this issue, we modified the U-Net architecture to segment cells in fluorescence widefield microscopy images and quantitatively evaluated its performance. We also proposed a novel loss function approach that emphasizes the segmentation accuracy on cell boundaries and encourages shape feature preservation. With a 97% sensitivity, 93% specificity, 91% Jaccard similarity, and 95% Dice coefficient, our proposed method called Residual Attention U-Net with edge-enhancement surpassed the state-of-the-art U-Net in segmentation performance as evaluated by the traditional metrics. More remarkably, the same proposed candidate also performed the best in terms of the preservation of valuable shape features, namely area, eccentricity, major axis length, solidity and orientation. These improvements on shape feature preservation can serve as useful assets for downstream cell tracking and quantification of changes in cell statistics or features over time.
翻訳日:2023-01-11 07:17:14 公開日:2020-01-15
# DeepContrast を用いた脳MRIにおけるガドリニウム置換

Substituting Gadolinium in Brain MRI Using DeepContrast ( http://arxiv.org/abs/2001.05551v1 )

ライセンス: Link先を確認
Haoran Sun, Xueqing Liu, Xinyang Feng, Chen Liu, Nanyan Zhu, Sabrina J. Gjerswold-Selleck, Hong-Jian Wei, Pavan S. Upadhyayula, Angeliki Mela, Cheng-Chia Wu, Peter D. Canoll, Andrew F. Laine, J. Thomas Vaughan, Scott A. Small, Jia Guo(参考訳) 脳血流量 (CBV) は酸素代謝の血行動態の相関であり、脳の活動と機能を反映している。 高分解能CBVマップは、定常ガドリニウム強調MRI技術を用いて生成することができる。 このような技術は、外因性ガドリニウム系造影剤(GBCA)の静脈内注射を必要とし、最近の研究では、GBCAは頻繁に使用した後に脳に蓄積できることが示唆されている。 内因性コントラスト源は最も従来的かつ一般的に獲得された構造MRI内に存在し,外因性コントラストの必要性を回避できる可能性が示唆された。 そこで,我々はdeepcontrastと呼ばれる深層学習アルゴリズムをマウスで開発・最適化することで,この仮説を検証した。 DeepContrastは正常脳組織のCBVマッピングやグリオ芽腫の増強に外因性GBCAと同等に機能することがわかった。 これらの研究は、深層学習アプローチが脳MRIにおけるGBCAの必要性を置き換える可能性があるという私たちの仮説を検証する。

Cerebral blood volume (CBV) is a hemodynamic correlate of oxygen metabolism and reflects brain activity and function. High-resolution CBV maps can be generated using the steady-state gadolinium-enhanced MRI technique. Such a technique requires an intravenous injection of exogenous gadolinium based contrast agent (GBCA) and recent studies suggest that the GBCA can accumulate in the brain after frequent use. We hypothesize that endogenous sources of contrast might exist within the most conventional and commonly acquired structural MRI, potentially obviating the need for exogenous contrast. Here, we test this hypothesis by developing and optimizing a deep learning algorithm, which we call DeepContrast, in mice. We find that DeepContrast performs equally well as exogenous GBCA in mapping CBV of the normal brain tissue and enhancing glioblastoma. Together, these studies validate our hypothesis that a deep learning approach can potentially replace the need for GBCAs in brain MRI.
翻訳日:2023-01-11 07:16:38 公開日:2020-01-15
# テザード空中視覚支援

Tethered Aerial Visual Assistance ( http://arxiv.org/abs/2001.06347v1 )

ライセンス: Link先を確認
Xuesu Xiao, Jan Dufek, Robin R. Murphy(参考訳) 本稿では,自律結合型無人航空機 (uav) をmarsupial co-robotsチームで視覚アシスタントとして開発し,非構造環境や制約環境におけるロボット操作のための遠隔操作型無人地上機 (ugv) と協調する。 これらの環境は、十分な状況認識の欠如、主に非構造性と閉じ込め、静止視野と限定視野、ロボット搭載カメラからの奥行き認識の欠如によって、遠隔遠隔操作者に極端な課題をもたらす。 これらの問題を解決するために、二次遠隔操作ロボットは、視覚アシスタントとして機能し、一次ロボットの搭載センサーの知覚的限界を克服するための外部視点を提供する現在のプラクティスで使用される。 しかし、第2の遠隔操作ロボットは、一次オペレーターと二次オペレーターの間の余分なマンパワーとチームワーク要求を必要とする。 手動で選択された視点は主観的かつ準最適である傾向がある。 これらの複雑さを考慮すると,遠隔操作ロボットとオペレータの代わりに自律的テザリング型空中視覚アシスタントを開発し,ロボットの比率を2:2から1:2に下げる。 視覚アシスタントは,基本的視点品質理論,形式的リスク推論フレームワーク,および新たに開発されたテザリング・モーション・スイートを用いて,非構造的あるいは制限的空間をテザ付きで自律的に品質の高い視点にナビゲートすることができる。 開発した有人ロボットチームは、人力とチームワークの需要を減らし、信頼性の高いリスク対応動作でより良い視覚支援品質を達成することで、核作戦、爆弾部隊、災害ロボット、その他の新しいタスクや高い環境を持つ領域での遠隔操作効率を向上させることができる。

In this paper, an autonomous tethered Unmanned Aerial Vehicle (UAV) is developed into a visual assistant in a marsupial co-robots team, collaborating with a tele-operated Unmanned Ground Vehicle (UGV) for robot operations in unstructured or confined environments. These environments pose extreme challenges to the remote tele-operator due to the lack of sufficient situational awareness, mostly caused by the unstructuredness and confinement, stationary and limited field-of-view and lack of depth perception from the robot's onboard cameras. To overcome these problems, a secondary tele-operated robot is used in current practices, who acts as a visual assistant and provides external viewpoints to overcome the perceptual limitations of the primary robot's onboard sensors. However, a second tele-operated robot requires extra manpower and teamwork demand between primary and secondary operators. The manually chosen viewpoints tend to be subjective and sub-optimal. Considering these intricacies, we develop an autonomous tethered aerial visual assistant in place of the secondary tele-operated robot and operator, to reduce human robot ratio from 2:2 to 1:2. Using a fundamental viewpoint quality theory, a formal risk reasoning framework, and a newly developed tethered motion suite, our visual assistant is able to autonomously navigate to good-quality viewpoints in a risk-aware manner through unstructured or confined spaces with a tether. The developed marsupial co-robots team could improve tele-operation efficiency in nuclear operations, bomb squad, disaster robots, and other domains with novel tasks or highly occluded environments, by reducing manpower and teamwork demand, and achieving better visual assistance quality with trustworthy risk-aware motion.
翻訳日:2023-01-11 07:16:22 公開日:2020-01-15
# 非Lipschitz最適化のためのランダム化ブレグマン座標Descent法

Randomized Bregman Coordinate Descent Methods for Non-Lipschitz Optimization ( http://arxiv.org/abs/2001.05202v1 )

ライセンス: Link先を確認
Tianxiang Gao, Songtao Lu, Jia Liu, Chris Chu(参考訳) 目的関数が凸か非凸かのいずれかであり、滑らかな部分は大域的なリプシッツ連続(部分的)勾配の仮定から解放されるような合成問題を最小化するための新しい \textit{randomized Bregman (block) coordinate descent} (RBCD) 法を提案する。 ブレグマン距離に基づく相対滑らか性の概念の下で、生成された列のすべての極限点が定常点であることを証明する。 さらに、提案手法の反復複雑性は、$O(n\varepsilon^{-2})$で、$\epsilon$-stationary point、$n$は座標のブロック数であることを示す。 目的が凸であると仮定すると、反復複雑性は$O(n\epsilon^{-1} )$に改善される。 さらに、目的が強い凸(参照関数に関連して)であれば、大域的線形収束率は回復される。 また, rbcd 法の高速化版を示し, ブレグマン距離の \textit{generalized translation variant} によってスカラー $\gamma\in [1,2]$ が決定されるような凸ケースに対して $o(n\varepsilon^{-1/\gamma} )$ の反復複雑性を達成する。 グローバルリプシッツ連続(部分的)勾配を仮定しない収束解析は、複合問題における既存の研究とは別の結果となる。

We propose a new \textit{randomized Bregman (block) coordinate descent} (RBCD) method for minimizing a composite problem, where the objective function could be either convex or nonconvex, and the smooth part are freed from the global Lipschitz-continuous (partial) gradient assumption. Under the notion of relative smoothness based on the Bregman distance, we prove that every limit point of the generated sequence is a stationary point. Further, we show that the iteration complexity of the proposed method is $O(n\varepsilon^{-2})$ to achieve $\epsilon$-stationary point, where $n$ is the number of blocks of coordinates. If the objective is assumed to be convex, the iteration complexity is improved to $O(n\epsilon^{-1} )$. If, in addition, the objective is strongly convex (relative to the reference function), the global linear convergence rate is recovered. We also present the accelerated version of the RBCD method, which attains an $O(n\varepsilon^{-1/\gamma} )$ iteration complexity for the convex case, where the scalar $\gamma\in [1,2]$ is determined by the \textit{generalized translation variant} of the Bregman distance. Convergence analysis without assuming the global Lipschitz-continuous (partial) gradient sets our results apart from the existing works in the composite problems.
翻訳日:2023-01-11 07:09:43 公開日:2020-01-15
# スピン量子シミュレータを用いた3次元トポロジカル絶縁体の量子位相の実験的検出

Experimental Detection of the Quantum Phases of a Three-Dimensional Topological Insulator on a Spin Quantum Simulator ( http://arxiv.org/abs/2001.05122v1 )

ライセンス: Link先を確認
Tao Xin, Yishan Li, Yu-ang Fan, Xuanran Zhu, Yingjie Zhang, Xinfang Nie, Jun Li, Qihang Liu, and Dawei Lu(参考訳) 近年では、物質の位相相の検出が中心問題となっている。 伝統的に、凝縮物物理学における特定の位相位相相の実現は、実際の物質の基底となる表面バンド分散や量子輸送のシグネチャを探究することに依存している。 一方、量子シミュレーションは、普遍量子コンピュータ上で位相不変量を直接測定する別の手法を提供する。 しかし、実験的な高次元トポロジカル位相の実証は、現在の実験プラットフォームの技術的な制限のため、依然として課題である。 本稿では,実験的な実現を欠いたaiii対称性クラスにおける3次元位相絶縁体について検討する。 核磁気共鳴システムを用いてそれらのトポロジカルな性質を実験的に証明し、そこでは運動量空間における動的バルク-バウンダリ対応が観察される。 その結果、位相不変量はバンド反転面上で高精度に測定され、デコヒーレンス効果に対する堅牢性を示す。 我々の研究は、制御可能な量子相転移を通じて、高次元およびより複雑な系の物質の位相相の量子シミュレーションへの道を開いた。

The detection of topological phases of matter becomes a central issue in recent years. Conventionally, the realization of a specific topological phase in condensed matter physics relies on probing the underlying surface band dispersion or quantum transport signature of a real material, which may be imperfect or even absent. On the other hand, quantum simulation offers an alternative approach to directly measure the topological invariant on a universal quantum computer. However, experimentally demonstrating high-dimensional topological phases remains a challenge due to the technical limitations of current experimental platforms. Here, we investigate the three-dimensional topological insulators in the AIII (chiral unitary) symmetry class which yet lack experimental realization. Using the nuclear magnetic resonance system, we experimentally demonstrate their topological properties, where a dynamical quenching approach is adopted and the dynamical bulk-boundary correspondence in the momentum space is observed. As a result, the topological invariants are measured with high precision on the band-inversion surface, exhibiting robustness to the decoherence effect. Our work paves the way towards the quantum simulation of topological phases of matter in higher dimensions and more complex systems through controllable quantum phases transitions.
翻訳日:2023-01-11 07:09:01 公開日:2020-01-15
# 局所散逸を伴う貯留層工学:動力学と予熱

Reservoir engineering with localized dissipation: dynamics and pre-thermalization ( http://arxiv.org/abs/2001.05409v1 )

ライセンス: Link先を確認
Yariv Yanay, Aashish A. Clerk(参考訳) 局地化工学的散逸のみを用いた貯留層工学的格子状態は資源の観点からは非常に魅力的であるが、長い緩和時間に悩まされる。 本研究では,局所的に結合したボソニック格子系の緩和ダイナミクスについて検討する。 このような系は、長距離の絡み合いを持つ非常に非自明な純粋な状態に緩和することができる。 大きな系の大きさの限界において、散逸スペクトルの解析式は、局所化された不純物からの散乱を例示することで得られる。 これにより、摂動緩和から緩やかな量子・ゼノレジームへのクロスオーバーを研究できる。 また, 意外なインピーダンス整合現象により, 緩和が促進される可能性も見いだされた。 また,光円錐状領域内に存在する長寿命の「予熱状態」を同定する中間時間挙動についても検討した。 この中間状態は準定常であり、究極の散逸定常状態とは全く異なる絡み合いの性質を持つ。

Reservoir engineering lattice states using only localized engineered dissipation is extremely attractive from a resource point of view, but can suffer from long relaxation times. Here, we study the relaxation dynamics of bosonic lattice systems locally coupled to a single squeezed reservoir. Such systems can relax into a highly non-trivial pure states with long-range entanglement. In the limit of large system size, analytic expressions for the dissipation spectrum can be found by making an analogy to scattering from a localized impurity. This allows us to study the cross-over from perturbative relaxation to a slow, quantum-Zeno regime. We also find the possibility of regimes of accelerated relaxation due to a surprising impedance matching phenomena. We also study intermediate time behaviors, identifying a long-lived "prethermalized" state associated that exists within a light cone like area. This intermediate state can be quasi-stationary, and can very different entanglement properties from the ultimate dissipative steady state.
翻訳日:2023-01-11 07:07:59 公開日:2020-01-15
# 私の教師による量子力学の基礎

Foundations of Quantum Mechanics according to my teachers ( http://arxiv.org/abs/2001.05569v1 )

ライセンス: Link先を確認
P. B. Lerner(参考訳) これらは1970-80年代における量子力学の基礎に関する非公式な議論の著者の回想である。

These are author's recollections of informal discussions on foundations of quantum mechanics, which happened in his presence in 1970-80s
翻訳日:2023-01-11 07:07:06 公開日:2020-01-15
# rydberg原子アンサンブルにおける断熱通路の量子情報処理への応用

Application of adiabatic passage in Rydberg atomic ensembles for quantum information processing ( http://arxiv.org/abs/2001.06352v1 )

ライセンス: Link先を確認
I. I. Beterov, D. B. Tretyakov, V. M. Entin, E. A. Yakshina, I. I. Ryabtsev, M. Saffman, and S. Bergamini(参考訳) 本稿では,Adiabatic Rapid PassageとStimulated Raman Adiabatic Passageを用いた原子アンサンブルのRydberg量子状態のコヒーレント制御法について述べる。 これらの方法は、単純な2レベルおよび3レベルシステムにおける集団反転によく用いられる。 断熱的手法により、リドベルク原子を用いた量子情報処理のためのメソスコピック原子アンサンブルの複雑な絡み合った状態の集団と位相ダイナミクスを制御できることを示す。 また,リドベルク原子の断熱通路,リドバーグ封鎖,f\"{o}rster共鳴に基づく単量子ゲートと2量子ゲートのスキームも提案する。

We review methods for coherently controlling Rydberg quantum states of atomic ensembles using Adiabatic Rapid Passage and Stimulated Raman Adiabatic Passage. These methods are commonly used for population inversion in simple two-level and three-level systems. We show that adiabatic techniques allow us to control population and phase dynamics of complex entangled states of mesoscopic atomic ensembles for quantum information processing with Rydberg atoms. We also propose several schemes of single-qubit and two-qubit gates based on adiabatic passage, Rydberg blockade and F\"{o}rster resonances in Rydberg atoms.
翻訳日:2023-01-11 07:07:03 公開日:2020-01-15
# 近似重み付き一階モデルカウント:高速近似モデルカウンタと対称性の利用

Approximate Weighted First-Order Model Counting: Exploiting Fast Approximate Model Counters and Symmetry ( http://arxiv.org/abs/2001.05263v1 )

ライセンス: Link先を確認
Timothy van Bremen, Ondrej Kuzelka(参考訳) 対称重み付き一階モデル計数タスクと,oracle を計数する非重み付き一階モデルが存在する場合に,重み付き一階モデル計数を効率的にバインドする新しいanytime法 approxwfomc について検討した。 このアルゴリズムは、マルコフ論理ネットワークや確率論理プログラムなど、様々な一階確率表現の推論に応用できる。 多くのアプリケーションにおいて、私たちは入力文の形式を仮定しません。 代わりに、我々のアルゴリズムは、文のリテラルの真基底数に基数制約を課すことにより、問題に固有の対称性を利用する。 近似ハッシュモデルカウンタ ApproxMC3 を用いて, 1次モデルカウントオラクルを実際に実現し, アルゴリズムが1次確率モデルにおける推定の既存の近似的および正確な手法よりも優れていることを示す。 また、生成された境界に対してPAC保証を提供する。

We study the symmetric weighted first-order model counting task and present ApproxWFOMC, a novel anytime method for efficiently bounding the weighted first-order model count in the presence of an unweighted first-order model counting oracle. The algorithm has applications to inference in a variety of first-order probabilistic representations, such as Markov logic networks and probabilistic logic programs. Crucially for many applications, we make no assumptions on the form of the input sentence. Instead, our algorithm makes use of the symmetry inherent in the problem by imposing cardinality constraints on the number of possible true groundings of a sentence's literals. Realising the first-order model counting oracle in practice using the approximate hashing-based model counter ApproxMC3, we show how our algorithm outperforms existing approximate and exact techniques for inference in first-order probabilistic models. We additionally provide PAC guarantees on the generated bounds.
翻訳日:2023-01-11 07:01:00 公開日:2020-01-15
# スカウト:高層設計制約によるインタフェースレイアウト代替品の迅速探索

Scout: Rapid Exploration of Interface Layout Alternatives through High-Level Design Constraints ( http://arxiv.org/abs/2001.05424v1 )

ライセンス: Link先を確認
Amanda Swearngin, Chenglong Wang, Alannah Oleson, James Fogarty, Amy J. Ko(参考訳) 代替案を探求することは、より良いインターフェース設計を作成するための基本であるが、代替案を作成するための現在のプロセスは一般的に手作業であり、デザイナが探索できる代替案を制限する。 我々は,高レベルの制約と設計フィードバックとの混合開始的相互作用を通じて,設計者による選択肢の迅速な探索を支援するシステムであるScoutを提案する。 以前の制約に基づくレイアウトシステムは低レベルの空間制約を使用し、一般に単一の設計を生成する。 to support designer exploration of alternatives、scoutは、設計概念に基づくハイレベル制約(例えば、-semantic structure, emphasis, order)を導入し、それらを、解決者が潜在的なレイアウトを生成するために使用する低レベルな空間的制約に形式化する。 インターフェース設計者18名による評価では、(1)デザイナーがベースラインツールと同じような品質でより空間的に多様なレイアウトを作成できるようにし、(2)デザイナーが線形設計プロセスを避けて、自分たちで考えるべきではないレイアウトを素早く考え出すのに役立つことを発見した。

Although exploring alternatives is fundamental to creating better interface designs, current processes for creating alternatives are generally manual, limiting the alternatives a designer can explore. We present Scout, a system that helps designers rapidly explore alternatives through mixed-initiative interaction with high-level constraints and design feedback. Prior constraint-based layout systems use low-level spatial constraints and generally produce a single design. Tosupport designer exploration of alternatives, Scout introduces high-level constraints based on design concepts (e.g.,~semantic structure, emphasis, order) and formalizes them into low-level spatial constraints that a solver uses to generate potential layouts. In an evaluation with 18 interface designers, we found that Scout: (1) helps designers create more spatially diverse layouts with similar quality to those created with a baseline tool and (2) can help designers avoid a linear design process and quickly ideate layouts they do not believe they would have thought of on their own.
翻訳日:2023-01-11 07:00:41 公開日:2020-01-15
# ゲームにおけるガードのためのオフライングリッドベースカバレッジパス計画

Offline Grid-Based Coverage path planning for guards in games ( http://arxiv.org/abs/2001.05462v1 )

ライセンス: Link先を確認
Wael Al Enezi, Clark Verbrugge(参考訳) 包括的カバレッジに対するアルゴリズム的アプローチは、ゲームに応用され、自動ゲームレベルの探索を可能にした。 現在の設計では単純なヒューリスティックを使用しており、しばしば性能が悪くなり、不自然な振る舞いを示す。 本稿では,2次元多角形(穴のある)領域をカバーする新しいアルゴリズムを提案する。 地図レイアウトの事前知識を仮定し、グリッドベースの世界表現を使用する。 単純なレイアウトから実際のゲームで使われるより複雑なマップまで、いくつかのシナリオでの実験的分析は優れたパフォーマンスを示している。 この作業は、非プレーヤ文字に対するより効率的なカバレッジパス計画アルゴリズムを構築するための最初のステップとなる。

Algorithmic approaches to exhaustive coverage have application in video games, enabling automatic game level exploration. Current designs use simple heuristics that frequently result in poor performance or exhibit unnatural behaviour. In this paper, we introduce a novel algorithm for covering a 2D polygonal (with holes) area. We assume prior knowledge of the map layout and use a grid-based world representation. Experimental analysis over several scenarios ranging from simple layouts to more complex maps used in actual games show good performance. This work serves as an initial step towards building a more efficient coverage path planning algorithm for non-player characters.
翻訳日:2023-01-11 07:00:22 公開日:2020-01-15
# 構造化gans

Structured GANs ( http://arxiv.org/abs/2001.05216v1 )

ライセンス: Link先を確認
Irad Peleg and Lior Wolf(参考訳) 本稿では,生成した画像の対称性を制御するGAN(Generative Adversarial Networks)を提案する。 これはジェネレータネットワークのアーキテクチャを通じて得られるが、トレーニング手順と損失は同じである。 対称GANを顔画像合成に適用して、対称性の異なる新しい顔を生成する。 また,ワンショットファインチューニングという新しい概念に基づいて,教師なしの顔回転機能を提案する。

We present Generative Adversarial Networks (GANs), in which the symmetric property of the generated images is controlled. This is obtained through the generator network's architecture, while the training procedure and the loss remain the same. The symmetric GANs are applied to face image synthesis in order to generate novel faces with a varying amount of symmetry. We also present an unsupervised face rotation capability, which is based on the novel notion of one-shot fine tuning.
翻訳日:2023-01-11 07:00:13 公開日:2020-01-15
# 虹彩認識のための上部テンプレート保護のためのモートンフィルタ

Morton Filters for Superior Template Protection for Iris Recognition ( http://arxiv.org/abs/2001.05290v1 )

ライセンス: Link先を確認
Kiran B. Raja and R. Raghavendra and Sushma Venkatesh and Christoph Busch(参考訳) iris検証のためのテンプレート保護(tp)の基本性能問題に対処する。 私たちは、人気のBloom-Filterテンプレートの保護と、サブ最適化パフォーマンスや低リンク性といった重要な課題に取り組みました。 具体的には,ブルームフィルタテンプレートが虹彩画像内に大きな劣化があるため,非理想的性能をもたらす場合に着目した。 iris認識には、キャプチャ画像内のアイラシェの存在、まぶたによるオクルージョン、動きのぼやけによる低品質虹彩画像など、数多くのオクルーディング要因がある。 このような劣化要因はすべて、信頼性の低いアイリス符号を取得し、非理想的なバイオメトリック性能を提供する。 これらの要因は,古典的なブルームフィルタを用いた場合,虹彩画像由来の保護テンプレートに直接影響する。 この目的のために、我々は以前提案してきたmortonフィルタの提案と拡張を行い、より良く信頼性のあるirisのテンプレートを得る。 アイリス符号に対するモートンフィルタに基づくTPは、低ランクアイリス符号を利用して、特定の対象に対してアイリス画像間の安定ビットを導出し、また様々な対象に対して識別可能なビットを解析することにより、クラス内およびクラス間分布を利用する。 このような低ランクな非ノイズアイリス符号は、制約された設定だけでなく、緩和されたアイリスイメージングでも使用できる優れた方法でテンプレート保護を実現することができる。 さらに,未制約設定でキャプチャした大規模公開iris画像データベースubiris(v1 & v2)を用いて,vis iris画像に適用性を分析する作業をさらに拡張した。 一連の実験を通して,提案手法の適用可能性を示し,強みと弱みを検証した。 この研究のもう1つの貢献は、緩和された虹彩画像シナリオに対する敵対的性質を示すために、unlinkabilityの因子が研究されるアプローチの安全性を評価することである。

We address the fundamental performance issues of template protection (TP) for iris verification. We base our work on the popular Bloom-Filter templates protection & address the key challenges like sub-optimal performance and low unlinkability. Specifically, we focus on cases where Bloom-filter templates results in non-ideal performance due to presence of large degradations within iris images. Iris recognition is challenged with number of occluding factors such as presence of eye-lashes within captured image, occlusion due to eyelids, low quality iris images due to motion blur. All of such degrading factors result in obtaining non-reliable iris codes & thereby provide non-ideal biometric performance. These factors directly impact the protected templates derived from iris images when classical Bloom-filters are employed. To this end, we propose and extend our earlier ideas of Morton-filters for obtaining better and reliable templates for iris. Morton filter based TP for iris codes is based on leveraging the intra and inter-class distribution by exploiting low-rank iris codes to derive the stable bits across iris images for a particular subject and also analyzing the discriminable bits across various subjects. Such low-rank non-noisy iris codes enables realizing the template protection in a superior way which not only can be used in constrained setting, but also in relaxed iris imaging. We further extend the work to analyze the applicability to VIS iris images by employing a large scale public iris image database - UBIRIS(v1 & v2), captured in a unconstrained setting. Through a set of experiments, we demonstrate the applicability of proposed approach and vet the strengths and weakness. Yet another contribution of this work stems in assessing the security of the proposed approach where factors of Unlinkability is studied to indicate the antagonistic nature to relaxed iris imaging scenarios.
翻訳日:2023-01-11 07:00:06 公開日:2020-01-15
# 網膜血管セグメンテーションのための2ストリーム可視処理ネットワーク

A Two-Stream Meticulous Processing Network for Retinal Vessel Segmentation ( http://arxiv.org/abs/2001.05829v1 )

ライセンス: Link先を確認
Shaoming Zheng, Tianyang Zhang, Jiawei Zhuang, Hao Wang, Jiang Liu(参考訳) 眼科における眼底血管分割は重要な診断機能であり,本課題には様々な課題が残っている。 初期のアプローチでは,厚さの異なる容器画素の不均衡のため,薄型容器や境界領域で望ましいセグメンテーション性能を得るのが困難であった。 本稿では,この問題に取り組むための新しい2ストリーム可視処理ネットワーク (mp-net) を提案する。 まず, 薄い容器や境界領域に注意を払うため, 厚みの異なる面に自動的に階層化する効率的な階層モデルを提案する。 そして,この階層化結果をバランス損失関数と積分演算で利用し,特に細血管や境界領域の検出において,より優れた性能を実現するために,新たな2ストリーム逆ネットワークを導入する。 我々のモデルはDRIVE、STARE、CHASE_DB1データセットの最先端手法より優れていることが証明された。

Vessel segmentation in fundus is a key diagnostic capability in ophthalmology, and there are various challenges remained in this essential task. Early approaches indicate that it is often difficult to obtain desirable segmentation performance on thin vessels and boundary areas due to the imbalance of vessel pixels with different thickness levels. In this paper, we propose a novel two-stream Meticulous-Processing Network (MP-Net) for tackling this problem. To pay more attention to the thin vessels and boundary areas, we firstly propose an efficient hierarchical model automatically stratifies the ground-truth masks into different thickness levels. Then a novel two-stream adversarial network is introduced to use the stratification results with a balanced loss function and an integration operation to achieve a better performance, especially in thin vessels and boundary areas detecting. Our model is proved to outperform state-of-the-art methods on DRIVE, STARE, and CHASE_DB1 datasets.
翻訳日:2023-01-11 06:59:16 公開日:2020-01-15
# 駆動型断熱量子シミュレーションの時間分解トモグラフィー

Time-resolved tomography of a driven adiabatic quantum simulation ( http://arxiv.org/abs/2001.05243v1 )

ライセンス: Link先を確認
Gian Salis, Nikolaj Moll, Marco Roth, Marc Ganzhorn, Stefan Filipp(参考訳) 量子シミュレーションの典型的な目標は、与えられたハミルトニアンのエネルギー準位と固有状態を見つけることである。 これは、初期固有状態を目標ハミルトニアンの固有状態にステアリングするために、システム制御パラメータを断定的に変更することで実現できる。 このような断熱的量子シミュレーションは、2つの超伝導量子ビットの回転フレームに制御可能で滑らかに変化するハミルトニアンを直接実装することで実証される。 各固有状態の進化は時間分解状態トモグラフィを用いて追跡される。 瞬時固有状態間のエネルギーギャップが選択され、測定したエネルギーと相関器で断熱的または断熱的通路のエネルギー遷移速度が観測される。 キュービットの有限 $t_1$ と $t_2$ によって引き起こされるエネルギー値の誤差は、短いプロトコル時間への外挿によって軽減される。

A typical goal of a quantum simulation is to find the energy levels and eigenstates of a given Hamiltonian. This can be realized by adiabatically varying the system control parameters to steer an initial eigenstate into the eigenstate of the target Hamiltonian. Such an adiabatic quantum simulation is demonstrated by directly implementing a controllable and smoothly varying Hamiltonian in the rotating frame of two superconducting qubits, including longitudinal and transverse fields and iSWAP-type two-qubit interactions. The evolution of each eigenstate is tracked using time-resolved state tomography. The energy gaps between instantaneous eigenstates are chosen such that depending on the energy transition rate either diabatic or adiabatic passages are observed in the measured energies and correlators. Errors in the obtained energy values induced by finite $T_1$ and $T_2$ times of the qubits are mitigated by extrapolation to short protocol times.
翻訳日:2023-01-11 06:51:35 公開日:2020-01-15
# qubit-qudit エンタングルメント証人の非線形改善

Nonlinear Improvement of Qubit-qudit Entanglement Witnesses ( http://arxiv.org/abs/2001.05269v1 )

ライセンス: Link先を確認
Shu-Qian Shen, Jin-Min Liang, Ming Li, Juan Yu, Shao-Ming Fei(参考訳) 絡み込み目撃者は、絡み込み検出のための重要かつ実験的に適用可能なツールである。 本稿では,2-\otimes d$ 量子系に対するエンタングルメント証人の非線形改善を提案する。 既存のエンタングルメントの証人と比較すると、分離性基準の改善は、局所観測可能性についてさらに2つの測定が必要なだけである。 一般的な、最適で非可逆な絡み合い証人に対する非線形改善の効率を説明するために、詳細な例が用いられる。

The entanglement witness is an important and experimentally applicable tool for entanglement detection. In this paper, we provide a nonlinear improvement of any entanglement witness for $2\otimes d$ quantum systems. Compared with any existing entanglement witness, the improved separability criterion only needs two more measurements on local observables. Detailed examples are employed to illustrate the efficiency of the nonlinear improvement for general, optimal and non-decomposable entanglement witnesses.
翻訳日:2023-01-11 06:51:18 公開日:2020-01-15
# 単一分子における量子トンネル法による収縮自由量子状態符号化

Contraction-free quantum state encoding by quantum tunneling in single molecules ( http://arxiv.org/abs/2001.05356v1 )

ライセンス: Link先を確認
Tomofumi Tada and Masateru Taniguchi(参考訳) 量子コンピューティングは、古典的なコンピュータでは達成できない膨大な性能を約束するユニークな計算手法であるが、実用的な量子コンピューティングシステムを実現するためにはいくつかの問題を解決しなければならない。 本稿では,単一分子を電極間に閉じ込めた量子コンピューティングの新しいシステムと理論を提案する。 このシステムの顕著な特徴は (i)量子トンネルを示す個々の分子は、量子ゲートの配列と見なすことができる。 (II)量子トンネルは、量子ビットの配列に符号化することができ、重ね合わせ状態の収縮なしに観察され、 (iii) 量子トンネルによる量子計算は室温で行うことができる。 アデニン分子は電極間の単一分子として採用され、コンダクタンス値はコンダクタンス値に応じて絡み合った状態を含む量子状態に符号化される。 新しい量子システムの応用として、量子トンネルによる量子コンピューティングに基づく分子同定が示されている。

Quantum computing is a unique computational approach that promises tremendous performance that cannot be achieved by classical computers, although several problems must be resolved to realize a practical quantum computing system for easy use. Here, we propose a new system and theory for quantum computing that employs single molecule confinement between electrodes. The striking features of this system are (i) an individual molecule that exhibits quantum tunneling can be regarded as a sequence of quantum gates, (ii) the quantum tunneling can be encoded onto an array of quantum bits and observed without the contraction of superposition states, and (iii) quantum computing by quantum tunneling can be performed at room temperature. An adenine molecule is adopted as the single molecule between electrodes, and conductance data are encoded onto quantum states including entangled states, depending on the conductance values. As an application of the new quantum system, molecule identification based on quantum computing by quantum tunneling is demonstrated.
翻訳日:2023-01-11 06:50:27 公開日:2020-01-15
# 複合パルスによるNOTゲートのロバスト制御

Robust control of a NOT gate by composite pulses ( http://arxiv.org/abs/2001.05441v1 )

ライセンス: Link先を確認
G. Dridi, M. Mejatty, S. J. Glaser and D. Sugny(参考訳) オフセットの不確かさと制御場の変化の両方に対してロバストな複合パルスによってnotゲートを実装するための一般的な手順を提案する。 この2パラメータ空間、すなわち1、2または全方向に沿って異なる強靭性を定義する。 合成パルスの位相が非線形系を満足し,解析的あるいは数値的に計算可能であることを示す。

We present a general procedure to implement a NOT gate by composite pulses robust against both offset uncertainties and control field variations. We define different degrees of robustness in this two-parameter space, namely along one, two or all directions. We show that the phases of the composite pulse satisfy a nonlinear system, and can be computed analytically or numerically.
翻訳日:2023-01-11 06:49:54 公開日:2020-01-15
# 動的電子スピン量子ビット間のSWAP動作による絡み合い生成

Entanglement generation via power-of-SWAP operations between dynamic electron-spin qubits ( http://arxiv.org/abs/2001.05502v1 )

ライセンス: Link先を確認
Hugo V. Lepage, Aleksander A. Lasek, David R. M. Arvidsson-Shukur, Crispin H. W. Barnes(参考訳) 表面音響波(SAW)は、圧電材料内で動く量子ドットを生成することができる。 ここでは、動的量子ドット上の電子スピン量子ビットがどのように絡み合うかを示す。 量子ドットエンタングルメント生成の従来の理論および数値モデルは、現実的な実験装置で量子力学を研究するには不十分である。 2次元半導体ヘテロ構造を介してsawによって搬送される2つの電子の波動関数ダイナミクスをシミュレートするために最先端のグラフィックス処理ユニットを利用する。 クーロン相互作用によるSWAPゲートの実装手法を構築した。 SAWアーキテクチャの利点は、静電気ポテンシャルを通じて量子ビットを輸送するコヒーレントな方法を提供することである。 このアーキテクチャにより、高速な制御パルスに関連する問題を避け、動作一貫性を保証し、静的なキュービットよりも利点を提供します。 二重占有エネルギーが二重ドートホッピングエネルギーより十分に大きいドート間バリアハイツでは、gaas/algaasヘテロ構造の実験に基づくパラメータが高忠実度なルートオブスワップ演算を生成することができる。 本研究は,動的量子コンピューティングの重要な構成要素となる方法論を提供する。

Surface acoustic waves (SAWs) can create moving quantum dots in piezoelectric materials. Here we show how electron-spin qubits located on dynamic quantum dots can be entangled. Previous theoretical and numerical models of quantum-dot entanglement generation have been insufficient to study quantum dynamics in realistic experimental devices. We utilize state-of-the-art graphics processing units to simulate the wave function dynamics of two electrons carried by a SAW through a 2D semiconductor heterostructure. We build a methodology to implement a power-of-SWAP gate via the Coulomb interaction. A benefit of the SAW architecture is that it provides a coherent way of transporting the qubits through an electrostatic potential. This architecture allows us to avoid problems associated with fast control pulses and guarantees operation consistency, providing an advantage over static qubits. For inter-dot barrier heights where the double occupation energy is sufficiently greater than the double-dot hopping energy, we find that parameters based on experiments in GaAs/AlGaAs heterostructures can produce a high-fidelity root-of-SWAP operation. Our results provide a methodology for a crucial component of dynamic-qubit quantum computing.
翻訳日:2023-01-11 06:49:13 公開日:2020-01-15
# ランキング畳み込みニューラルネットワークを用いた単一画像デハジング

Single Image Dehazing Using Ranking Convolutional Neural Network ( http://arxiv.org/abs/2001.05246v1 )

ライセンス: Link先を確認
Yafei Song and Jia Li and Xiaogang Wang and Xiaowu Chen(参考訳) 入力のぼやけた画像や霧のような画像のみから鮮明な画像を復元することを目的とした単一画像の脱ヘイジングは、困難な問題である。 既存のアプローチを分析する上で、一般的なステップは各ピクセルのヘイズ密度を推定することである。 この目的のために、様々なアプローチがしばしばヘイズ関連の特徴をヒューリスティックに設計する。 いくつかの最近の研究は、CNN(Convolutional Neural Networks)を直接活用することで、機能を自動的に学習する。 しかし、hazyイメージの固有の特性を完全に捉えるには不十分かもしれない。 単一画像のデハージングに有効な特徴を得るために,新しいランク付け畳み込みニューラルネットワーク(Ranking-CNN)を提案する。 ranking-cnnでは,ヘイジー画像の統計的特徴と構造的属性を同時に捉えるために,cnnの構造を拡張する新しいランキング層が提案されている。 ランキングcnnをよく設計された方法でトレーニングすることで、大量のヘイズ画像パッチから強力なヘイズ関連機能を自動学習することができる。 これらの特徴に基づき、ランダム森林回帰によって訓練されたヘイズ密度予測モデルを用いて、ヘイズを効果的に除去することができる。 実験の結果,本手法は,合成および実世界のベンチマーク画像に対する複数のデハジングアプローチよりも優れていることがわかった。 また,提案するランキングcnnを理論的および実験的な側面から解釈するために,包括的な解析を行った。

Single image dehazing, which aims to recover the clear image solely from an input hazy or foggy image, is a challenging ill-posed problem. Analysing existing approaches, the common key step is to estimate the haze density of each pixel. To this end, various approaches often heuristically designed haze-relevant features. Several recent works also automatically learn the features via directly exploiting Convolutional Neural Networks (CNN). However, it may be insufficient to fully capture the intrinsic attributes of hazy images. To obtain effective features for single image dehazing, this paper presents a novel Ranking Convolutional Neural Network (Ranking-CNN). In Ranking-CNN, a novel ranking layer is proposed to extend the structure of CNN so that the statistical and structural attributes of hazy images can be simultaneously captured. By training Ranking-CNN in a well-designed manner, powerful haze-relevant features can be automatically learned from massive hazy image patches. Based on these features, haze can be effectively removed by using a haze density prediction model trained through the random forest regression. Experimental results show that our approach outperforms several previous dehazing approaches on synthetic and real-world benchmark images. Comprehensive analyses are also conducted to interpret the proposed Ranking-CNN from both the theoretical and experimental aspects.
翻訳日:2023-01-11 06:43:25 公開日:2020-01-15
# 自動運転車におけるステレオカメラの補正

Correcting Decalibration of Stereo Cameras in Self-Driving Vehicles ( http://arxiv.org/abs/2001.05267v1 )

ライセンス: Link先を確認
Jon Muhovi\v{c}, Janez Per\v{s}(参考訳) 本稿では,特に自律走行車における移動型ステレオカメラの設定における光劣化問題に対処する。 実世界の条件下では、光学系は予想外の機械的ストレス(振動、粗いハンドリング、衝突)の様々な源泉に曝される。 機械的応力はステレオ対を構成するカメラ間の幾何学を変え、その結果、計算済みのエピポーラ幾何学はもはや有効ではない。 本手法は,カメラ幾何パラメータの最適化に基づいて,ステレオマッチングアルゴリズムの出力に直接接続する。 そのため,最小限の計算資源を使用せずに,分割ステレオシステムから得られた画像対の校正パラメータを復元することができる。 得られた深度画素の数は目的関数として利用され,最大化が目的である。 本手法はステレオ推定と並行して常に動作し,リアルタイムにシステムの校正を行うことができることを示す。 その結果,本手法は,絶対深度の読み出しをスケールするベースライン距離を除いて,すべてのパラメータを再調整できることが確認された。 しかし、そのスケーリング係数は、あらゆる種類の絶対距離探索方法(例えば、1ビームの飛行時間センサー)を使って一意に決定できる。

We address the problem of optical decalibration in mobile stereo camera setups, especially in context of autonomous vehicles. In real world conditions, an optical system is subject to various sources of anticipated and unanticipated mechanical stress (vibration, rough handling, collisions). Mechanical stress changes the geometry between the cameras that make up the stereo pair, and as a consequence, the pre-calculated epipolar geometry is no longer valid. Our method is based on optimization of camera geometry parameters and plugs directly into the output of the stereo matching algorithm. Therefore, it is able to recover calibration parameters on image pairs obtained from a decalibrated stereo system with minimal use of additional computing resources. The number of successfully recovered depth pixels is used as an objective function, which we aim to maximize. Our simulation confirms that the method can run constantly in parallel to stereo estimation and thus help keep the system calibrated in real time. Results confirm that the method is able to recalibrate all the parameters except for the baseline distance, which scales the absolute depth readings. However, that scaling factor could be uniquely determined using any kind of absolute range finding methods (e.g. a single beam time-of-flight sensor).
翻訳日:2023-01-11 06:43:02 公開日:2020-01-15
# 合成データセットを用いた深層学習による反射率マップと材料推定法

A Method for Estimating Reflectance map and Material using Deep Learning with Synthetic Dataset ( http://arxiv.org/abs/2001.05372v1 )

ライセンス: Link先を確認
Mingi Lim and Sung-eui Yoon(参考訳) 対象画像を内部特性に分解するプロセスは、問題の本質的な不適切な性質のため、難しい作業である。 ネットワークのトレーニングに必要なデータの不足は、分解する外観タスクが難しい理由の1つである。 本稿では,この画像分解操作で発生する問題を軽減するために,画像中の対象物体の物質推定のための深層学習に基づく反射率マップ予測システムを提案する。 また,双方向反射率分布関数(BRDF)パラメータ推定,環境マップ推定のためのネットワークアーキテクチャを提案する。 また、データ問題の欠如を解決するために合成データも使用します。 我々は,従来提案されていたReflectance MapのためのDeep Learningベースのネットワークアーキテクチャから脱却し,Reflectance Mapを推定するための条件付きGenerative Adversarial Network (cGAN) 構造を新たに提案する。 この構造における学習の効率を向上させるために,対象オブジェクトの正規マップを用いた損失関数を新たに活用した。

The process of decomposing target images into their internal properties is a difficult task due to the inherent ill-posed nature of the problem. The lack of data required to train a network is a one of the reasons why the decomposing appearance task is difficult. In this paper, we propose a deep learning-based reflectance map prediction system for material estimation of target objects in the image, so as to alleviate the ill-posed problem that occurs in this image decomposition operation. We also propose a network architecture for Bidirectional Reflectance Distribution Function (BRDF) parameter estimation, environment map estimation. We also use synthetic data to solve the lack of data problems. We get out of the previously proposed Deep Learning-based network architecture for reflectance map, and we newly propose to use conditional Generative Adversarial Network (cGAN) structures for estimating the reflectance map, which enables better results in many applications. To improve the efficiency of learning in this structure, we newly utilized the loss function using the normal map of the target object.
翻訳日:2023-01-11 06:42:47 公開日:2020-01-15
# 2次元ライダーとカメラ融合による室内レイアウト推定

Indoor Layout Estimation by 2D LiDAR and Camera Fusion ( http://arxiv.org/abs/2001.05422v1 )

ライセンス: Link先を確認
Jieyu Li, Robert L Stevenson(参考訳) 本稿では,画像列とLiDARデータセットの融合による屋内レイアウト推定と再構築のためのアルゴリズムを提案する。 提案システムでは,2次元LiDAR情報と強度画像の両方を移動プラットフォームで収集する。 画像からの線分にLiDAR点をアライメントすることで、ポーズ推定とセマンティックセグメンテーションを共同で計算する。 壁面が直交する屋内シーンでは、アライメント問題をトップダウンビュー投影と2次元類似性変換推定に分解し、再帰的ランダムサンプルコンセンサス(R-RANSAC)アルゴリズムで解決する。 仮説は、プラットフォームが環境中を移動するときに新しいスキャンを統合することで生成、評価、最適化することができる。 提案手法は,従来の室内レイアウト推定手法よりも効果的かつ実用的な,広範な事前トレーニングや立方体配置仮定の必要性を回避できる。 マルチセンサー融合は、正確な深度推定と高解像度の視覚情報を提供できる。

This paper presents an algorithm for indoor layout estimation and reconstruction through the fusion of a sequence of captured images and LiDAR data sets. In the proposed system, a movable platform collects both intensity images and 2D LiDAR information. Pose estimation and semantic segmentation is computed jointly by aligning the LiDAR points to line segments from the images. For indoor scenes with walls orthogonal to floor, the alignment problem is decoupled into top-down view projection and a 2D similarity transformation estimation and solved by the recursive random sample consensus (R-RANSAC) algorithm. Hypotheses can be generated, evaluated and optimized by integrating new scans as the platform moves throughout the environment. The proposed method avoids the need of extensive prior training or a cuboid layout assumption, which is more effective and practical compared to most previous indoor layout estimation methods. Multi-sensor fusion allows the capability of providing accurate depth estimation and high resolution visual information.
翻訳日:2023-01-11 06:42:31 公開日:2020-01-15
# UnOVOST:教師なしのオフラインビデオオブジェクトのセグメンテーションと追跡

UnOVOST: Unsupervised Offline Video Object Segmentation and Tracking ( http://arxiv.org/abs/2001.05425v1 )

ライセンス: Link先を確認
Jonathon Luiten, Idil Esen Zulfikar, Bastian Leibe(参考訳) UVOS(Unsupervised Video Object Segmentation)は、ビデオシーケンス内の正常なオブジェクトに対する正確なピクセルマスクを自動的に生成し、どのオブジェクトをトラッキングすべきかを入力することなく、時間を通して連続的に追跡するタスクである。 この課題を解決するために,UnOVOST(Unsupervised Offline Video Object Segmentation and Tracking)を,多種多様なオブジェクトの追跡とセグメント化が可能な,シンプルで汎用的なアルゴリズムとして提示する。 このアルゴリズムは、まずセグメントを時空間的に一貫した短いトラックレットにグループ化した後、視覚的類似性に基づいてこれらのトラックレットを長期一貫したオブジェクトトラックにマージする。 これを実現するために,我々は,この森林を長期一貫したオブジェクトトラックを形成する経路に分割する前に,トラック仮説の決定フォレストを構築する新しいフォレストパス切断データアソシエーションアルゴリズムを提案する。 DAVIS 2017 Unsupervised dataでは、平均的なJ&Fスコアが67.9%、テストデーブが58%、テストチャレンジベンチマークが56.4%で最先端のパフォーマンスが得られ、DAVIS 2019 Unsupervised Video Object Segmentation Challengeで1位になった。 UnOVOSTは多くの半教師付きビデオオブジェクトセグメンテーションアルゴリズムと競合するが、どのオブジェクトをトラックしてセグメンテーションすべきかという入力は与えられていない。

We address Unsupervised Video Object Segmentation (UVOS), the task of automatically generating accurate pixel masks for salient objects in a video sequence and of tracking these objects consistently through time, without any input about which objects should be tracked. Towards solving this task, we present UnOVOST (Unsupervised Offline Video Object Segmentation and Tracking) as a simple and generic algorithm which is able to track and segment a large variety of objects. This algorithm builds up tracks in a number stages, first grouping segments into short tracklets that are spatio-temporally consistent, before merging these tracklets into long-term consistent object tracks based on their visual similarity. In order to achieve this we introduce a novel tracklet-based Forest Path Cutting data association algorithm which builds up a decision forest of track hypotheses before cutting this forest into paths that form long-term consistent object tracks. When evaluating our approach on the DAVIS 2017 Unsupervised dataset we obtain state-of-the-art performance with a mean J &F score of 67.9% on the val, 58% on the test-dev and 56.4% on the test-challenge benchmarks, obtaining first place in the DAVIS 2019 Unsupervised Video Object Segmentation Challenge. UnOVOST even performs competitively with many semi-supervised video object segmentation algorithms even though it is not given any input as to which objects should be tracked and segmented.
翻訳日:2023-01-11 06:42:14 公開日:2020-01-15
# VSEC-LDA:埋め込み語彙選択によるトピックモデリングの強化

VSEC-LDA: Boosting Topic Modeling with Embedded Vocabulary Selection ( http://arxiv.org/abs/2001.05578v1 )

ライセンス: Link先を確認
Yuzhen Ding, Baoxin Li(参考訳) トピックモデリングは、データの潜在構造が典型的な推論タスクに不可欠である多くの問題で広く応用されている。 トピックモデルを適用する場合、比較的標準的な事前処理ステップは、まず頻繁な単語の語彙を構築することである。 このような一般的な前処理ステップは、しばしばトピックモデリング段階とは独立しているため、事前に生成された語彙が与えられたタスク、特に視覚的単語を含むコンピュータビジョンアプリケーションにおいて最適な(あるいは意味のある)トピックモデルの推論をサポートすることは保証されない。 本稿では,VSEC-LDA(Vocabulary-Embedded Correspondence-LDA)と呼ばれるトピックモデリングの新しいアプローチを提案する。 単語の選択は、基礎となるモデルに対する単語の相対的寄与を測定するエントロピーに基づく計量によって行われ、モデルが学習される間動的に行われる。 本稿では,VSEC-LDAの3つの変種について述べるとともに,異なるアプリケーションからの合成データベースと実データベースの実験により,提案手法の評価を行う。 その結果,組込み語彙選択の有効性と,トピック・モデリングの性能向上の重要性が示された。

Topic modeling has found wide application in many problems where latent structures of the data are crucial for typical inference tasks. When applying a topic model, a relatively standard pre-processing step is to first build a vocabulary of frequent words. Such a general pre-processing step is often independent of the topic modeling stage, and thus there is no guarantee that the pre-generated vocabulary can support the inference of some optimal (or even meaningful) topic models appropriate for a given task, especially for computer vision applications involving "visual words". In this paper, we propose a new approach to topic modeling, termed Vocabulary-Selection-Embedded Correspondence-LDA (VSEC-LDA), which learns the latent model while simultaneously selecting most relevant words. The selection of words is driven by an entropy-based metric that measures the relative contribution of the words to the underlying model, and is done dynamically while the model is learned. We present three variants of VSEC-LDA and evaluate the proposed approach with experiments on both synthetic and real databases from different applications. The results demonstrate the effectiveness of built-in vocabulary selection and its importance in improving the performance of topic modeling.
翻訳日:2023-01-11 06:41:30 公開日:2020-01-15
# グラバーアルゴリズムと量子フーリエ変換における絡み合い評価のためのメルミン多項式

Mermin Polynomials for Entanglement Evaluation in Grover's algorithm and Quantum Fourier Transform ( http://arxiv.org/abs/2001.05192v1 )

ライセンス: Link先を確認
Henri de Boutray, Hamza Jaffali, Fr\'ed\'eric Holweck, Alain Giorgetti, Pierre-Alain Masson(参考訳) 量子系の絡み合いはマーミン多項式を用いて評価することができる。 これにより、量子アルゴリズムの実行中に絡み合う進化を研究することができる。 まず、Groverの量子探索アルゴリズムについて検討し、アルゴリズム中の状態が1つの定数状態の方向に最大に絡み合っていて、単一の最適なMermin演算子を探索し、Groverのアルゴリズムの実行全体を通して絡み合いを評価することができることを示した。 その後、量子フーリエ変換もマーミン多項式で研究される。 異なる最適なメルミン演算子は、各実行ステップで探索されるが、この場合、進化の単一の方向は存在しない。 量子フーリエ変換の結果は、ケイリー超行列式との絡み合いに関する以前の研究結果と比較される。 私たちの計算はすべて、構造化されドキュメント化されたオープンソースコードによって再生できます。

The entanglement of a quantum system can be valuated using Mermin polynomials. This gives us a means to study entanglement evolution during the execution of quantum algorithms. We first consider Grover's quantum search algorithm, noticing that states during the algorithm are maximally entangled in the direction of a single constant state, which allows us to search for a single optimal Mermin operator and use it to evaluate entanglement through the whole execution of Grover's algorithm. Then the Quantum Fourier Transform is also studied with Mermin polynomials. A different optimal Mermin operator is searched at each execution step, since in this case there is no single direction of evolution. The results for the Quantum Fourier Transform are compared to results from a previous study of entanglement with Cayley hyperdeterminant. All our computations can be replayed thanks to a structured and documented open-source code that we provide.
翻訳日:2023-01-11 06:40:27 公開日:2020-01-15
# モンテカルロゲームソルバー

Monte Carlo Game Solver ( http://arxiv.org/abs/2001.05087v1 )

ライセンス: Link先を確認
Tristan Cazenave(参考訳) 我々は,正確な解法を高速化するために,動作を順序付けする一般的なアルゴリズムを提案する。 プレーアウトポリシーのオンライン学習とモンテカルロ木探索を利用する。 モンテカルロ木の学習ポリシーと情報は、ゲームソルバの移動を順序付けするために使用される。 複数のゲームの問題解決時間を大幅に改善する。

We present a general algorithm to order moves so as to speedup exact game solvers. It uses online learning of playout policies and Monte Carlo Tree Search. The learned policy and the information in the Monte Carlo tree are used to order moves in game solvers. They improve greatly the solving time for multiple games.
翻訳日:2023-01-11 06:33:05 公開日:2020-01-15
# GDPR準拠のためのOWL2のリアルタイム推論

Real Time Reasoning in OWL2 for GDPR Compliance ( http://arxiv.org/abs/2001.05390v1 )

ライセンス: Link先を確認
P.A. Bonatti, L. Ioffredo, I. Petrova, L. Sauro, I. R. Siahaan(参考訳) 本稿では,新たな欧州データ保護規制であるGDPRに準拠する組織を支援するために,知識表現と推論技術をどのように利用できるかを示す。 この作業は、欧州のh2020プロジェクト special で実施されている。 データ利用方針、データ主体の同意、GDPRの選択された断片は、PL (policy language)と呼ばれるOWL2の断片に符号化され、コンプライアンスチェックとポリシー検証は、サブクエストチェックと概念整合性チェックに還元される。 本研究は,GDPRによるPLの表現性要件と,SPECIALの産業パートナーによるユースケースから生じるスケーラビリティ要件との良好なトレードオフを提案する。 リアルタイムコンプライアンスチェックは、知識コンパイルと構造的仮定技術を活用したPLRと呼ばれる特殊な推論手法によって実現される。 PLRの試作実装の性能は系統的な実験によって分析され、他の重要な推論器の性能と比較される。 さらに,PL と PLR をどのように拡張して,よりリッチなオントロジーをサポートするかを示す。 PLとOWL2のプロファイルとの統合はOWL2の新しい抽出可能な断片を構成する。 また,PLにおける制約なし推論の難易度とオントロジーインポートに生じる制限について,いくつかの否定的な結果を示した。

This paper shows how knowledge representation and reasoning techniques can be used to support organizations in complying with the GDPR, that is, the new European data protection regulation. This work is carried out in a European H2020 project called SPECIAL. Data usage policies, the consent of data subjects, and selected fragments of the GDPR are encoded in a fragment of OWL2 called PL (policy language); compliance checking and policy validation are reduced to subsumption checking and concept consistency checking. This work proposes a satisfactory tradeoff between the expressiveness requirements on PL posed by the GDPR, and the scalability requirements that arise from the use cases provided by SPECIAL's industrial partners. Real-time compliance checking is achieved by means of a specialized reasoner, called PLR, that leverages knowledge compilation and structural subsumption techniques. The performance of a prototype implementation of PLR is analyzed through systematic experiments, and compared with the performance of other important reasoners. Moreover, we show how PL and PLR can be extended to support richer ontologies, by means of import-by-query techniques. PL and its integration with OWL2's profiles constitute new tractable fragments of OWL2. We prove also some negative results, concerning the intractability of unrestricted reasoning in PL, and the limitations posed on ontology import.
翻訳日:2023-01-11 06:32:56 公開日:2020-01-15
# 教師学習を用いた軽量3次元人文推定ネットワークトレーニング

Lightweight 3D Human Pose Estimation Network Training Using Teacher-Student Learning ( http://arxiv.org/abs/2001.05097v1 )

ライセンス: Link先を確認
Dong-Hyun Hwang, Suntae Kim, Nicolas Monet, Hideki Koike, Soonmin Bae(参考訳) 我々は、単一のRGBカメラを用いて3D人間のポーズをキャプチャする軽量なディープニューラルネットワークであるMoVNectを提案する。 モデル全体の性能を向上させるため,教師学習法に基づく知識蒸留を3次元ポーズ推定に適用した。 リアルタイムのポストプロセッシングにより、cnn出力は時間的に安定な3d骨格情報が得られる。 モバイルで動作する3Dアバターアプリケーションをリアルタイムに実装し,ネットワークが高精度かつ高速な推論時間を実現することを示す。 大規模な評価では,Human3.6Mデータセットとモバイルデバイス上での従来の3次元ポーズ推定手法よりも,トレーニング手法による軽量モデルの利点が示される。

We present MoVNect, a lightweight deep neural network to capture 3D human pose using a single RGB camera. To improve the overall performance of the model, we apply the teacher-student learning method based knowledge distillation to 3D human pose estimation. Real-time post-processing makes the CNN output yield temporally stable 3D skeletal information, which can be used in applications directly. We implement a 3D avatar application running on mobile in real-time to demonstrate that our network achieves both high accuracy and fast inference time. Extensive evaluations show the advantages of our lightweight model with the proposed training method over previous 3D pose estimation methods on the Human3.6M dataset and mobile devices.
翻訳日:2023-01-11 06:31:46 公開日:2020-01-15
# gaussian receptive fieldを用いたクラスアクティベーションマッピングの拡張

Extending Class Activation Mapping Using Gaussian Receptive Field ( http://arxiv.org/abs/2001.05153v1 )

ライセンス: Link先を確認
Bum Jun Kim, Gyogwon Koo, Hyeyeon Choi, and Sang Woo Kim(参考訳) 本稿では,ディープラーニングモデルの可視化タスクについて述べる。 クラスアクティベーションマッピング(CAM)に基づく可視化手法を改善するために,2つの選択肢を提案する。 まず,深層学習モデルの特徴を反映したアップサンプリング手法であるgaussian upsamplingを提案する。 第二に、既存のCAM研究の数学的導出における不自然な用語を特定し、修正する。 2つの選択肢に基づいて,CAMに基づく高度な可視化手法であるExtended-CAMを提案する。 実験結果から,Extended-CAMは既存手法よりも高精度な可視化を実現することが示された。

This paper addresses the visualization task of deep learning models. To improve Class Activation Mapping (CAM) based visualization method, we offer two options. First, we propose Gaussian upsampling, an improved upsampling method that can reflect the characteristics of deep learning models. Second, we identify and modify unnatural terms in the mathematical derivation of the existing CAM studies. Based on two options, we propose Extended-CAM, an advanced CAM-based visualization method, which exhibits improved theoretical properties. Experimental results show that Extended-CAM provides more accurate visualization than the existing methods.
翻訳日:2023-01-11 06:31:35 公開日:2020-01-15
# 移動カメラによる移動物体検出:総括的レビュー

Moving Objects Detection with a Moving Camera: A Comprehensive Review ( http://arxiv.org/abs/2001.05238v1 )

ライセンス: Link先を確認
Marie-Neige Chapel and Thierry Bouwmans(参考訳) 約30年間、多くの研究チームが、さまざまな困難な環境で動く物体を検出するという大きな課題に取り組んできた。 最初のアプリケーションは静止カメラに関するものだが、移動カメラに関するモバイルセンサーの研究が盛んに進んでいる。 そこで本研究では,文献にみられる異なる方法を特定し,分類することを提案する。 そこで本研究では,これらの手法をシーン表現の選択に応じて1面または複数の部分に分けて分類する。 これら2つのカテゴリでは、パノラマ背景サブトラクション、デュアルカメラ、モーション補償、サブスペースセグメンテーション、モーションセグメンテーション、プレーン+パララックス、マルチプレーン、ブロック分割イメージの8つのアプローチでグループ化されている。 静的カメラのためのメソッドのリマインダーと、静的カメラと移動カメラの両方の課題が提供されている。 本論文では,公開データセットと評価指標についても検討する。

During about 30 years, a lot of research teams have worked on the big challenge of detection of moving objects in various challenging environments. First applications concern static cameras but with the rise of the mobile sensors studies on moving cameras have emerged over time. In this survey, we propose to identify and categorize the different existing methods found in the literature. For this purpose, we propose to classify these methods according to the choose of the scene representation: one plane or several parts. Inside these two categories, the methods are grouped according to eight different approaches: panoramic background subtraction, dual cameras, motion compensation, subspace segmentation, motion segmentation, plane+parallax, multi planes and split image in blocks. A reminder of methods for static cameras is provided as well as the challenges with both static and moving cameras. Publicly available datasets and evaluation metrics are also surveyed in this paper.
翻訳日:2023-01-11 06:31:06 公開日:2020-01-15
# Blind-Spot畳み込みニューラルネットワークによる深層非教師付きSAR再検討

Towards Deep Unsupervised SAR Despeckling with Blind-Spot Convolutional Neural Networks ( http://arxiv.org/abs/2001.05264v1 )

ライセンス: Link先を確認
Andrea Bordone Molini, Diego Valsesia, Giulia Fracastoro, Enrico Magli(参考訳) SARの切り離しは、多くのシーン解析アルゴリズムの第一段階を示すため、リモートセンシングにおいて最も重要な問題である。 近年、ディープラーニング技術は古典的モデルに基づく非特定アルゴリズムよりも優れている。 しかし,このような手法では,クリーンなsar画像の取得ができないため,合成投機による光学画像の活用が求められている。 本稿では,近年の盲点認知ネットワークの研究に触発されて,ベイジアン解法を提案する。 提案手法はノイズ画像のみを用いて学習し,合成データではなく実sar画像の特徴を学習できる。 提案するネットワークの性能は,合成データに対する教師付きトレーニングアプローチと,実データ上での競争力に非常に近いことを示す。

SAR despeckling is a problem of paramount importance in remote sensing, since it represents the first step of many scene analysis algorithms. Recently, deep learning techniques have outperformed classical model-based despeckling algorithms. However, such methods require clean ground truth images for training, thus resorting to synthetically speckled optical images since clean SAR images cannot be acquired. In this paper, inspired by recent works on blind-spot denoising networks, we propose a self-supervised Bayesian despeckling method. The proposed method is trained employing only noisy images and can therefore learn features of real SAR images rather than synthetic data. We show that the performance of the proposed network is very close to the supervised training approach on synthetic data and competitive on real data.
翻訳日:2023-01-11 06:24:43 公開日:2020-01-15
# 3次元x線ctボリュームにおけるpleusible threat image projection(tip)のリファレンスアーキテクチャ

A Reference Architecture for Plausible Threat Image Projection (TIP) Within 3D X-ray Computed Tomography Volumes ( http://arxiv.org/abs/2001.05459v1 )

ライセンス: Link先を確認
Qian Wang, Najla Megherbi, Toby P. Breckon(参考訳) Threat Image Projection (TIP) は、X線セキュリティバッグのスクリーニングシステムで用いられる技法で、脅威オブジェクトのシグネチャを、良質で現実的な方法で、良質なX線バッグの画像に重畳する。 ヒトのオペレーターの現在進行中のパフォーマンスを評価するのに非常に効果的であることが示されており、脅威検出における警戒力と性能が向上している。 しかし, 3次元CTボリューム分割の困難さと適切な挿入位置の決定により, TIPを3次元CTボリュームに拡張する上で, ホールドおよびキャビンバッグの検診において, 航空セキュリティにおけるCTの使用が増加し, 重大な課題が生じた。 本稿では,3次元CT荷物画像内の現実的かつ確実な脅威オブジェクト挿入をターゲットとしたCTボリュームにおける3次元TIPのアプローチを提案する。 提案手法は、2つの脅威(ソース)と手荷物(ターゲット)ボリュームセグメンテーション、粒子群最適化に基づく挿入決定と金属アーティファクト生成からなる。 また,生成したチップボリュームの品質を評価するために,チップ品質スコア指標を提案する。 実3次元CT荷物画像の質的評価は,本手法が実3次元CT量と区別できない現実的かつ妥当なTIPを生成することができ,TIP品質スコアは人間の評価と一致していることを示している。

Threat Image Projection (TIP) is a technique used in X-ray security baggage screening systems that superimposes a threat object signature onto a benign X-ray baggage image in a plausible and realistic manner. It has been shown to be highly effective in evaluating the ongoing performance of human operators, improving their vigilance and performance on threat detection. However, with the increasing use of 3D Computed Tomography (CT) in aviation security for both hold and cabin baggage screening a significant challenge arises in extending TIP to 3D CT volumes due to the difficulty in 3D CT volume segmentation and the proper insertion location determination. In this paper, we present an approach for 3D TIP in CT volumes targeting realistic and plausible threat object insertion within 3D CT baggage images. The proposed approach consists of dual threat (source) and baggage (target) volume segmentation, particle swarm optimisation based insertion determination and metal artefact generation. In addition, we propose a TIP quality score metric to evaluate the quality of generated TIP volumes. Qualitative evaluations on real 3D CT baggage imagery show that our approach is able to generate realistic and plausible TIP which are indiscernible from real CT volumes and the TIP quality scores are consistent with human evaluations.
翻訳日:2023-01-11 06:24:30 公開日:2020-01-15
# ANNを用いた網膜血管構造の高次分割

Supervised Segmentation of Retinal Vessel Structures Using ANN ( http://arxiv.org/abs/2001.05549v1 )

ライセンス: Link先を確認
Esra Kaya, \.Ismail Sar{\i}ta\c{s}, Ilker Ali Ozkan(参考訳) 本研究では, 人工ニューラルネットワーク(ANN)を用いて, RGB画像のグリーンチャネル上で, 教師付き網膜血管セグメンテーション処理を行った。 網膜血管構造がRGB画像のグリーンチャネルと最も明確に区別できるため、グリーンチャネルが好ましい。 この研究は、既知の最も一般的な網膜データセットの1つであるドライブデータセットの20の画像を用いて行われた。 画像は、コントラスト制限適応ヒストグラム等化(clahe)、色強度調整、形態素演算、中央およびガウスフィルタなどの前処理段階を経て、良好なセグメンテーションを得る。 網膜血管構造はトップハットとボットハットの形態的操作で強調され,大域しきい値を用いたバイナリ画像に変換された。 そして、ネットワークはデータセット内のトレーニング画像として指定された画像のバイナリバージョンでトレーニングされ、ターゲットは専門家によって手動で分割された画像である。 20枚の画像の平均セグメンテーション精度は0.9492である。

In this study, a supervised retina blood vessel segmentation process was performed on the green channel of the RGB image using artificial neural network (ANN). The green channel is preferred because the retinal vessel structures can be distinguished most clearly from the green channel of the RGB image. The study was performed using 20 images in the DRIVE data set which is one of the most common retina data sets known. The images went through some preprocessing stages like contrastlimited adaptive histogram equalization (CLAHE), color intensity adjustment, morphological operations and median and Gaussian filtering to obtain a good segmentation. Retinal vessel structures were highlighted with top-hat and bot-hat morphological operations and converted to binary image by using global thresholding. Then, the network was trained by the binary version of the images specified as training images in the dataset and the targets are the images segmented manually by a specialist. The average segmentation accuracy for 20 images was found as 0.9492.
翻訳日:2023-01-11 06:23:50 公開日:2020-01-15
# DeepSUM++: 未登録マルチテンポラル画像の超解像のための非局所ディープニューラルネットワーク

DeepSUM++: Non-local Deep Neural Network for Super-Resolution of Unregistered Multitemporal Images ( http://arxiv.org/abs/2001.06342v1 )

ライセンス: Link先を確認
Andrea Bordone Molini, Diego Valsesia, Giulia Fracastoro, Enrico Magli(参考訳) 欧州宇宙機関(esa)が提唱した課題により、複数の未登録の低解像度画像からリモートセンシングシーンを超解像するためのディープラーニング手法が最近注目を集めている。 本稿では,非局所的な情報を畳み込みニューラルネットワークに組み込むことによって,超解像問題の正規化を促進する自己相似パターンを活用できることを示す。 課題のデータセットの実験では、非ローカル情報を活用しない最先端技術よりもパフォーマンスが向上した。

Deep learning methods for super-resolution of a remote sensing scene from multiple unregistered low-resolution images have recently gained attention thanks to a challenge proposed by the European Space Agency. This paper presents an evolution of the winner of the challenge, showing how incorporating non-local information in a convolutional neural network allows to exploit self-similar patterns that provide enhanced regularization of the super-resolution problem. Experiments on the dataset of the challenge show improved performance over the state-of-the-art, which does not exploit non-local information.
翻訳日:2023-01-11 06:23:33 公開日:2020-01-15
# 常識物語生成のための知識強化事前学習モデル

A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation ( http://arxiv.org/abs/2001.05139v1 )

ライセンス: Link先を確認
Jian Guan, Fei Huang, Zhihao Zhao, Xiaoyan Zhu, Minlie Huang(参考訳) ストーリー生成、すなわち、リードコンテキストから合理的なストーリーを生成することは、重要だが挑戦的なタスクである。 フラエンシのモデリングと局所コヒーレンスの成功にもかかわらず、既存のニューラルネットワーク生成モデル(例えば、GPT-2)は繰り返し、論理的矛盾、生成したストーリーにおける長距離コヒーレンスの欠如に悩まされている。 これは、関連するコモンセンス知識の関連付け、因果関係の理解、適切な時間順によるエンティティやイベントの計画が困難であったためと推測する。 本稿では,コモンセンスストーリー生成のための知識エンハンスド事前学習モデルを考案する。 本稿では,外部知識ベースからの常識知識を活用し,合理的なストーリーを生み出すことを提案する。 合理的なストーリーにおける文間の因果関係と時間的依存性をさらに把握するために,実話と偽話とを微調整時に区別するための判別目的を組み合わせるマルチタスク学習を用いる。 自動的および手動的な評価は、我々のモデルが最先端のベースライン、特に論理とグローバルコヒーレンスの観点からより合理的なストーリーを生成できることを示している。

Story generation, namely generating a reasonable story from a leading context, is an important but challenging task. In spite of the success in modeling fluency and local coherence, existing neural language generation models (e.g., GPT-2) still suffer from repetition, logic conflicts, and lack of long-range coherence in generated stories. We conjecture that this is because of the difficulty of associating relevant commonsense knowledge, understanding the causal relationships, and planning entities and events with proper temporal order. In this paper, we devise a knowledge-enhanced pretraining model for commonsense story generation. We propose to utilize commonsense knowledge from external knowledge bases to generate reasonable stories. To further capture the causal and temporal dependencies between the sentences in a reasonable story, we employ multi-task learning which combines a discriminative objective to distinguish true and fake stories during fine-tuning. Automatic and manual evaluation shows that our model can generate more reasonable stories than state-of-the-art baselines, particularly in terms of logic and global coherence.
翻訳日:2023-01-11 06:22:41 公開日:2020-01-15
# 都市・郊外ガーナにおけるlte経路損失予測のための伝搬モデルの改善

Improved propagation models for lte path loss prediction in urban & suburban Ghana ( http://arxiv.org/abs/2001.05227v1 )

ライセンス: Link先を確認
James D. Gadze, Kwame A. Agyekum, Stephen J. Nuagah and E.A. Affum(参考訳) LTEセルラーネットワークの利点を最大化するためには、慎重に適切なプランニングが必要である。 これは基地局配備に必要な経路損失を定量化するために正確な伝播モデルを使用する必要がある。 ガーナに展開されたLTEネットワークは、要求される100Mbpsのスループットをほとんど満たさないため、顧客の不満に繋がる。 ネットワークオペレータは、他の環境に適した組込み伝播モデルを持つ一般化された環境向けに設計された送信計画ツールに依存している。 したがって、ガーナの送信ネットワークプランナーにとっての課題は、ガーナの環境に最適な正確かつ正確な伝播モデルを選択することである。 これを踏まえ、ガーナの都市・郊外で800MHzと2600MHzのLTEパス損失測定を行い、6つの一般的な伝搬モデルと比較した。 本研究で開発されたEricson, SUI, ECC-33の改良版は, 一般的な伝搬モデルと比較して, ガーナ環境の経路損失をより正確に予測する。

To maximize the benefits of LTE cellular networks, careful and proper planning is needed. This requires the use of accurate propagation models to quantify the path loss required for base station deployment. Deployed LTE networks in Ghana can barely meet the desired 100Mbps throughput leading to customer dissatisfaction. Network operators rely on transmission planning tools designed for generalized environments that come with already embedded propagation models suited to other environments. A challenge therefore to Ghanaian transmission Network planners will be choosing an accurate and precise propagation model that best suits the Ghanaian environment. Given this, extensive LTE path loss measurements at 800MHz and 2600MHz were taken in selected urban and suburban environments in Ghana and compared with 6 commonly used propagation models. Improved versions of the Ericson, SUI, and ECC-33 developed in this study predict more precisely the path loss in Ghanaian environments compared with commonly used propagation models.
翻訳日:2023-01-11 06:22:20 公開日:2020-01-15
# 多孔質媒質における物理インフォームド深層学習 Buckley Leverett 問題

Physics Informed Deep Learning for Transport in Porous Media. Buckley Leverett Problem ( http://arxiv.org/abs/2001.05172v1 )

ライセンス: Link先を確認
Cedric G. Fraces, Adrien Papaioannou, Hamdi Tchelepi(参考訳) 貯水池モデリングのためのハイブリッド物理に基づく機械学習手法を提案する。 この手法は、物理に基づく正則化を伴う一連の深い敵対的ニューラルネットワークアーキテクチャに依存している。 このネットワークは、物理量(すなわち飽和)の動的挙動を、一連の統治法(例えば、質量保存)と対応する境界および初期条件に従ってシミュレートするために使用される。 支配的部分微分方程式から残留方程式を形成し、訓練の一部として使用する。 推定物理量の微分は自動微分アルゴリズムを用いて計算される。 これにより、分散を低減し、生成型逆ネットワークの分布出力から暗黙的に導出される不確実性を含むトレーニングデータの範囲を超えて外挿を行うことで、過剰フィッティングを回避することができる。 この手法は、2相不相輸送問題(Buckley Leverett)をシミュレートするために用いられる。 非常に限られたデータセットから、モデルは支配方程式のパラメータを学習し、ショックとレアフィケーションの両方の観点から正確な物理解を提供することができる。 本手法が連続問題に対する前方シミュレーションの文脈でどのように適用できるかを実証する。 逆問題に対するこれらのモデルの使用も示され、モデルが物理法則を同時に学習し、重要な不確かさの地下パラメータを決定する。 提案手法は、機械学習アルゴリズムに物理知識を注入するシンプルでエレガントな方法である。 これにより、大規模なデータセットの要求と外挿の信頼性という、機械学習アルゴリズムの最も重要な2つの欠点が軽減される。 本論文で提示される原理は, 今後, 数えきれないほど一般化され, フォワード問題と逆問題の両方を解決する新しいアルゴリズムのクラスへと導かれる。

We present a new hybrid physics-based machine-learning approach to reservoir modeling. The methodology relies on a series of deep adversarial neural network architecture with physics-based regularization. The network is used to simulate the dynamic behavior of physical quantities (i.e. saturation) subject to a set of governing laws (e.g. mass conservation) and corresponding boundary and initial conditions. A residual equation is formed from the governing partial-differential equation and used as part of the training. Derivatives of the estimated physical quantities are computed using automatic differentiation algorithms. This allows the model to avoid overfitting, by reducing the variance and permits extrapolation beyond the range of the training data including uncertainty implicitely derived from the distribution output of the generative adversarial networks. The approach is used to simulate a 2 phase immiscible transport problem (Buckley Leverett). From a very limited dataset, the model learns the parameters of the governing equation and is able to provide an accurate physical solution, both in terms of shock and rarefaction. We demonstrate how this method can be applied in the context of a forward simulation for continuous problems. The use of these models for the inverse problem is also presented, where the model simultaneously learns the physical laws and determines key uncertainty subsurface parameters. The proposed methodology is a simple and elegant way to instill physical knowledge to machine-learning algorithms. This alleviates the two most significant shortcomings of machine-learning algorithms: the requirement for large datasets and the reliability of extrapolation. The principles presented in this paper can be generalized in innumerable ways in the future and should lead to a new class of algorithms to solve both forward and inverse physical problems.
翻訳日:2023-01-11 06:16:21 公開日:2020-01-15
# 進化計算と深部強化学習を用いたロボットグラス操作

Robotic Grasp Manipulation Using Evolutionary Computing and Deep Reinforcement Learning ( http://arxiv.org/abs/2001.05443v1 )

ライセンス: Link先を確認
Priya Shukla, Hitesh Kumar and G. C. Nandi(参考訳) 把握のための知的物体操作はロボットにとって難しい問題である。 ロボットとは異なり、人間は長年の学習によって、物をつかむための操作方法をすぐに知っている。 大人の女性は、何年もかけて発達した学習スキルのため、子供よりも巧みに物体をつかむことができ、今日ではロボットによる把持がなければ、人間の物体をつかむベンチマークよりも高いパフォーマンスを発揮できない。 本稿では,この問題を位置学習と方向学習の両方に分解することで,ポーズ推定に基づく学習の課題を提起する。 More specifically, for grasp position estimation, we explore three different methods - a Genetic Algorithm (GA) based optimization method to minimize error between calculated image points and predicted end-effector (EE) position, a regression based method (RM) where collected data points of robot EE and image points have been regressed with a linear model, a PseudoInverse (PI) model which has been formulated in the form of a mapping matrix with robot EE position and image points for several observations. さらに,グラスプ深度Q-Network (GDQN) と呼ばれる深度強化学習(DRL)モデルを開発し,修正VGG16 (MVGG16) を用いて評価を行った。 厳密な実験により、最適化問題や探索問題に対して、非常に高品質なソリューションを生成する能力があるため、gaベースの予測器は他の2つのモデルよりも高い位置推定性能を発揮することが示されている。 配向学習の結果から,GDQNによるオフポリシー学習は,GDQNアーキテクチャを特に強化学習に適したものにするため,MVGG16より優れていることが示唆された。 提案したアーキテクチャとアルゴリズムに基づいて、ロボットは通常の形状の剛体物体をすべて把握することができる。

Intelligent Object manipulation for grasping is a challenging problem for robots. Unlike robots, humans almost immediately know how to manipulate objects for grasping due to learning over the years. A grown woman can grasp objects more skilfully than a child because of learning skills developed over years, the absence of which in the present day robotic grasping compels it to perform well below the human object grasping benchmarks. In this paper we have taken up the challenge of developing learning based pose estimation by decomposing the problem into both position and orientation learning. More specifically, for grasp position estimation, we explore three different methods - a Genetic Algorithm (GA) based optimization method to minimize error between calculated image points and predicted end-effector (EE) position, a regression based method (RM) where collected data points of robot EE and image points have been regressed with a linear model, a PseudoInverse (PI) model which has been formulated in the form of a mapping matrix with robot EE position and image points for several observations. Further for grasp orientation learning, we develop a deep reinforcement learning (DRL) model which we name as Grasp Deep Q-Network (GDQN) and benchmarked our results with Modified VGG16 (MVGG16). Rigorous experimentations show that due to inherent capability of producing very high-quality solutions for optimization problems and search problems, GA based predictor performs much better than the other two models for position estimation. For orientation learning results indicate that off policy learning through GDQN outperforms MVGG16, since GDQN architecture is specially made suitable for the reinforcement learning. Based on our proposed architectures and algorithms, the robot is capable of grasping all rigid body objects having regular shapes.
翻訳日:2023-01-11 06:15:41 公開日:2020-01-15
# 複合凸最小化のための二元平均2次元法

Accelerated Dual-Averaging Primal-Dual Method for Composite Convex Minimization ( http://arxiv.org/abs/2001.05537v1 )

ライセンス: Link先を確認
Conghui Tan, Yuqiu Qian, Shiqian Ma, Tong Zhang(参考訳) デュアル平均化方式は、ソリューション構造(例えば、疎性)を効率的に促進できるため、産業機械学習アプリケーションで広く使われている。 本稿では,複合凸関数を最小化するための2次元高速化アルゴリズムを提案する。 また,経験的リスク最小化を解く手法の確率的バージョンを導出し,スパースデータ処理におけるその利点を理論的にも経験的にも示す。

Dual averaging-type methods are widely used in industrial machine learning applications due to their ability to promoting solution structure (e.g., sparsity) efficiently. In this paper, we propose a novel accelerated dual-averaging primal-dual algorithm for minimizing a composite convex function. We also derive a stochastic version of the proposed method which solves empirical risk minimization, and its advantages on handling sparse data are demonstrated both theoretically and empirically.
翻訳日:2023-01-11 06:14:28 公開日:2020-01-15
# 対称およびハイブリッド双線形モデルによる懐疑的セズール分類

Epileptic Seizure Classification with Symmetric and Hybrid Bilinear Models ( http://arxiv.org/abs/2001.06282v1 )

ライセンス: Link先を確認
Tennison Liu, Nhan Duy Truong, Armin Nikpour, Luping Zhou, Omid Kavehei(参考訳) てんかんは世界の人口の約1%に影響を及ぼし、そのうち3分の2は抗てんかん薬で治療され、手術でより少ない割合で治療される。 てんかんとモニタリングの診断は高度に専門的で労働集約的である。 診断の精度は、医療症状の重複、様々なレベルの経験、および臨床専門職におけるサーバ間変動によっても複雑である。 本稿では, てんかん分類診断に応用できる新しいハイブリッド型バイリニア深層学習ネットワークを提案し, 表面脳波(seeg)と視聴覚モニタリングの利用が一般的である。 CNN(Convolutional Neural Networks)とRNN(Recurrent Neural Networks)という,2種類の特徴抽出器に基づくハイブリッド双線形モデルは,1秒間sEEGの短時間フーリエ変換(STFT)を用いて訓練される。 提案したハイブリッドモデルでは、CNNは時空間パターンを抽出し、RNNは、同じ入力データから比較的長い間隔で時間的ダイナミクスの特性に焦点を当てる。 これらの時空間的特徴間の相互作用に基づく2次特徴は、双線形プール法によりさらに探索され、てんかん分類に用いられる。 提案手法は, テンプル大学病院清水社で97.4%, EPILEPSIAEデータセットで97.2%のF1スコアを得る。 本研究のオープンソース実装はhttps://github.com/NeuroSyd/Epileptic-Seizure-Classificationで公開されている。

Epilepsy affects nearly 1% of the global population, of which two thirds can be treated by anti-epileptic drugs and a much lower percentage by surgery. Diagnostic procedures for epilepsy and monitoring are highly specialized and labour-intensive. The accuracy of the diagnosis is also complicated by overlapping medical symptoms, varying levels of experience and inter-observer variability among clinical professions. This paper proposes a novel hybrid bilinear deep learning network with an application in the clinical procedures of epilepsy classification diagnosis, where the use of surface electroencephalogram (sEEG) and audiovisual monitoring is standard practice. Hybrid bilinear models based on two types of feature extractors, namely Convolutional Neural Networks (CNNs) and Recurrent Neural Networks (RNNs), are trained using Short-Time Fourier Transform (STFT) of one-second sEEG. In the proposed hybrid models, CNNs extract spatio-temporal patterns, while RNNs focus on the characteristics of temporal dynamics in relatively longer intervals given the same input data. Second-order features, based on interactions between these spatio-temporal features are further explored by bilinear pooling and used for epilepsy classification. Our proposed methods obtain an F1-score of 97.4% on the Temple University Hospital Seizure Corpus and 97.2% on the EPILEPSIAE dataset, comparing favourably to existing benchmarks for sEEG-based seizure type classification. The open-source implementation of this study is available at https://github.com/NeuroSyd/Epileptic-Seizure-Classification
翻訳日:2023-01-11 06:14:20 公開日:2020-01-15
# Teddy:インタラクティブレビュー分析システム

Teddy: A System for Interactive Review Analysis ( http://arxiv.org/abs/2001.05171v1 )

ライセンス: Link先を確認
Xiong Zhang and Jonathan Engel and Sara Evensen and Yuliang Li and \c{C}a\u{g}atay Demiralp and Wang-Chiew Tan(参考訳) レビューはeコマースサービスや製品に不可欠なものだ。 ユーザの意見や経験に関する豊富な情報が含まれており、消費者の判断をよりよく理解し、製品やサービスのユーザエクスペリエンスを改善するのに役立つ。 今日、データサイエンティストは、レビューテキストに埋め込まれた情報を抽出、集約、理解するためのルールとモデルを開発することでレビューを分析する。 しかし、ノイズの多い不完全なテキストである何千ものレビューを扱うことは、適切なツールなしでは厄介なことになる。 ここではまず,レビューテキストを扱う15人のデータサイエンティストを対象に,その実践と課題に関する洞察を提供するインタビュー調査を行った。 その結果、データサイエンティストは多数のレビュー分析タスクにインタラクティブなシステムが必要であることが示唆された。 それに応えて,データサイエンティストがレビューから素早く洞察を得て,その抽出とモデリングパイプラインを改善するための,インタラクティブなシステムであるteddyを紹介します。

Reviews are integral to e-commerce services and products. They contain a wealth of information about the opinions and experiences of users, which can help better understand consumer decisions and improve user experience with products and services. Today, data scientists analyze reviews by developing rules and models to extract, aggregate, and understand information embedded in the review text. However, working with thousands of reviews, which are typically noisy incomplete text, can be daunting without proper tools. Here we first contribute results from an interview study that we conducted with fifteen data scientists who work with review text, providing insights into their practices and challenges. Results suggest data scientists need interactive systems for many review analysis tasks. In response we introduce Teddy, an interactive system that enables data scientists to quickly obtain insights from reviews and improve their extraction and modeling pipelines.
翻訳日:2023-01-11 06:06:23 公開日:2020-01-15
# ランダム化探索ヒューリスティックスのパラメータ化複雑性解析

Parameterized Complexity Analysis of Randomized Search Heuristics ( http://arxiv.org/abs/2001.05120v1 )

ライセンス: Link先を確認
Frank Neumann and Andrew M. Sutton(参考訳) この章は、パラメータ化アルゴリズムの理論を進化アルゴリズムのようなランダム化探索ヒューリスティックの実行時間解析に適用する多くの結果をまとめている。 パラメータ化アプローチは、古典的複雑性理論の従来のアプローチよりも詳細に組合せ問題を解くアルゴリズムの実行時間を特徴付ける。 本稿では, グラフ内の頂点被覆の最小化, グラフ内の葉面積の最大化, 旅行セールスパーソン問題など, NPハードな組合せ最適化問題を解くために, ランダム化された探索ヒューリスティックの集合と証明手法について概説する。

This chapter compiles a number of results that apply the theory of parameterized algorithmics to the running-time analysis of randomized search heuristics such as evolutionary algorithms. The parameterized approach articulates the running time of algorithms solving combinatorial problems in finer detail than traditional approaches from classical complexity theory. We outline the main results and proof techniques for a collection of randomized search heuristics tasked to solve NP-hard combinatorial optimization problems such as finding a minimum vertex cover in a graph, finding a maximum leaf spanning tree in a graph, and the traveling salesperson problem.
翻訳日:2023-01-11 06:06:09 公開日:2020-01-15
# 軸受専用運動解析における遺伝的アルゴリズムの解析

Analysis of Genetic Algorithm on Bearings-Only Target Motion Analysis ( http://arxiv.org/abs/2001.05381v1 )

ライセンス: Link先を確認
Erdem Kose(参考訳) 軸受角度のみを用いた目標運動解析は水中の目標追跡にとって重要な研究である。 カルマン型フィルタや進化戦略を含むいくつかの手法が優れた予測子を得るために用いられる。 カルマンのようなフィルターは期待された結果を得ることができなかったので、進化戦略はこの領域で長い間使われてきた。 遺伝的アルゴリズムを用いた目標運動解析は、ベアリング専用目標運動解析の最も成功した手法である。 共分散行列適応進化戦略は、遺伝的アルゴリズムを用いたターゲット運動解析と同じような研究を行い、試行したが、統計的フィードバック機構を持ち、他の手法よりも早く収束する。 本研究では,その方法を比較して批判する。

Target motion analysis using only bearing angles is an important study for tracking targets in water. Several methods including Kalman-like filters and evolutionary strategies are used to get a good predictor. Kalman-like filters couldn't get the expected results thus evolutionary strategies have been using in this area for a long time. Target Motion Analysis with Genetic Algorithm is the most successful method for Bearings-Only Target Motion Analysis and we investigated it. We found that Covariance Matrix Adaptation Evolutionary Strategies does the similar work with Target Motion Analysis with Genetic Algorithm and tried it; but it has statistical feedback mechanism and converges faster than other methods. In this study, we compared and criticize the methods.
翻訳日:2023-01-11 06:05:59 公開日:2020-01-15
# AAAI FSS-19: AIモデルとデータの信頼性

AAAI FSS-19: Human-Centered AI: Trustworthiness of AI Models and Data Proceedings ( http://arxiv.org/abs/2001.05375v1 )

ライセンス: Link先を確認
Florian Buettner, John Piorkowski, Ian McCulloh, Ulli Waltinger(参考訳) 現実世界のアプリケーションで意思決定を導くAIシステムが広く受け入れられるようになるためには、ソリューションが信頼できる統合された人間AIシステムを構成することが重要である。 自動運転や医療といった安全クリティカルな応用だけでなく、産業や政府のダイナミックなオープンワールドシステムにおいても、予測モデルが不確実性を認識し、信頼できる予測をもたらすことが不可欠である。 aiを企業規模で展開するためのもうひとつの重要な要件は、人間がシステムを効果的に使用できるように、人間中心の設計をaiシステムに統合することの重要性を認識し、結果とアウトプットを理解し、委員会に調査結果を説明することである。 このシンポジウムの焦点は、データ品質と技術的堅牢性と安全性を改善するAIシステムであったが、我々は広く定義された分野からの応募を歓迎し、説明可能なモデル、人間の信頼、AIの倫理的側面といった要件に対処するアプローチについても議論した。

To facilitate the widespread acceptance of AI systems guiding decision-making in real-world applications, it is key that solutions comprise trustworthy, integrated human-AI systems. Not only in safety-critical applications such as autonomous driving or medicine, but also in dynamic open world systems in industry and government it is crucial for predictive models to be uncertainty-aware and yield trustworthy predictions. Another key requirement for deployment of AI at enterprise scale is to realize the importance of integrating human-centered design into AI systems such that humans are able to use systems effectively, understand results and output, and explain findings to oversight committees. While the focus of this symposium was on AI systems to improve data quality and technical robustness and safety, we welcomed submissions from broadly defined areas also discussing approaches addressing requirements such as explainable models, human trust and ethical aspects of AI.
翻訳日:2023-01-11 06:05:48 公開日:2020-01-15
# 線探索を用いた確率的非負関連勾配投影点の探索による学習率の適応化

Resolving learning rates adaptively by locating Stochastic Non-Negative Associated Gradient Projection Points using line searches ( http://arxiv.org/abs/2001.05113v1 )

ライセンス: Link先を確認
Dominic Kafka and Daniel N. Wilke(参考訳) 確率的ニューラルネットワークトレーニングの学習速度は現在、高価な手動または自動反復チューニングを使用して、トレーニングに先立って決定される。 本研究では,ニューラルネットワーク学習アルゴリズムの学習率を解くために,勾配のみの線探索を提案する。 トレーニング中の確率的なサブサンプリングは計算コストを削減し、最適化アルゴリズムを局所的なミニマを超えて前進させることができる。 しかし、それはまた不連続なコスト関数をもたらす。 最小化線探索はこの文脈では有効ではなく、不連続なコスト関数に存在しない不連続な微分(第一次最適条件)を使い、従ってデータトレンドの最小化とは対照的に不連続性に収束する。 代わりに、探索方向に沿った候補解を純粋に勾配情報に基づいており、特に、方向微分符号が負から正に変化する(非負の連想勾配射影点(NN-GPP))。 負から正への符号変更を考慮すれば、常に最小となるため、nn-gppsは第2次情報を含む。 逆に、消失勾配は純粋に第一次条件であり、最小、最大、または鞍点を示す。 この洞察により、探索方向に沿ったステップサイズとしてアルゴリズムの学習率が確実に解決され、収束性能が向上し、その他の高価なハイパーパラメータを排除できる。

Learning rates in stochastic neural network training are currently determined a priori to training, using expensive manual or automated iterative tuning. This study proposes gradient-only line searches to resolve the learning rate for neural network training algorithms. Stochastic sub-sampling during training decreases computational cost and allows the optimization algorithms to progress over local minima. However, it also results in discontinuous cost functions. Minimization line searches are not effective in this context, as they use a vanishing derivative (first order optimality condition), which often do not exist in a discontinuous cost function and therefore converge to discontinuities as opposed to minima from the data trends. Instead, we base candidate solutions along a search direction purely on gradient information, in particular by a directional derivative sign change from negative to positive (a Non-negative Associative Gradient Projection Point (NN- GPP)). Only considering a sign change from negative to positive always indicates a minimum, thus NN-GPPs contain second order information. Conversely, a vanishing gradient is purely a first order condition, which may indicate a minimum, maximum or saddle point. This insight allows the learning rate of an algorithm to be reliably resolved as the step size along a search direction, increasing convergence performance and eliminating an otherwise expensive hyperparameter.
翻訳日:2023-01-11 06:05:17 公開日:2020-01-15
# 分割モデルのベイズ比較を用いた相互独立パターンの自動抽出

Automated extraction of mutual independence patterns using Bayesian comparison of partition models ( http://arxiv.org/abs/2001.05407v1 )

ライセンス: Link先を確認
Guillaume Marrelec and Alain Giron(参考訳) 相互独立性は、変数間の構造的関係を特徴づける統計学の重要な概念である。 相互独立性を調べる既存の方法は、2つの競合するモデルの定義に依存しており、1つはもう1つのモデルにネストされ、関心のある統計量に対してヌル分布を生成するために使われる。 したがって、これらのメソッドは適用範囲が非常に制限されている。 本論文では,特定の場合のみ適用可能な仮説駆動タスクから,相互独立のパターン内のブラインド探索と自動探索へと,相互独立性の検討を変えることを提案する。 この目的のために、我々はこの問題をベイズフレームワークで解決したモデル比較の1つとして扱う。 多変量正規分布とクロスクラス化された多項分布の場合、そのような手法と既存の手法の関係を示す。 相互独立性のすべてのパターンの空間上の後方分布を数値的に近似する一般マルコフ連鎖モンテカルロ(mcmc)アルゴリズムを提案する。 この手法の妥当性は合成データと2つの実際のデータセットで示され、このアプローチによって提供されるユニークな洞察を示している。

Mutual independence is a key concept in statistics that characterizes the structural relationships between variables. Existing methods to investigate mutual independence rely on the definition of two competing models, one being nested into the other and used to generate a null distribution for a statistic of interest, usually under the asymptotic assumption of large sample size. As such, these methods have a very restricted scope of application. In the present manuscript, we propose to change the investigation of mutual independence from a hypothesis-driven task that can only be applied in very specific cases to a blind and automated search within patterns of mutual independence. To this end, we treat the issue as one of model comparison that we solve in a Bayesian framework. We show the relationship between such an approach and existing methods in the case of multivariate normal distributions as well as cross-classified multinomial distributions. We propose a general Markov chain Monte Carlo (MCMC) algorithm to numerically approximate the posterior distribution on the space of all patterns of mutual independence. The relevance of the method is demonstrated on synthetic data as well as two real datasets, showing the unique insight provided by this approach.
翻訳日:2023-01-11 05:58:00 公開日:2020-01-15
# 埋め込み特徴選択による異常検出アンサンブル

Outlier Detection Ensemble with Embedded Feature Selection ( http://arxiv.org/abs/2001.05492v1 )

ライセンス: Link先を確認
Li Cheng, Yijie Wang, Xinwang Liu, Bin Li(参考訳) 特徴選択は、特にノイズの多いデータに対して、外乱検出の性能を改善する上で重要な役割を果たす。 既存のメソッドは通常、特徴選択と外れ値スコアリングを別々に行い、最適に外れ値検出に役立たない機能サブセットを選択し、不満足なパフォーマンスをもたらす。 本稿では,この問題に対処する組込み特徴選択(ODEFS)を用いた外乱検出アンサンブルフレームワークを提案する。 具体的には、各ランダムサブサンプリングベースの学習コンポーネントに対して、odefsは特徴選択と外れ値検出をペアワイズランキング定式化に統一し、外れ値検出法用に調整された特徴サブセットを学習する。 さらに,訓練セットの信頼性向上に役立つ特徴選択と例選択を同時に最適化するために,しきい値付き自己ペース学習を採用する。 その後,結果最適化問題を解くために,収束性が証明された代替アルゴリズムを設計する。 さらに,提案フレームワークの一般化誤差を解析し,提案手法の理論的保証と洞察に富んだ実践的ガイダンスを提供する。 提案したODEFSの優位性を検証するため, 多様な領域の12の実世界のデータセットに関する総合的な実験結果を得た。

Feature selection places an important role in improving the performance of outlier detection, especially for noisy data. Existing methods usually perform feature selection and outlier scoring separately, which would select feature subsets that may not optimally serve for outlier detection, leading to unsatisfying performance. In this paper, we propose an outlier detection ensemble framework with embedded feature selection (ODEFS), to address this issue. Specifically, for each random sub-sampling based learning component, ODEFS unifies feature selection and outlier detection into a pairwise ranking formulation to learn feature subsets that are tailored for the outlier detection method. Moreover, we adopt the thresholded self-paced learning to simultaneously optimize feature selection and example selection, which is helpful to improve the reliability of the training set. After that, we design an alternate algorithm with proved convergence to solve the resultant optimization problem. In addition, we analyze the generalization error bound of the proposed framework, which provides theoretical guarantee on the method and insightful practical guidance. Comprehensive experimental results on 12 real-world datasets from diverse domains validate the superiority of the proposed ODEFS.
翻訳日:2023-01-11 05:57:43 公開日:2020-01-15
# 比較クエリによる耐雑音・信頼性アクティブ分類

Noise-tolerant, Reliable Active Classification with Comparison Queries ( http://arxiv.org/abs/2001.05497v1 )

ライセンス: Link先を確認
Max Hopkins, Daniel Kane, Shachar Lovett, Gaurav Mahajan(参考訳) 過去数年間に大量のラベルのないデータが爆発的に普及し、ラベルと時間効率、堅牢な学習アルゴリズムが理論と実践においてますます重要になっている。 本研究では,データプールにアクセス可能なアルゴリズムが,指数関数的効率向上を期待してラベル付けするサンプルを適応的に選択できる,アクティブラーニングのパラダイムについて検討する。 2点を比較する追加の問合せである比較法を導入することで,有界(マスアート)ノイズに頑健な非均質線形セパレータを学習するための,第1回および問合せ効率のよいアルゴリズムを提供する。 さらに、一般的なツィバコフ低雑音条件の一般化のためのアルゴリズムを提供し、ラベルだけではしばしば非現実的または不可能な強い信頼性保証を提供することを示し、高い確率でエラーを発生しない分類器を返す。

With the explosion of massive, widely available unlabeled data in the past years, finding label and time efficient, robust learning algorithms has become ever more important in theory and in practice. We study the paradigm of active learning, in which algorithms with access to large pools of data may adaptively choose what samples to label in the hope of exponentially increasing efficiency. By introducing comparisons, an additional type of query comparing two points, we provide the first time and query efficient algorithms for learning non-homogeneous linear separators robust to bounded (Massart) noise. We further provide algorithms for a generalization of the popular Tsybakov low noise condition, and show how comparisons provide a strong reliability guarantee that is often impractical or impossible with only labels - returning a classifier that makes no errors with high probability.
翻訳日:2023-01-11 05:57:23 公開日:2020-01-15
# ディープトリプレット埋め込みによるパーソナライズされたアクティビティ認識

Personalized Activity Recognition with Deep Triplet Embeddings ( http://arxiv.org/abs/2001.05517v1 )

ライセンス: Link先を確認
David M. Burns and Cari M. Whyne(参考訳) 慣性的人間活動認識に対する教師付き学習アプローチにおける重要な課題は、個々のユーザー間のデータの均一性であり、一部の被験者にとって非個人的アルゴリズムの性能が極めて低いことである。 本稿では,完全畳み込みニューラルネットワークを用いた深層埋め込みに基づくパーソナライズアクティビティ認識手法を提案する。 埋め込みを訓練するために, カテゴリー横断エントロピー損失と三重項損失の両方を実験し, 対象三重項に基づく新しい三重項損失関数について述べる。 これらの手法を, 分類精度, 分布域外活動検出, および新しい活動への一般化を比較検討した3つの慣性的人間行動認識データセット(mhealth, wisdm, spar)上で評価した。 新規な三重項損失は、全体として最高のパフォーマンスを提供し、パーソナライズされたディープ埋め込みは、ベースラインのパーソナライズされた機能埋め込みと、非対人的な完全な畳み込みニューラルネットワーク分類器よりも優れています。

A significant challenge for a supervised learning approach to inertial human activity recognition is the heterogeneity of data between individual users, resulting in very poor performance of impersonal algorithms for some subjects. We present an approach to personalized activity recognition based on deep embeddings derived from a fully convolutional neural network. We experiment with both categorical cross entropy loss and triplet loss for training the embedding, and describe a novel triplet loss function based on subject triplets. We evaluate these methods on three publicly available inertial human activity recognition data sets (MHEALTH, WISDM, and SPAR) comparing classification accuracy, out-of-distribution activity detection, and embedding generalization to new activities. The novel subject triplet loss provides the best performance overall, and all personalized deep embeddings out-perform our baseline personalized engineered feature embedding and an impersonal fully convolutional neural network classifier.
翻訳日:2023-01-11 05:57:09 公開日:2020-01-15
# ニュートンモンテカルロ:2次勾配法を満たした単一サイトmcmc

Newtonian Monte Carlo: single-site MCMC meets second-order gradient methods ( http://arxiv.org/abs/2001.05567v1 )

ライセンス: Link先を確認
Nimar S. Arora, Nazanin Khosravani Tehrani, Kinjal Divesh Shah, Michael Tingley, Yucen Lily Li, Narjes Torabi, David Noursi, Sepehr Akhavan Masouleh, Eric Lippert, Erik Meijer(参考訳) MCMC (Single-site Markov Chain Monte Carlo) はMCMCの変種であり、状態空間内の1つの座標が各ステップで修正される。 構造化リレーショナルモデルは、このスタイルの推論のよい候補である。 単一場所では、これらの手法に関連する典型的な立方体コストが各座標の次元に制限されるため、2次法が実現可能である。 我々の研究はNewtonian Monte Carlo (NMC)と呼ばれ、目標密度の第1次および第2次勾配を分析してMCMC収束を改善する方法であり、各点で適切な提案密度を決定する。 既存の1次勾配に基づく手法は、適切なステップサイズを決定する問題に苦しむ。 ステップサイズが小さすぎると、収束するには多くのステップが必要になりますが、非常に大きなステップサイズは高密度領域をオーバーシュートさせます。 NMCは、各次元のステップサイズを自動的にスケールするために2階勾配を使用する最適化におけるニュートン・ラフソン更新に似ている。 しかし,本研究の目的は,最大値よりもパラメータ化された提案密度を求めることである。 既存の第1次および第2次手法のさらなる改善として、制約付きサポートを持つランダム変数は、勾配を踏む前に変換する必要がないことを示す。 我々は, NMC の様々な領域における効率を実証する。 前者の確率に共役する統計モデルの場合、この手法は1ステップで後方をかなり自明に復元する。 しかし,比較的大規模な非共役モデルでは,NUTSなどの適応的一階法や,確率的変動推論やブートストラップといった不正確な拡張性推論手法よりも優れた性能を示す。

Single-site Markov Chain Monte Carlo (MCMC) is a variant of MCMC in which a single coordinate in the state space is modified in each step. Structured relational models are a good candidate for this style of inference. In the single-site context, second order methods become feasible because the typical cubic costs associated with these methods is now restricted to the dimension of each coordinate. Our work, which we call Newtonian Monte Carlo (NMC), is a method to improve MCMC convergence by analyzing the first and second order gradients of the target density to determine a suitable proposal density at each point. Existing first order gradient-based methods suffer from the problem of determining an appropriate step size. Too small a step size and it will take a large number of steps to converge, while a very large step size will cause it to overshoot the high density region. NMC is similar to the Newton-Raphson update in optimization where the second order gradient is used to automatically scale the step size in each dimension. However, our objective is to find a parameterized proposal density rather than the maxima. As a further improvement on existing first and second order methods, we show that random variables with constrained supports don't need to be transformed before taking a gradient step. We demonstrate the efficiency of NMC on a number of different domains. For statistical models where the prior is conjugate to the likelihood, our method recovers the posterior quite trivially in one step. However, we also show results on fairly large non-conjugate models, where NMC performs better than adaptive first order methods such as NUTS or other inexact scalable inference methods such as Stochastic Variational Inference or bootstrapping.
翻訳日:2023-01-11 05:56:31 公開日:2020-01-15
# Synthinel-1 データセット:建物セグメンテーションのための高分解能合成オーバーヘッド画像の収集

The Synthinel-1 dataset: a collection of high resolution synthetic overhead imagery for building segmentation ( http://arxiv.org/abs/2001.05130v1 )

ライセンス: Link先を確認
Fanjie Kong, Bohao Huang, Kyle Bradbury, Jordan M. Malof(参考訳) 最近、深層学習(すなわち畳み込みニューラルネットワーク(CNN))は、大きなオーバーヘッド(例えば衛星)の画像ベンチマークでセグメンテーションを構築するタスクにおいて、印象的なパフォーマンスをもたらした。 しかしながら、これらのベンチマークデータセットは、現実世界のオーバーヘッドイメージに存在する変数のごく一部のみをキャプチャし、現実世界のアプリケーションのモデルを適切にトレーニングまたは評価する能力を制限する。 残念ながら、画像のコストや手動による画像のラベル付けのために、現実の変動のごく一部をキャプチャするデータセットの開発は、通常不可能である。 本研究では,大規模かつ多様な仮想環境を迅速かつ安価に生成する手法を開発し,CNNを訓練するための合成オーバーヘッド画像を取得する。 このアプローチを使用して、合成オーバーヘッド画像のコレクションを生成し、公開リリースする。Synthinel-1と呼ばれ、完全なピクセルワイドなビルディングラベルを持つ。 いくつかのベンチマークデータセットを用いて、Synthinel-1は、特にCNNが新しい地理的な場所や条件でテストされる場合、現実世界のトレーニング画像の強化に使用される場合、一貫して有用であることを示す。

Recently deep learning - namely convolutional neural networks (CNNs) - have yielded impressive performance for the task of building segmentation on large overhead (e.g., satellite) imagery benchmarks. However, these benchmark datasets only capture a small fraction of the variability present in real-world overhead imagery, limiting the ability to properly train, or evaluate, models for real-world application. Unfortunately, developing a dataset that captures even a small fraction of real-world variability is typically infeasible due to the cost of imagery, and manual pixel-wise labeling of the imagery. In this work we develop an approach to rapidly and cheaply generate large and diverse virtual environments from which we can capture synthetic overhead imagery for training segmentation CNNs. Using this approach, generate and publicly-release a collection of synthetic overhead imagery - termed Synthinel-1 with full pixel-wise building labels. We use several benchmark dataset to demonstrate that Synthinel-1 is consistently beneficial when used to augment real-world training imagery, especially when CNNs are tested on novel geographic locations or conditions.
翻訳日:2023-01-11 05:55:17 公開日:2020-01-15
# SMT + ILP

SMT + ILP ( http://arxiv.org/abs/2001.05208v1 )

ライセンス: Link先を確認
Vaishak Belle(参考訳) 帰納的論理プログラミング(ILP)はAIにおいて非常に影響力のあるパラダイムであり、その理論と実装に関する数十年の研究を楽しみ続けている。 論理プログラミングと機械学習の分野の自然な子孫として、バックグラウンド知識の取り込みを認めており、専門家からの事前の知識が利用可能であり、よりデータ効率のよい学習体制につながるドメインで非常に有用である。 仮にそうであるように、ブール変数上で構成されるホーン節の制限は非常に深刻である。 現実世界で起こる多くの現象は、連続体、より一般的には離散体と連続体の混合によって特徴づけられる。 本稿では, 帰納的宣言型プログラミングの再考を, 充足可能なモジュラー理論技術を用いて動機づける。

Inductive logic programming (ILP) has been a deeply influential paradigm in AI, enjoying decades of research on its theory and implementations. As a natural descendent of the fields of logic programming and machine learning, it admits the incorporation of background knowledge, which can be very useful in domains where prior knowledge from experts is available and can lead to a more data-efficient learning regime. Be that as it may, the limitation to Horn clauses composed over Boolean variables is a very serious one. Many phenomena occurring in the real-world are best characterized using continuous entities, and more generally, mixtures of discrete and continuous entities. In this position paper, we motivate a reconsideration of inductive declarative programming by leveraging satisfiability modulo theory technology.
翻訳日:2023-01-11 05:48:53 公開日:2020-01-15
# 説明可能性への形式的アプローチ

A Formal Approach to Explainability ( http://arxiv.org/abs/2001.05207v1 )

ライセンス: Link先を確認
Lior Wolf, Tomer Galanti, Tamir Hazan(参考訳) 我々は、説明を入力サンプルとモデルの出力のブレンドとみなし、これらの説明を生成する関数の様々な望ましい特性をキャプチャするいくつかの定義を提供する。 これらの特性と説明生成関数と学習モデルの中間表現との関係について検討し、例えば、与えられた層の活性化が説明と一致している場合、他の全ての層も同様であることを示すことができる。 さらに,説明の交わりと結合を,新たな説明の構築方法として検討する。

We regard explanations as a blending of the input sample and the model's output and offer a few definitions that capture various desired properties of the function that generates these explanations. We study the links between these properties and between explanation-generating functions and intermediate representations of learned models and are able to show, for example, that if the activations of a given layer are consistent with an explanation, then so do all other subsequent layers. In addition, we study the intersection and union of explanations as a way to construct new explanations.
翻訳日:2023-01-11 05:48:31 公開日:2020-01-15
# がん研究のための深層分類ネットワークの重量初期化としてのオートエンコーダ

Autoencoders as Weight Initialization of Deep Classification Networks for Cancer versus Cancer Studies ( http://arxiv.org/abs/2001.05253v1 )

ライセンス: Link先を確認
Mafalda Falcao Ferreira, Rui Camacho, Luis F. Teixeira(参考訳) 癌は、今なお、最も壊滅的な病気の1つです。 腫瘍サンプルを自動的に分類する方法の一つは、その派生した分子情報(すなわち遺伝子の発現シグネチャ)を分析することである。 本研究の目的は,甲状腺,皮膚,胃の3種類の癌を区別することである。 そのために、ディープニューラルネットワークの重み付け初期化に使用されるDenoising Autoencoder(DAE)の性能を比較した。 この研究で異なるドメイン問題に対処するが、我々はFerreiraらと同じ方法論を採用してきた。 実験では,分類モデルの訓練における2つの異なるアプローチを評価した。 (a)daeを事前訓練した後、重量を固定し、 (b)分類ネットワーク全体の微調整を可能にする。 さらに,DAEを分類ネットワークに埋め込むには,(1)符号化層のみをインポートすること,(2)完全オートエンコーダを挿入すること,の2つの戦略を適用する。 その結果,DAEによる非教師付き特徴学習と分類ネットワークへの完全インポート,および教師付きトレーニングによる微調整を併用し,癌甲状腺検体同定時のF1スコア98.04%+/-1.09を達成できた。

Cancer is still one of the most devastating diseases of our time. One way of automatically classifying tumor samples is by analyzing its derived molecular information (i.e., its genes expression signatures). In this work, we aim to distinguish three different types of cancer: thyroid, skin, and stomach. For that, we compare the performance of a Denoising Autoencoder (DAE) used as weight initialization of a deep neural network. Although we address a different domain problem in this work, we have adopted the same methodology of Ferreira et al.. In our experiments, we assess two different approaches when training the classification model: (a) fixing the weights, after pre-training the DAE, and (b) allowing fine-tuning of the entire classification network. Additionally, we apply two different strategies for embedding the DAE into the classification network: (1) by only importing the encoding layers, and (2) by inserting the complete autoencoder. Our best result was the combination of unsupervised feature learning through a DAE, followed by its full import into the classification network, and subsequent fine-tuning through supervised training, achieving an F1 score of 98.04% +/- 1.09 when identifying cancerous thyroid samples.
翻訳日:2023-01-11 05:47:39 公開日:2020-01-15
# データから類似度を学習する

Learning similarity measures from data ( http://arxiv.org/abs/2001.05312v1 )

ライセンス: Link先を確認
Bj{\o}rn Magnus Mathisen, Agnar Aamodt, Kerstin Bach, Helge Langseth(参考訳) 類似度尺度を定義することは、いくつかの機械学習手法の要件である。 そのような方法の1つがcase-based reasoning (cbr) で、クエリケースに最もよく似た格納されたケースやケースのセットを取得するために類似度尺度が使用される。 類似度を分析的に記述することは、CBRの専門家と仕事をするドメインエキスパートにとっても難しい。 しかし、データセットは通常、CBRや機械学習システムの構築の一部として収集される。 これらのデータセットは、問題の特徴から解を正しく識別する特徴を含むと仮定され、そのような類似度尺度の構築や学習の知識も含んでいる。 この研究の主な動機は、トレーニング時間を可能な限り低く保ちながら、マシンラーニングを用いた類似度尺度の構築を自動化することである。 本研究の目的は,機械学習を用いて類似度を効果的に学習する方法を検討することである。 このような学習された類似度尺度は、CBRシステムだけでなく、半教師付き学習やワンショット学習タスクにおけるデータのクラスタリングにも使用できる。 最近の研究はこの目標に向けて進んでおり、非常に長いトレーニング時間か、類似度尺度の一部を手動でモデル化している。 類似度尺度を学習するための現在の方法を分析するためのフレームワークを構築した。 この分析により、2つの新しい類似度尺度が作られた。 類似度尺度の基礎として事前学習した分類器を用いる設計。 2つ目の設計では、データから類似度を学習し、トレーニング時間を低く保ちながら、可能な限り小さなモデリングを使用する。 両者の類似性は14の異なるデータセットで評価された。 類似度尺度の基準として分類器を用いると,その性能が向上することを示す。 最後に,データ駆動型類似度尺度の設計は,トレーニング時間を低く保ちながら,技術手法の状態を上回っていることを示す。

Defining similarity measures is a requirement for some machine learning methods. One such method is case-based reasoning (CBR) where the similarity measure is used to retrieve the stored case or set of cases most similar to the query case. Describing a similarity measure analytically is challenging, even for domain experts working with CBR experts. However, data sets are typically gathered as part of constructing a CBR or machine learning system. These datasets are assumed to contain the features that correctly identify the solution from the problem features, thus they may also contain the knowledge to construct or learn such a similarity measure. The main motivation for this work is to automate the construction of similarity measures using machine learning, while keeping training time as low as possible. Our objective is to investigate how to apply machine learning to effectively learn a similarity measure. Such a learned similarity measure could be used for CBR systems, but also for clustering data in semi-supervised learning, or one-shot learning tasks. Recent work has advanced towards this goal, relies on either very long training times or manually modeling parts of the similarity measure. We created a framework to help us analyze current methods for learning similarity measures. This analysis resulted in two novel similarity measure designs. One design using a pre-trained classifier as basis for a similarity measure. The second design uses as little modeling as possible while learning the similarity measure from data and keeping training time low. Both similarity measures were evaluated on 14 different datasets. The evaluation shows that using a classifier as basis for a similarity measure gives state of the art performance. Finally the evaluation shows that our fully data-driven similarity measure design outperforms state of the art methods while keeping training time low.
翻訳日:2023-01-11 05:47:17 公開日:2020-01-15
# 不完全なデータから因果発見:深層学習アプローチ

Causal Discovery from Incomplete Data: A Deep Learning Approach ( http://arxiv.org/abs/2001.05343v1 )

ライセンス: Link先を確認
Yuhao Wang, Vlado Menkovski, Hao Wang, Xin Du, Mykola Pechenizkiy(参考訳) 人工知能の発展によりシステムは自律的になりつつあるため、観察感覚入力から因果的知識を発見することが重要である。 イベント間の一連の因果関係を符号化することにより、因果ネットワークは与えられたアクションからの影響の予測を促進し、その基盤となるデータ生成メカニズムを分析することができる。 しかし、実際のシナリオではデータの欠落がユビキタスである。 部分的に観測されたデータ上で既存のカジュアルディスカバリアルゴリズムを直接実行すると、誤った推論につながる可能性がある。 この問題を軽減するため、我々はICL(Imputated Causal Learning)と呼ばれるディープラーニングフレームワークを提案し、反復的欠落データ計算と因果構造探索を行った。 合成データと実データの両方の広範なシミュレーションにより、ICLは、異なる欠落データ機構の下で最先端の手法より優れていることを示す。

As systems are getting more autonomous with the development of artificial intelligence, it is important to discover the causal knowledge from observational sensory inputs. By encoding a series of cause-effect relations between events, causal networks can facilitate the prediction of effects from a given action and analyze their underlying data generation mechanism. However, missing data are ubiquitous in practical scenarios. Directly performing existing casual discovery algorithms on partially observed data may lead to the incorrect inference. To alleviate this issue, we proposed a deep learning framework, dubbed Imputated Causal Learning (ICL), to perform iterative missing data imputation and causal structure discovery. Through extensive simulations on both synthetic and real data, we show that ICL can outperform state-of-the-art methods under different missing data mechanisms.
翻訳日:2023-01-11 05:46:34 公開日:2020-01-15
# 二重スパース変分ガウス過程

Doubly Sparse Variational Gaussian Processes ( http://arxiv.org/abs/2001.05363v1 )

ライセンス: Link先を確認
Vincent Adam and Stefanos Eleftheriadis and Nicolas Durrande and Artem Artemev and James Hensman(参考訳) ガウスのプロセスモデルの使用は通常、複雑さとメモリフットプリントのために数万の観測結果を持つデータセットに限られる。 この制限を克服する最も一般的な2つの方法は 1)誘導点とそれに依存する変分スパース近似 2) ガウス過程の状態空間同値な定式化は、精度行列の空間性を利用すると見なすことができる。 我々は,状態空間モデルにはまだ誘導点フレームワークが有効であること,さらに計算とメモリの節約が可能であること,両世界を最大限に活用することを提案する。 さらに,提案する変分パラメータ化のための自然勾配定式化も提供する。 最後に、この研究により、実験の1つで示されているように、深いガウス過程モデル内で状態空間の定式化を使うことができる。

The use of Gaussian process models is typically limited to datasets with a few tens of thousands of observations due to their complexity and memory footprint. The two most commonly used methods to overcome this limitation are 1) the variational sparse approximation which relies on inducing points and 2) the state-space equivalent formulation of Gaussian processes which can be seen as exploiting some sparsity in the precision matrix. We propose to take the best of both worlds: we show that the inducing point framework is still valid for state space models and that it can bring further computational and memory savings. Furthermore, we provide the natural gradient formulation for the proposed variational parameterisation. Finally, this work makes it possible to use the state-space formulation inside deep Gaussian process models as illustrated in one of the experiments.
翻訳日:2023-01-11 05:46:20 公開日:2020-01-15
# EnsembleによるVisual Dialog Challenge 2018の差別モデル

Ensemble based discriminative models for Visual Dialog Challenge 2018 ( http://arxiv.org/abs/2001.05865v1 )

ライセンス: Link先を確認
Shubham Agarwal, Raghav Goyal(参考訳) この原稿では、Visual Dialog Challenge 2018のアプローチについて説明します。 最終的な提出には、異なるエンコーダとデコーダを持つ3つの識別モデルのアンサンブルを使用します。 テスト-std」スプリットのベストパフォーマンスモデルは, ndcgスコア55.46, mrr値63.77を達成し, 第3位を確保した。

This manuscript describes our approach for the Visual Dialog Challenge 2018. We use an ensemble of three discriminative models with different encoders and decoders for our final submission. Our best performing model on 'test-std' split achieves the NDCG score of 55.46 and the MRR value of 63.77, securing third position in the challenge.
翻訳日:2023-01-11 05:40:23 公開日:2020-01-15
# ネットワーク・プルーニング・ネットワーク」による深部モデル圧縮

A "Network Pruning Network" Approach to Deep Model Compression ( http://arxiv.org/abs/2001.05545v1 )

ライセンス: Link先を確認
Vinay Kumar Verma, Pravendra Singh, Vinay P. Namboodiri, Piyush Rai(参考訳) マルチタスクネットワークを用いた深部モデル圧縮のためのフィルタプルーニング手法を提案する。 このアプローチはprunerネットワークを学習して、トレーニング済みのターゲットネットワークをpruneする。 prunerは本質的にはマルチタスクのディープニューラルネットワークであり、バイナリ出力を持ち、モデルに何の貢献も持たない、したがって刈り取ることができる元のネットワークの各層からフィルタを識別するのに役立つ。 prunerネットワークは元のネットワークと同じアーキテクチャを持つが、マルチタスク/マルチアウトプット最後のレイヤにはバイナリ値の出力(フィルタ毎に1つ)が含まれており、どのフィルタを刈り取る必要があるかを示している。 prunerの目標は、対応する出力特徴マップにゼロウェイトを割り当てることで、元のネットワークからのフィルタ数を最小化することである。 既存のほとんどの手法とは対照的に、反復的なプルーニングに頼るのではなく、ネットワーク(元のネットワーク)を1行でプルークできるため、各レイヤに対してプルーニングの度合いを指定する必要はなく、代わりに学習することができる。 私たちのアプローチによって生成された圧縮モデルは汎用的で、特別なハードウェアやソフトウェアのサポートは不要です。 さらに, 知識蒸留, 量子化, 接続プルーニングなどの他の手法を加味することで, 提案手法の圧縮度を高めることができる。 本稿では,分類・対象検出タスクにおける提案手法の有効性を示す。

We present a filter pruning approach for deep model compression, using a multitask network. Our approach is based on learning a a pruner network to prune a pre-trained target network. The pruner is essentially a multitask deep neural network with binary outputs that help identify the filters from each layer of the original network that do not have any significant contribution to the model and can therefore be pruned. The pruner network has the same architecture as the original network except that it has a multitask/multi-output last layer containing binary-valued outputs (one per filter), which indicate which filters have to be pruned. The pruner's goal is to minimize the number of filters from the original network by assigning zero weights to the corresponding output feature-maps. In contrast to most of the existing methods, instead of relying on iterative pruning, our approach can prune the network (original network) in one go and, moreover, does not require specifying the degree of pruning for each layer (and can learn it instead). The compressed model produced by our approach is generic and does not need any special hardware/software support. Moreover, augmenting with other methods such as knowledge distillation, quantization, and connection pruning can increase the degree of compression for the proposed approach. We show the efficacy of our proposed approach for classification and object detection tasks.
翻訳日:2023-01-11 05:39:14 公開日:2020-01-15
# AvgOut: 重複応答を除去するための単純なアウトプット確率測定

AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses ( http://arxiv.org/abs/2001.05467v1 )

ライセンス: Link先を確認
Tong Niu, Mohit Bansal(参考訳) 多くのシーケンス・ツー・シーケンスの対話モデルは安全で非形式的な応答を生成する傾向がある。 それらを取り除くための様々な有用な取り組みがあった。 しかし、これらのアプローチは推論中の復号アルゴリズムを改善するか、手作りの機能に依存するか、複雑なモデルを採用するかのどちらかである。 本研究では,機能工学を使わずに発話やトークンが鈍いことを動的に認識する対話モデルを構築した。 具体的には、トレーニング中のデコーダ側のすべての時間ステップの平均出力確率分布を計算する、単純かつ効果的な自動メトリックであるavgoutから始める。 このメトリックは、どのトークンが生成されやすいかを直接見積もるので、モデルの多様性を忠実に評価することができる(例えば、多様なモデルでは、いくつかの鈍いトークンでピークとなるよりも、トークンの確率は均等に分配されるべきである)。 そして、この新しいメトリクスを利用して、関連性を失うことなく多様性を促進する3つのモデルを提案します。 第1のモデルであるminavgoutは、各バッチの出力分布を通じてダイバーシティスコアを直接最大化し、第2のモデルであるラベル微調整(lft)は、ダイバーシティスコアによって継続的にスケールされダイバーシティレベルを制御するラベルを、第3のモデルであるrlは強化学習を採用し、ダイバーシティスコアを報奨信号として扱う。 さらに,minavgout と rl の損失項を組み合わせたハイブリッドモデルを用いて実験を行った。 4つのモデルはいずれも、多様性と関連性の両方でベースとなるLSTM-RNNモデルよりも優れており、競争ベースライン(人間による評価による検証)に匹敵する。 さらに,我々のアプローチはベースモデルと直交し,将来に出現する他の優れた対話モデルへのアドオンとして適用できる。

Many sequence-to-sequence dialogue models tend to generate safe, uninformative responses. There have been various useful efforts on trying to eliminate them. However, these approaches either improve decoding algorithms during inference, rely on hand-crafted features, or employ complex models. In our work, we build dialogue models that are dynamically aware of what utterances or tokens are dull without any feature-engineering. Specifically, we start with a simple yet effective automatic metric, AvgOut, which calculates the average output probability distribution of all time steps on the decoder side during training. This metric directly estimates which tokens are more likely to be generated, thus making it a faithful evaluation of the model diversity (i.e., for diverse models, the token probabilities should be more evenly distributed rather than peaked at a few dull tokens). We then leverage this novel metric to propose three models that promote diversity without losing relevance. The first model, MinAvgOut, directly maximizes the diversity score through the output distributions of each batch; the second model, Label Fine-Tuning (LFT), prepends to the source sequence a label continuously scaled by the diversity score to control the diversity level; the third model, RL, adopts Reinforcement Learning and treats the diversity score as a reward signal. Moreover, we experiment with a hybrid model by combining the loss terms of MinAvgOut and RL. All four models outperform their base LSTM-RNN model on both diversity and relevance by a large margin, and are comparable to or better than competitive baselines (also verified via human evaluation). Moreover, our approaches are orthogonal to the base model, making them applicable as an add-on to other emerging better dialogue models in the future.
翻訳日:2023-01-11 05:38:09 公開日:2020-01-15
# テンソルネットワーク収縮順序付けアルゴリズム

Algorithms for Tensor Network Contraction Ordering ( http://arxiv.org/abs/2001.08063v1 )

ライセンス: Link先を確認
Frank Schindler, Adam S. Jermyn(参考訳) テンソルネットワークの契約はしばしば計算上要求される。 適切に設計された収縮シーケンスは、収縮コストを劇的に削減することができる。 我々は,この順序問題に対する2つの共通離散最適化手法であるシミュレーションアニーリングと遺伝的アルゴリズムの性能について検討する。 彼らのパフォーマンスや、物理的に関連のあるテンソルネットワークでよく使われる欲望検索のパフォーマンスをベンチマークします。 また, 計算可能であれば, 徹底探索により得られた最適収縮シーケンスと比較する。 私たちが検討するアルゴリズムは、テンソルネットワークサイズでスケールする利点とともに、同等の計算資源を与えられた欲求探索を一貫して上回ります。 得られた縮約シーケンスと高度に非局所的な最適化の兆候を同定し、より洗練されたアルゴリズムにより、縮約の初期を犠牲にして全体的な性能を向上する。

Contracting tensor networks is often computationally demanding. Well-designed contraction sequences can dramatically reduce the contraction cost. We explore the performance of simulated annealing and genetic algorithms, two common discrete optimization techniques, to this ordering problem. We benchmark their performance as well as that of the commonly-used greedy search on physically relevant tensor networks. Where computationally feasible, we also compare them with the optimal contraction sequence obtained by an exhaustive search. We find that the algorithms we consider consistently outperform a greedy search given equal computational resources, with an advantage that scales with tensor network size. We compare the obtained contraction sequences and identify signs of highly non-local optimization, with the more sophisticated algorithms sacrificing run-time early in the contraction for better overall performance.
翻訳日:2023-01-11 05:37:35 公開日:2020-01-15
# 関係性辺縁ポリトープのドメインリフト性

Domain-Liftability of Relational Marginal Polytopes ( http://arxiv.org/abs/2001.05198v1 )

ライセンス: Link先を確認
Ondrej Kuzelka, Yuyi Wang(参考訳) 本研究では,確率的グラフモデルからよく知られた辺縁的ポリトープの統計的関係学習指標である関係縁的ポリトープの計算的側面について検討する。 ここで、ある一階述語論理公式が与えられたとき、その関係辺の統計式は与えられた可能な世界でこの公式を真にする接地数の分数として定義することができる。 一階述語論理式のリストでは、リレーショナル限界ポリトープ (relational marginal polytope) は、実現可能なリレーショナル限界統計の期待値に対応する全ての点の集合である。 本稿では,以下の2つの問題を考察する。 (i)マルコフ論理ネットワーク(MLN)の分割関数に対するドメインリフトビリティの結果は、リレーショナル境界ポリトープ構成の問題に導かれるか? (ii)関係性辺縁ポリトープ封じ込め問題は、ある可能性の複雑性理論的な仮定の下では困難か? MLNの重み付け学習は, 有意な結果が得られた。 特に,各MLNの分割関数の計算がドメインリフト可能であれば,MLNの重み学習はドメインリフト可能であることが示される(この結果は以前にも明確に証明されていない)。

We study computational aspects of relational marginal polytopes which are statistical relational learning counterparts of marginal polytopes, well-known from probabilistic graphical models. Here, given some first-order logic formula, we can define its relational marginal statistic to be the fraction of groundings that make this formula true in a given possible world. For a list of first-order logic formulas, the relational marginal polytope is the set of all points that correspond to the expected values of the relational marginal statistics that are realizable. In this paper, we study the following two problems: (i) Do domain-liftability results for the partition functions of Markov logic networks (MLNs) carry over to the problem of relational marginal polytope construction? (ii) Is the relational marginal polytope containment problem hard under some plausible complexity-theoretic assumptions? Our positive results have consequences for lifted weight learning of MLNs. In particular, we show that weight learning of MLNs is domain-liftable whenever the computation of the partition function of the respective MLNs is domain-liftable (this result has not been rigorously proven before).
翻訳日:2023-01-11 05:37:22 公開日:2020-01-15
# 知識に基づく一般化を用いたヘイトスピーチ検出タスクのステレオタイプバイアス除去

Stereotypical Bias Removal for Hate Speech Detection Task using Knowledge-based Generalizations ( http://arxiv.org/abs/2001.05495v1 )

ライセンス: Link先を確認
Pinkesh Badjatiya, Manish Gupta, Vasudeva Varma(参考訳) ソーシャルメディアプラットフォームに憎悪が広がり続ける中で、そのような事件を積極的に回避し、制御するために乱用検知機構を設計することが重要である。 ヘイトスピーチ検出の方法は存在するが、彼らは単語をステレオタイプし、本質的にバイアスのあるトレーニングに苦しむ。 バイアス除去は従来,構造化データセットで研究されてきたが,非構造化テキストデータからのバイアス軽減を目的としている。 本稿では2つの重要な貢献を行う。 まず,任意のモデルに対するバイアスを定量化する手法を体系的に設計し,モデルがステレオタイプする単語集合を同定するアルゴリズムを提案する。 第二に、バイアスのない学習に知識に基づく一般化を活用する新しい手法を提案する。 知識に基づく一般化は、コンテンツを一般化するだけでなく、ヘイトスピーチ検出分類器からの情報の抽出を容易にするため、知識をエンコードする効果的な方法である。 我々は,複数の知識一般化政策を試し,その一般性およびバイアス軽減効果を分析した。 実世界の2つのデータセット、サイズ96kのWikipedia Talk Pagesデータセット(WikiDetox)とサイズ24kのTwitterデータセットを用いて実験したところ、知識に基づく一般化の使用により、分類器に一般化コンテンツから学習させることにより、より良いパフォーマンスが得られることがわかった。 我々の手法は既存の知識ベースを利用し、簡単に他のタスクに拡張できる。

With the ever-increasing cases of hate spread on social media platforms, it is critical to design abuse detection mechanisms to proactively avoid and control such incidents. While there exist methods for hate speech detection, they stereotype words and hence suffer from inherently biased training. Bias removal has been traditionally studied for structured datasets, but we aim at bias mitigation from unstructured text data. In this paper, we make two important contributions. First, we systematically design methods to quantify the bias for any model and propose algorithms for identifying the set of words which the model stereotypes. Second, we propose novel methods leveraging knowledge-based generalizations for bias-free learning. Knowledge-based generalization provides an effective way to encode knowledge because the abstraction they provide not only generalizes content but also facilitates retraction of information from the hate speech detection classifier, thereby reducing the imbalance. We experiment with multiple knowledge generalization policies and analyze their effect on general performance and in mitigating bias. Our experiments with two real-world datasets, a Wikipedia Talk Pages dataset (WikiDetox) of size ~96k and a Twitter dataset of size ~24k, show that the use of knowledge-based generalizations results in better performance by forcing the classifier to learn from generalized content. Our methods utilize existing knowledge-bases and can easily be extended to other tasks
翻訳日:2023-01-11 05:29:55 公開日:2020-01-15
# 挿入欠失変圧器

Insertion-Deletion Transformer ( http://arxiv.org/abs/2001.05540v1 )

ライセンス: Link先を確認
Laura Ruis, Mitchell Stern, Julia Proskurnia, William Chan(参考訳) 本稿では,新しいトランスを用いたニューラルアーキテクチャであるInsertion-Deletion Transformerを提案する。 モデルは2つのフェーズで構成され、反復的に実行される。 1)挿入相及び挿入相 2) 削除フェーズ。 挿入フェーズは、電流出力仮説上の挿入の分布をパラメータ化し、削除フェーズは、電流出力仮説上の削除の分布をパラメータ化する。 訓練法は、挿入モデル出力からその信号を直接オンポリシーに取得する原理的かつ単純なアルゴリズムである。 合成翻訳タスクにおける挿入削除トランスの有効性を実証し,挿入のみモデルよりもブレウスコアが有意に向上した。

We propose the Insertion-Deletion Transformer, a novel transformer-based neural architecture and training method for sequence generation. The model consists of two phases that are executed iteratively, 1) an insertion phase and 2) a deletion phase. The insertion phase parameterizes a distribution of insertions on the current output hypothesis, while the deletion phase parameterizes a distribution of deletions over the current output hypothesis. The training method is a principled and simple algorithm, where the deletion model obtains its signal directly on-policy from the insertion model output. We demonstrate the effectiveness of our Insertion-Deletion Transformer on synthetic translation tasks, obtaining significant BLEU score improvement over an insertion-only model.
翻訳日:2023-01-11 05:29:17 公開日:2020-01-15
# レーシングゲームにおける連続動作強化学習:SPGとPPOの比較

Continuous-action Reinforcement Learning for Playing Racing Games: Comparing SPG to PPO ( http://arxiv.org/abs/2001.05270v1 )

ライセンス: Link先を確認
Mario S. Holubar, Marco A. Wiering(参考訳) 本稿では,OpenAI Gymの新しいレース環境について紹介する。 この環境は連続した行動空間と状態空間で動作し、エージェントはランダムに生成されたレーストラックをナビゲートしながら車の加速とステアリングを制御することを学ぶ必要がある。 2つのアクター批判型学習アルゴリズムの異なるバージョンが、サンプルポリシー勾配(SPG)とプロキシポリシー最適化(PPO)の2つの環境でテストされている。 SPGの拡張は、ポリシー更新段階におけるアクションサンプルの重み付けによる学習性能の向上を目的としている。 また,経験リプレイ(ER)の効果についても検討した。 この目的のために、ログ空間でアクターを最適化することで、古いアクションサンプルを使用したトレーニングを可能にするPPOの変更が導入されている。 最後に,リプレイバッファからの状態遷移を使用してネットワークを最初にトレーニングし,最近の経験のみを使用して,トレーニングを2つの部分に分割することにより,パフォーマンスを犠牲にすることなく学習速度を改善することを目的としたerの新たな手法をテストした。 その結果, 連続行動空間におけるPPOには, 経験リプレイが有用でないことがわかった。 SPGのトレーニングは、重み付けされた場合より安定しているようである。 SPGのすべてのバージョンは、ERを使用するとPPOより優れている。 ERトリックは、計算量が少ないSPGのトレーニング速度を改善するのに有効である。

In this paper, a novel racing environment for OpenAI Gym is introduced. This environment operates with continuous action- and state-spaces and requires agents to learn to control the acceleration and steering of a car while navigating a randomly generated racetrack. Different versions of two actor-critic learning algorithms are tested on this environment: Sampled Policy Gradient (SPG) and Proximal Policy Optimization (PPO). An extension of SPG is introduced that aims to improve learning performance by weighting action samples during the policy update step. The effect of using experience replay (ER) is also investigated. To this end, a modification to PPO is introduced that allows for training using old action samples by optimizing the actor in log space. Finally, a new technique for performing ER is tested that aims to improve learning speed without sacrificing performance by splitting the training into two parts, whereby networks are first trained using state transitions from the replay buffer, and then using only recent experiences. The results indicate that experience replay is not beneficial to PPO in continuous action spaces. The training of SPG seems to be more stable when actions are weighted. All versions of SPG outperform PPO when ER is used. The ER trick is effective at improving training speed on a computationally less intensive version of SPG.
翻訳日:2023-01-11 05:29:06 公開日:2020-01-15
# 協調優先スイーピングを用いたモデルベースマルチエージェント強化学習

Model-based Multi-Agent Reinforcement Learning with Cooperative Prioritized Sweeping ( http://arxiv.org/abs/2001.07527v1 )

ライセンス: Link先を確認
Eugenio Bargiacchi, Timothy Verstraeten, Diederik M. Roijers, Ann Now\'e(参考訳) マルチエージェントマルコフ決定過程における効率的な学習のためのモデルベース強化学習アルゴリズムであるCooperative Prioritized Sweepingを提案する。 このアルゴリズムは、値関数を近似するために因子化を利用して、大きな問題に対するサンプル効率のよい学習を可能にする。 我々のアプローチは、動的決定ネットワークの形での問題の構造に関する知識のみを必要とする。 この情報を用いて環境のモデルを学習し,複数の協調状態や行動に同時に影響を及ぼす時間差更新を行う。 さらにバッチ更新を行い、因数Q関数全体の知識を効率的にバックプロパゲートする。 本手法は,よく知られたsysadminベンチマークとランダム環境の両方において,最先端アルゴリズムスパース協調型q-learningアルゴリズムよりも優れている。

We present a new model-based reinforcement learning algorithm, Cooperative Prioritized Sweeping, for efficient learning in multi-agent Markov decision processes. The algorithm allows for sample-efficient learning on large problems by exploiting a factorization to approximate the value function. Our approach only requires knowledge about the structure of the problem in the form of a dynamic decision network. Using this information, our method learns a model of the environment and performs temporal difference updates which affect multiple joint states and actions at once. Batch updates are additionally performed which efficiently back-propagate knowledge throughout the factored Q-function. Our method outperforms the state-of-the-art algorithm sparse cooperative Q-learning algorithm, both on the well-known SysAdmin benchmark and randomized environments.
翻訳日:2023-01-11 05:28:20 公開日:2020-01-15