このサイトではarxivの論文のうち、30ページ以下でCreative Commonsライセンス(CC 0, CC BY, CC BY-SA)の論文を日本語訳しています。 本文がCCでない論文、長すぎる論文はメタデータのみを翻訳しています。(arxivのメタデータは CC 0です。) 翻訳文のライセンスはCC BY-SA 4.0です。 翻訳にはFugu-Machine Translatorを利用しています。

本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。

公開日が20200103となっている論文です。

PDF登録状況(公開日: 20200103)

TitleAuthorsAbstract論文公表日・翻訳日
# 機械学習アルゴリズムの効果的な選択による高性能サイバーナノマテリアル光検出器の開発

Development of Use-specific High Performance Cyber-Nanomaterial Optical Detectors by Effective Choice of Machine Learning Algorithms ( http://arxiv.org/abs/1912.11751v3 )

ライセンス: Link先を確認
Davoud Hejazi, Shuangjun Liu, Amirreza Farnoosh, Sarah Ostadabbas, and Swastik Kar(参考訳) Due to their inherent variabilities,nanomaterial-based sensors are challenging to translate into real-world applications,where reliability/reproducibility is key.Recently we showed Bayesian inference can be employed on engineered variability in layered nanomaterial-based optical transmission filters to determine optical wavelengths with high accuracy/precision.In many practical applications the sensing cost/speed and long-term reliability can be equal or more important considerations.Though various machine learning tools are frequently used on sensor/detector networks to address these,nonetheless their effectiveness on nanomaterial-based sensors has not been explored.Here we show the best choice of ML algorithm in a cyber-nanomaterial detector is mainly determined by specific use considerations,e.g.,accuracy, computational cost,speed, and resilience against drifts/ageing effects.When sufficient data/computing resources are provided,highest sensing accuracy can be achieved by the kNN and Bayesian inference algorithms,but but can be computationally expensive for real-time applications.In contrast,artificial neural networks are computationally expensive to train,but provide the fastest result under testing conditions and remain reasonably accurate.When data is limited,SVMs perform well even with small training sets,while other algorithms show considerable reduction in accuracy if data is scarce,hence,setting a lower limit on the size of required training data.We show by tracking/modeling the long-term drifts of the detector performance over large (1year) period,it is possible to improve the predictive accuracy with no need for recalibration.Our research shows for the first time if the ML algorithm is chosen specific to use-case,low-cost solution-processed cyber-nanomaterial detectors can be practically implemented under diverse operational requirements,despite their inherent variabilities.

Due to their inherent variabilities,nanomaterial-based sensors are challenging to translate into real-world applications,where reliability/reproducibility is key.Recently we showed Bayesian inference can be employed on engineered variability in layered nanomaterial-based optical transmission filters to determine optical wavelengths with high accuracy/precision.In many practical applications the sensing cost/speed and long-term reliability can be equal or more important considerations.Though various machine learning tools are frequently used on sensor/detector networks to address these,nonetheless their effectiveness on nanomaterial-based sensors has not been explored.Here we show the best choice of ML algorithm in a cyber-nanomaterial detector is mainly determined by specific use considerations,e.g.,accuracy, computational cost,speed, and resilience against drifts/ageing effects.When sufficient data/computing resources are provided,highest sensing accuracy can be achieved by the kNN and Bayesian inference algorithms,but but can be computationally expensive for real-time applications.In contrast,artificial neural networks are computationally expensive to train,but provide the fastest result under testing conditions and remain reasonably accurate.When data is limited,SVMs perform well even with small training sets,while other algorithms show considerable reduction in accuracy if data is scarce,hence,setting a lower limit on the size of required training data.We show by tracking/modeling the long-term drifts of the detector performance over large (1year) period,it is possible to improve the predictive accuracy with no need for recalibration.Our research shows for the first time if the ML algorithm is chosen specific to use-case,low-cost solution-processed cyber-nanomaterial detectors can be practically implemented under diverse operational requirements,despite their inherent variabilities.
翻訳日:2023-06-10 08:38:20 公開日:2020-01-03
# 人工知能の社会的・倫理的意味を理解するための枠組み

Towards a framework for understanding societal and ethical implications of Artificial Intelligence ( http://arxiv.org/abs/2001.09750v1 )

ライセンス: Link先を確認
Richard Benjamins and Idoia Salazar(参考訳) 人工知能(AI)は現在最も議論されている技術の1つです。 がんの診断と治療、顧客体験、新しいビジネス、教育、伝染病の伝播、人道的災害の管理の最適化など、多くの革新的な応用がある。 しかし、これらすべての機会によって、AIの優れた公正な実践を保証する大きな責任ももたらされます。 本研究の目的は,AIの大量取り込みによって引き起こされる社会的・倫理的課題を明らかにすることである。 我々は,最も一般的な課題について文献を調査し,それらを7つのグループに分類した。 1)望ましくない効果、 2)責任 3) 未知の結果。 4)人間-ロボットの関係 5)権力と富の集中。 6)意図的な悪用,及び 7) 武器と戦争のためのai。 技術的な解決策があるものもあれば、倫理的、社会的、政治的回答を必要とするものもある。 起源によって異なる利害関係者が行動する必要があるかもしれない。 特定された株主が何であれ、これらの問題を扱わないことが不確実性と予期せぬ結果につながり、潜在的に大きなネガティブな社会的影響をもたらし、特に最も脆弱な社会集団を傷つける。 テクノロジーはより良い決定を下すのに役立ち、AIは経験と直観に基づく議論に加えて、データ駆動の意思決定を促進する。 しかし、この技術によるネガティブな副作用は、我々が世界に向けて打ち上げる前によく理解され、行動する必要がある。

Artificial Intelligence (AI) is one of the most discussed technologies today. There are many innovative applications such as the diagnosis and treatment of cancer, customer experience, new business, education, contagious diseases propagation and optimization of the management of humanitarian catastrophes. However, with all those opportunities also comes great responsibility to ensure good and fair practice of AI. The objective of this paper is to identify the main societal and ethical challenges implied by a massive uptake of AI. We have surveyed the literature for the most common challenges and classified them in seven groups: 1) Non-desired effects, 2) Liability, 3) Unknown consequences, 4) Relation people-robots, 5) Concentration of power and wealth, 6) Intentional bad uses, and 7) AI for weapons and warfare. The challenges should be dealt with in different ways depending on their origin; some have technological solutions, while others require ethical, societal, or political answers. Depending on the origin, different stakeholders might need to act. Whatever the identified stakeholder, not treating those issues will lead to uncertainty and unforeseen consequences with potentially large negative societal impact, hurting especially the most vulnerable groups of societies. Technology is helping to take better decisions, and AI is promoting data-driven decisions in addition to experience- and intuition-based discussion, with many improvements happening. However, the negative side effects of this technology need to be well understood and acted upon before we launch them massively into the world.
翻訳日:2023-06-09 00:23:20 公開日:2020-01-03
# デジタル双生児

Digital Twins ( http://arxiv.org/abs/2001.09747v1 )

ライセンス: Link先を確認
Dirk Hartmann, Herman van der Auweraer(参考訳) デジタル双子は最もホットなデジタルトレンドの1つです。 このコントリビューションでは、Digital Twinsの概念と、新しい産業応用の可能性についてレビューする。 Digital Product Twinsはデザインを民主化し、Digital Production Twinsはロボットを生産し、Digital Production Twinsは追加製造業の工業化を推進し、Digital Performance Twinsは事業を推進している。 この記事は、Digital Twins, Executable Digital Twinsの次の波に関する展望をまとめ、関連する課題と数学の機会についてレビューする。

Digital Twins are one of the hottest digital trends. In this contribution we will shortly review the concept of Digital Twins and the chances for novel industrial applications. Mathematics are a key enabler and the impact will be highlighted along four specific examples addressing Digital Product Twins democratizing Design, Digital Production Twins enabling robots to mill, Digital Production Twins driving industrialization of additive manufacturing, and Digital Performance Twins boosting operations. We conclude the article with an outlook on the next wave of Digital Twins, Executable Digital Twins, and will review the associated challenges and opportunities for mathematics.
翻訳日:2023-06-09 00:22:57 公開日:2020-01-03
# AIアカウンタビリティのギャップを埋める - 内部アルゴリズム監査のためのエンドツーエンドフレームワークの定義

Closing the AI Accountability Gap: Defining an End-to-End Framework for Internal Algorithmic Auditing ( http://arxiv.org/abs/2001.00973v1 )

ライセンス: Link先を確認
Inioluwa Deborah Raji, Andrew Smart, Rebecca N. White, Margaret Mitchell, Timnit Gebru, Ben Hutchinson, Jamila Smith-Loud, Daniel Theron, Parker Barnes(参考訳) 人工知能システムの社会的影響に対する懸念が高まり、アルゴリズムをデプロイする外部の研究者によって、デプロイされたシステムが害に対して監査されるという、学術およびジャーナリストの文学の波に触発された。 しかし、デプロイ前に自身のシステムの有害な影響を識別することは、まだ困難であり、一度デプロイすると、創発的な問題がソースに遡るのは難しい、あるいは不可能になる可能性がある。 本稿では,人工知能システム開発をエンドツーエンドでサポートし,内部組織開発ライフサイクル全体に適用するアルゴリズム監査のフレームワークを提案する。 監査の各段階は、プロセス全体を通じてなされる決定の適合性を評価するための組織の価値観や原則に基づいて、監査報告書全体を形成する一連の文書を導き出します。 提案する監査フレームワークは,監査の完全性を確保するために堅牢なプロセスを組み込むことで,大規模人工知能システムの開発と展開における説明責任ギャップを埋めることを目的としている。

Rising concern for the societal implications of artificial intelligence systems has inspired a wave of academic and journalistic literature in which deployed systems are audited for harm by investigators from outside the organizations deploying the algorithms. However, it remains challenging for practitioners to identify the harmful repercussions of their own systems prior to deployment, and, once deployed, emergent issues can become difficult or impossible to trace back to their source. In this paper, we introduce a framework for algorithmic auditing that supports artificial intelligence system development end-to-end, to be applied throughout the internal organization development lifecycle. Each stage of the audit yields a set of documents that together form an overall audit report, drawing on an organization's values or principles to assess the fit of decisions made throughout the process. The proposed auditing framework is intended to contribute to closing the accountability gap in the development and deployment of large-scale artificial intelligence systems by embedding a robust process to ensure audit integrity.
翻訳日:2023-06-09 00:22:41 公開日:2020-01-03
# 顔の保存:顔認識監査の倫理的懸念の調査

Saving Face: Investigating the Ethical Concerns of Facial Recognition Auditing ( http://arxiv.org/abs/2001.00964v1 )

ライセンス: Link先を確認
Inioluwa Deborah Raji, Timnit Gebru, Margaret Mitchell, Joy Buolamwini, Joonseok Lee, Emily Denton(参考訳) 偏りのあるパフォーマンスを明らかにするために必須であるが、アルゴリズムによる監査を意図した試みは、これらの措置が保護することを目的とした人口に影響を及ぼす可能性がある。 この懸念は、データが敏感で倫理的に疑わしい方法でしばしば使用される顔認識のような生体認証システムの監査においてさらに顕著である。 商業的な顔処理技術の監査を行う場合,特に5つの倫理的懸念点を提示し,監査者が意識すべき設計上の考慮点と倫理的緊張点を強調して,監査システムによって伝播する害を悪化させ,補うことのないようにした。 私たちはさらに,これらの懸念の具体的イラストを提供して,これらの懸念がアルゴリズム監査の役割に与える影響と,それらが明らかにする基本的な製品制限を振り返って締めくくっています。

Although essential to revealing biased performance, well intentioned attempts at algorithmic auditing can have effects that may harm the very populations these measures are meant to protect. This concern is even more salient while auditing biometric systems such as facial recognition, where the data is sensitive and the technology is often used in ethically questionable manners. We demonstrate a set of five ethical concerns in the particular case of auditing commercial facial processing technology, highlighting additional design considerations and ethical tensions the auditor needs to be aware of so as not exacerbate or complement the harms propagated by the audited system. We go further to provide tangible illustrations of these concerns, and conclude by reflecting on what these concerns mean for the role of the algorithmic audit and the fundamental product limitations they reveal.
翻訳日:2023-06-09 00:22:24 公開日:2020-01-03
# 高次元および非線形パネルデータに対する適応離散平滑化

Adaptive Discrete Smoothing for High-Dimensional and Nonlinear Panel Data ( http://arxiv.org/abs/1912.12867v2 )

ライセンス: Link先を確認
Xi Chen, Ye Luo, Martin Spindler(参考訳) 本稿では,高次元および非線形パネルデータモデルのためのデータ駆動平滑化手法を提案する。 重み付き観測結果を用いて,個別の(非線形)関数と,計量的あるいは機械学習手法による推定を可能にする。 重みはデータ駆動方式で決定され、対応する関数間の類似度に依存し、初期推定に基づいて測定される。 このような手順の鍵となる特徴は、最初の段階で推定される距離と類似度に基づいて個人をクラスタリングすることである。 提案手法は,高次元の場合や複雑で不均一なデータに特に有益である,様々な統計的推定手法,特に現代の機械学習手法と組み合わせることができる。 アプローチは、従来の‘textquotedblleft\ hard clustering\textquotedblright’と比較して、‘textquotedblleft Soft-clustering\textquotedblright’と解釈できる。 我々は,推定器を用いて予測を大幅に改善できることを示すシミュレーション研究を行う。 最後に,輸送業界の主要な企業であるdodichuxing.comのビッグデータを分析し,大量の共変量に基づいて供給と需要のギャップを分析し,予測する。 我々の推定器は、既存の線形パネルデータ推定器と比較して、サンプル外予測において明らかに優れている。

In this paper we develop a data-driven smoothing technique for high-dimensional and non-linear panel data models. We allow for individual specific (non-linear) functions and estimation with econometric or machine learning methods by using weighted observations from other individuals. The weights are determined by a data-driven way and depend on the similarity between the corresponding functions and are measured based on initial estimates. The key feature of such a procedure is that it clusters individuals based on the distance / similarity between them, estimated in a first stage. Our estimation method can be combined with various statistical estimation procedures, in particular modern machine learning methods which are in particular fruitful in the high-dimensional case and with complex, heterogeneous data. The approach can be interpreted as a \textquotedblleft soft-clustering\textquotedblright\ in comparison to traditional\textquotedblleft\ hard clustering\textquotedblright that assigns each individual to exactly one group. We conduct a simulation study which shows that the prediction can be greatly improved by using our estimator. Finally, we analyze a big data set from didichuxing.com, a leading company in transportation industry, to analyze and predict the gap between supply and demand based on a large set of covariates. Our estimator clearly performs much better in out-of-sample prediction compared to existing linear panel data estimators.
翻訳日:2023-01-17 02:25:56 公開日:2020-01-03
# ffusioncgan : 細胞病理デジタルスライドにおける条件付きganを用いた端対端融合法

FFusionCGAN: An end-to-end fusion method for few-focus images using conditional GAN in cytopathological digital slides ( http://arxiv.org/abs/2001.00692v1 )

ライセンス: Link先を確認
Xiebo Geng (1 and 4), Sibo Liua (1 and 4), Wei Han (1), Xu Li (1), Jiabo Ma (1), Jingya Yu (1), Xiuli Liu (1), Sahoqun Zeng (1), Li Chen (2 and 3), Shenghua Cheng (1 and 3) ((1) Britton Chance Center for Biomedical Photonics, Wuhan National Laboratory for Optoelectronics-Huazhong University of Science and Technology, China,(2) Department of Clinical Laboratory, Tongji Hospital, Huazhong University of Science and Technology, China, (3) Corresponding author, (4) Equal contribution to this work)(参考訳) マルチフォーカス画像融合技術は、多くの物体が焦点を合わせている画像に、異なるフォーカス深度画像を圧縮する。 しかし、従来のアルゴリズムやディープラーニングベースのアルゴリズムを含む既存の画像融合技術は高品質な融合画像を生成することができるが、同じ視野で異なる焦点深度を持つ複数の画像が必要である。 この基準は、時間効率が要求される場合やハードウェアが不十分な場合では満たされない。 この問題は大きなスライド画像全体において特に顕著である。 本稿では, 細胞病理学的デジタルスライド画像の多焦点画像融合に着目し, 条件生成対向ネットワーク(GAN)に基づく単一焦点画像や少数焦点画像から融合画像を生成する新しい手法を提案する。 ジェネレータと判別器の対角学習により、鮮明なテクスチャと広い被写界深度を有する融合画像を生成することができる。 細胞病理画像の特徴と組み合わせて,U-NetとDenseBlockを組み合わせた新しいジェネレータアーキテクチャを設計し,ネットワークの受容領域を効果的に改善し,画像特徴を包括的に符号化する。 本稿では,細胞病理学的画像のぼやけた領域を識別するセマンティックセグメンテーションネットワークを開発した。 ネットワークを生成モデルに統合することにより、生成した融合画像の品質を効果的に向上する。 本手法では,単焦点画像または少数焦点画像のみから融合画像を生成することができ,時間とハードウェアコストの増大に伴う焦点深度の異なる複数の画像の収集問題を回避できる。 さらに,従来の手法のように複雑な活動レベルの計測や融合ルールを手作業で設計することなく,入力源画像から融合画像への直接マッピングを学習できるように設計されている。

Multi-focus image fusion technologies compress different focus depth images into an image in which most objects are in focus. However, although existing image fusion techniques, including traditional algorithms and deep learning-based algorithms, can generate high-quality fused images, they need multiple images with different focus depths in the same field of view. This criterion may not be met in some cases where time efficiency is required or the hardware is insufficient. The problem is especially prominent in large-size whole slide images. This paper focused on the multi-focus image fusion of cytopathological digital slide images, and proposed a novel method for generating fused images from single-focus or few-focus images based on conditional generative adversarial network (GAN). Through the adversarial learning of the generator and discriminator, the method is capable of generating fused images with clear textures and large depth of field. Combined with the characteristics of cytopathological images, this paper designs a new generator architecture combining U-Net and DenseBlock, which can effectively improve the network's receptive field and comprehensively encode image features. Meanwhile, this paper develops a semantic segmentation network that identifies the blurred regions in cytopathological images. By integrating the network into the generative model, the quality of the generated fused images is effectively improved. Our method can generate fused images from only single-focus or few-focus images, thereby avoiding the problem of collecting multiple images of different focus depths with increased time and hardware costs. Furthermore, our model is designed to learn the direct mapping of input source images to fused images without the need to manually design complex activity level measurements and fusion rules as in traditional methods.
翻訳日:2023-01-14 18:14:46 公開日:2020-01-03
# 単一構造原子層で形成されたサブラジアント光学鏡

A subradiant optical mirror formed by a single structured atomic layer ( http://arxiv.org/abs/2001.00795v1 )

ライセンス: Link先を確認
Jun Rui, David Wei, Antonio Rubio-Abadal, Simon Hollerith, Johannes Zeiher, Dan M. Stamper-Kurn, Christian Gross, Immanuel Bloch(参考訳) 光と物質との相互作用のための効率的で多用途なインターフェースは、量子科学にとって必須の基盤である。 量子エミッタの構造的サブ波長配列における光子-双極子相互作用の豊富な相互作用に基づいて、光-物質相互作用を制御する基本的な新しい方法が最近提案されている。 本稿では,光学格子内の2次元(2次元)四角形原子配列の協調的サブラジアント応答の直接観察について報告する。 我々は、個々の原子の量子制限崩壊のかなり下にある集合原子反応のスペクトル的狭さを観察する。 空間分解分光測定により、アレイは数百個の原子の単分子膜のみによって形成された効率的なミラーとして機能することを示した。 配列内の原子密度を調整し、粒子の秩序を変化させることで、配列の協調応答を制御し、アンサンブルの集合特性に対する空間秩序と双極子相互作用の相互作用を解明することができる。 配列外にある原子のブローチ振動により、原子ミラーの反射率を動的に制御することができる。 我々の研究は、原子の構造的アンサンブルに基づく効率的な光学メタマテリアル工学を実証し、光と新しい光物質界面を単一量子レベルで制御した多体物理学への道を開く。

Efficient and versatile interfaces for the interaction of light with matter are an essential cornerstone for quantum science. A fundamentally new avenue of controlling light-matter interactions has been recently proposed based on the rich interplay of photon-mediated dipole-dipole interactions in structured subwavelength arrays of quantum emitters. Here we report on the direct observation of the cooperative subradiant response of a two-dimensional (2d) square array of atoms in an optical lattice. We observe a spectral narrowing of the collective atomic response well below the quantum-limited decay of individual atoms into free space. Through spatially resolved spectroscopic measurements, we show that the array acts as an efficient mirror formed by only a single monolayer of a few hundred atoms. By tuning the atom density in the array and by changing the ordering of the particles, we are able to control the cooperative response of the array and elucidate the interplay of spatial order and dipolar interactions for the collective properties of the ensemble. Bloch oscillations of the atoms out of the array enable us to dynamically control the reflectivity of the atomic mirror. Our work demonstrates efficient optical metamaterial engineering based on structured ensembles of atoms and paves the way towards the controlled many-body physics with light and novel light-matter interfaces at the single quantum level.
翻訳日:2023-01-14 18:13:27 公開日:2020-01-03
# 実験量子命題の真理と虚偽の計算の等しいコストは、量子並列計算を必要とする

Equal cost of computation for truth and falsity of experimental quantum propositions necessitates quantum parallel computing ( http://arxiv.org/abs/2001.00913v1 )

ライセンス: Link先を確認
Arkady Bolotin(参考訳) 量子コンピューティングに関する過去数十年の関心と興奮にもかかわらず、このコンピューティングが真に役に立つところはいまだに欠けている。 本論文で示されるように、実験量子命題の真理と虚偽の計算コスト(前提から結論を推測するために要求される)は古典計算では達成できない。 一方、量子並列コンピューティングでは、そのような計算の効率が1より大きいことを前提に、この等式が実現されるかもしれない。

Notwithstanding interest and excitement building around quantum computing in the last decades, a concise statement saying where this computing can truly help is still missing. As it is shown in the present paper, equal cost of computation for truth and falsity of experimental quantum propositions (required in order to infer a conclusion from a premise) cannot be achieved with classical computing. On the other hand, this equality might be realized with quantum parallel computing provided that the efficiency of such computing can be greater than 1.
翻訳日:2023-01-14 18:13:07 公開日:2020-01-03
# Som-Raychaudhuri時空におけるスカラーおよびベクトルポテンシャルとエネルギー運動量分布のディラックフェルミオンについて

Comment on "Dirac fermions in Som-Raychaudhuri space-time with scalar and vector potential and the energy momentum distributions" ( http://arxiv.org/abs/2001.00911v1 )

ライセンス: Link先を確認
Francisco A. Cruz Neto and Andr\'es G. Jir\'on Vicente and Luis B. Castro(参考訳) この論文(eur. phys. j. c (2019) 79: 541] では、平たいg\"odel型時空(som-raychaudhuri space-time)のクラスにおけるスカラーとベクトルポテンシャルの存在下でのディラック方程式の解について、誤解を招く治療と誤った表現を指摘している。 適切な手順に従って,本システムの解を求める。

We point out a misleading treatment and incorrect expressions in a recent paper published in this Journal [Eur. Phys. J. C (2019) 79: 541] regarding solutions for the Dirac equation in presence of scalar and vector potentials in a class of flat G\"odel-type space-time called Som-Raychaudhuri space-time. Following the appropriate procedure we obtain the solution for this system.
翻訳日:2023-01-14 18:12:41 公開日:2020-01-03
# パーソナライズされた学術道路とキャリア道路の予測:マルチユースレコメンデーションシステムに向けた第1歩

Predicting Personalized Academic and Career Roads: First Steps Toward a Multi-Uses Recommender System ( http://arxiv.org/abs/2001.10613v1 )

ライセンス: Link先を確認
Alexandre Nadjem and Juan-Manuel Torres-Moreno and Marc El-B\`eze and Guillaume Marrel and Beno\^it Bonte(参考訳) 現在の仕事/卒業証書から5年経った今、あなたはどのように自分自身を見ることができますか? 本稿では,ユーザの軌道の将来像を表現するために,研究分野や業務領域の広いカテゴリの概念を紹介する。 次に,次のステップを提案する際に,予測にどのように影響するかを示す。

Nobody knows what one's do in the future and everyone will have had a different answer to the question : how do you see yourself in five years after your current job/diploma? In this paper we introduce concepts, large categories of fields of studies or job domains in order to represent the vision of the future of the user's trajectory. Then, we show how they can influence the prediction when proposing him a set of next steps to take.
翻訳日:2023-01-14 18:05:50 公開日:2020-01-03
# 優れた機能マッチング:低レイテンシで正確で堅牢なvo/vslam

Good Feature Matching: Towards Accurate, Robust VO/VSLAM with Low Latency ( http://arxiv.org/abs/2001.00714v1 )

ライセンス: Link先を確認
Yipu Zhao, Patricio A. Vela(参考訳) 最先端VO/VSLAMシステムの解析は、性能(精度と堅牢性)と効率(レイテンシ)のバランスのギャップを露呈する。 直接および半間接のシステムはレイテンシが低いが、いくつかのターゲットシナリオでは適用できないし、機能ベースのシステムよりも精度が低い。 本稿では,特徴量に基づくVSLAMの適用により,性能と効率のギャップを埋めることを目的とする。 本稿では,アクティブなmap-to-frame特徴マッチング手法であるgood feature matchingを提案する。 特徴マッチングの取り組みは、組合せ時間の複雑さがあり、スコアリングメトリックを選択する必要があるサブマトリックス選択と結びついている。 シミュレーションにより,Max-logDet行列が最適であることを示す。 実時間適用性については,決定論的選択とランダム化加速度の組み合わせについて検討する。 提案アルゴリズムは単眼およびステレオ機能に基づくvslamシステムに統合されている。 複数のベンチマークと計算ハードウェアの広範な評価は、レイテンシの低減と正確性と堅牢性保存を定量化する。

Analysis of state-of-the-art VO/VSLAM system exposes a gap in balancing performance (accuracy & robustness) and efficiency (latency). Feature-based systems exhibit good performance, yet have higher latency due to explicit data association; direct & semidirect systems have lower latency, but are inapplicable in some target scenarios or exhibit lower accuracy than feature-based ones. This paper aims to fill the performance-efficiency gap with an enhancement applied to feature-based VSLAM. We present good feature matching, an active map-to-frame feature matching method. Feature matching effort is tied to submatrix selection, which has combinatorial time complexity and requires choosing a scoring metric. Via simulation, the Max-logDet matrix revealing metric is shown to perform best. For real-time applicability, the combination of deterministic selection and randomized acceleration is studied. The proposed algorithm is integrated into monocular & stereo feature-based VSLAM systems. Extensive evaluations on multiple benchmarks and compute hardware quantify the latency reduction and the accuracy & robustness preservation.
翻訳日:2023-01-14 18:05:43 公開日:2020-01-03
# ダブルシームネットワークを用いたLiDARとカメラデータのための教師なし共通表現学習

Deep Unsupervised Common Representation Learning for LiDAR and Camera Data using Double Siamese Networks ( http://arxiv.org/abs/2001.00762v1 )

ライセンス: Link先を確認
Andreas B\"uhler, Niclas V\"odisch, Mathias B\"urki, Lukas Schaupp(参考訳) センサーモダリティのドメインギャップは、自律ロボットの設計に課題をもたらす。 このギャップを埋めるために、LiDARとカメラデータの共通表現を見つけるための2つの教師なしトレーニングフレームワークを提案する。 最初の方法は、結果の整合性を確保するために、ダブルシームズトレーニング構造を利用する。 第2の方法は、ネットワークを所望の表現に向けて導くキャニーエッジ画像を使用する。 すべてのネットワークは教師なしの方法でトレーニングされ、スケーラビリティの余地を残します。 その結果,一般的なコンピュータビジョンアプリケーションを用いて評価し,提案手法の限界について概説する。

Domain gaps of sensor modalities pose a challenge for the design of autonomous robots. Taking a step towards closing this gap, we propose two unsupervised training frameworks for finding a common representation of LiDAR and camera data. The first method utilizes a double Siamese training structure to ensure consistency in the results. The second method uses a Canny edge image guiding the networks towards a desired representation. All networks are trained in an unsupervised manner, leaving room for scalability. The results are evaluated using common computer vision applications, and the limitations of the proposed approaches are outlined.
翻訳日:2023-01-14 18:05:05 公開日:2020-01-03
# マルチスケールエンコーダデコーダネットワーク(MED-Net)を用いた生体内メラノサイト病変の共焦点画像中の細胞パターンの分離

Segmentation of Cellular Patterns in Confocal Images of Melanocytic Lesions in vivo via a Multiscale Encoder-Decoder Network (MED-Net) ( http://arxiv.org/abs/2001.01005v1 )

ライセンス: Link先を確認
Kivanc Kose, Alican Bozkurt, Christi Alessi-Fox, Melissa Gill, Caterina Longo, Giovanni Pellacani, Jennifer Dy, Dana H. Brooks, Milind Rajadhyaksha(参考訳) 生体内光学顕微鏡は、非侵襲的にがんやその他の疾患の診断と治療を導くための定期的な臨床実践に進歩し、従来の生検の必要性を減らし始めている。 しかし、光学顕微鏡画像の読解と解析は概して定性的であり、主に視覚検査に依存している。 本稿では,MED-Net(Multiscale Encoder-Decoder Network)と呼ばれる自動セマンティックセマンティクス手法を提案する。 このアプローチの新規性は、複数のスケールでのテクスチャパターンのモデリングである。 これは、通常、低倍率(低解像度、大視野)から始まり、高倍率(高解像度、小視野)で不審領域を綿密に検査する病理画像検査の手順を模倣する。 我々は, メラノサイト病変の117個の反射性共焦点顕微鏡 (RCM) モザイクの非重畳分割をトレーニングし, 実験を行った。 患者側のクロスバリデーションにより, 画素ごとの平均感度と特異性はそれぞれ70\pm11\%$と95\pm2\%$であり, それぞれ0.71\pm0.09$ dice係数が6クラスにわたって達成された。 シナリオでは,データクリニックを分割し,複数のクリニックにまたがってモデルの一般化可能性を検討した。 この設定では,0.75ドルDice係数で,それぞれ74\%$と9.5\%$の画素平均感度と特異性を達成した。 MED-Netを最先端セマンティックセグメンテーションモデルと比較し,定量セグメンテーション性能を向上した。 また,マルチスケールアーキテクチャのネストにより,MED-NetモデルによりRCMモザイクがより一貫性を保ち,非現実的なフラグメントアノテーションを避けることが示唆された。

In-vivo optical microscopy is advancing into routine clinical practice for non-invasively guiding diagnosis and treatment of cancer and other diseases, and thus beginning to reduce the need for traditional biopsy. However, reading and analysis of the optical microscopic images are generally still qualitative, relying mainly on visual examination. Here we present an automated semantic segmentation method called "Multiscale Encoder-Decoder Network (MED-Net)" that provides pixel-wise labeling into classes of patterns in a quantitative manner. The novelty in our approach is the modeling of textural patterns at multiple scales. This mimics the procedure for examining pathology images, which routinely starts with low magnification (low resolution, large field of view) followed by closer inspection of suspicious areas with higher magnification (higher resolution, smaller fields of view). We trained and tested our model on non-overlapping partitions of 117 reflectance confocal microscopy (RCM) mosaics of melanocytic lesions, an extensive dataset for this application, collected at four clinics in the US, and two in Italy. With patient-wise cross-validation, we achieved pixel-wise mean sensitivity and specificity of $70\pm11\%$ and $95\pm2\%$, respectively, with $0.71\pm0.09$ Dice coefficient over six classes. In the scenario, we partitioned the data clinic-wise and tested the generalizability of the model over multiple clinics. In this setting, we achieved pixel-wise mean sensitivity and specificity of $74\%$ and $95\%$, respectively, with $0.75$ Dice coefficient. We compared MED-Net against the state-of-the-art semantic segmentation models and achieved better quantitative segmentation performance. Our results also suggest that, due to its nested multiscale architecture, the MED-Net model annotated RCM mosaics more coherently, avoiding unrealistic-fragmented annotations.
翻訳日:2023-01-14 18:04:39 公開日:2020-01-03
# 検索セッションにおけるユーザニーズのモデル化

Modeling Information Need of Users in Search Sessions ( http://arxiv.org/abs/2001.00861v1 )

ライセンス: Link先を確認
Kishaloy Halder, Heng-Tze Cheng, Ellie Ka In Chio, Georgios Roumpos, Tao Wu, Ritesh Agarwal(参考訳) ユーザは検索エンジンにクエリを発行し、生成した結果に望ましい情報を見つけようとする。 そもそも必要な情報が満たされない場合、彼らはこのプロセスを繰り返す。 ユーザの実際の情報要求を表現し,検索セッションの行程を決定するクエリにおいて,重要な単語を特定することが重要である。 そこで本研究では,ユーザによって発行された過去のクエリセットと,それらによって探索された結果を活用するシーケンス・ツー・シーケンス・ベース・ニューラルアーキテクチャを提案する。 まず、重要で次のクエリに保持される現在のクエリの単語を予測するために、モデルを採用します。 さらに,本モデルのダウンストリームアプリケーションとして,次のクエリ提案で広く普及しているタスクに基づいて評価を行った。 情報収集の直感的な戦略は,2つの大規模リアルタイム検索ログデータセットにおいて,これらのタスクにおいて優れた性能が得られることを示す。

Users issue queries to Search Engines, and try to find the desired information in the results produced. They repeat this process if their information need is not met at the first place. It is crucial to identify the important words in a query that depict the actual information need of the user and will determine the course of a search session. To this end, we propose a sequence-to-sequence based neural architecture that leverages the set of past queries issued by users, and results that were explored by them. Firstly, we employ our model for predicting the words in the current query that are important and would be retained in the next query. Additionally, as a downstream application of our model, we evaluate it on the widely popular task of next query suggestion. We show that our intuitive strategy of capturing information need can yield superior performance at these tasks on two large real-world search log datasets.
翻訳日:2023-01-14 18:03:41 公開日:2020-01-03
# 非慣性運動における2つの最大絡み合った原子の放射反応誘起遷移

Radiation-reaction-induced transitions of two maximally entangled atoms in non-inertial motion ( http://arxiv.org/abs/2001.00750v1 )

ライセンス: Link先を確認
Wenting Zhou and Hongwei Yu(参考訳) DDCフォーマリズム(Dalibard, Dupont-Roc, Cohen-Tannoudji)を適用し、定常軌道に沿った同期運動において、真空質量のないスカラー場と相互作用する2つの同一の2層原子のエネルギー変化率を調べた。 By separating the contributions of vacuum fluctuations and atomic radiation reaction, we first show that for the two-atom system initially prepared in the factorizable eigenstates $|g_Ag_B\rangle$ and $|e_Ae_B\rangle$, where $g$ and $e$ represent the ground state and the excited state of a single atom respectively, both vacuum fluctuations and atomic radiation reaction contribute to the average rate of change of energy of the two-atom system, and the contribution of vacuum fluctuations is independent of the interatomic separation while that of atomic radiation reaction is dependent on it. これは、真空揺らぎが原子間分離に依存する文献における既存の結果とは逆である。 しかし、当初2原子系が非分解性対称/非対称交絡状態に準備されている場合、2原子系のエネルギー変化の平均値は真空変動によって摂動されないが、完全に原子線反応の結果である。 次に, 最初は対称/反対称交絡状態, すなわち, 同期慣性運動と同期一様加速度の2つの特殊な2原子系の運動について考察する。 一様加速原子のエネルギー変化の平均速度とは対照的に、一様加速された二原子系のエネルギー変化の平均値は非熱的である。 2つの相関原子の状態遷移に対する非慣性運動の影響についても論じる。

We apply the DDC formalism [proposed by Dalibard, Dupont-Roc and Cohen-Tannoudji] to study the average rate of change of energy of two identical two-level atoms interacting with the vacuum massless scalar field in synchronized motion along stationary trajectories. By separating the contributions of vacuum fluctuations and atomic radiation reaction, we first show that for the two-atom system initially prepared in the factorizable eigenstates $|g_Ag_B\rangle$ and $|e_Ae_B\rangle$, where $g$ and $e$ represent the ground state and the excited state of a single atom respectively, both vacuum fluctuations and atomic radiation reaction contribute to the average rate of change of energy of the two-atom system, and the contribution of vacuum fluctuations is independent of the interatomic separation while that of atomic radiation reaction is dependent on it. This is contrary to the existing results in the literature where vacuum fluctuations are interatomic-separation dependent. However, if the two-atom system is initially prepared in the unfactorizable symmetric/antisymmetric entangled state, the average rate of change of energy of the two-atom system is never perturbed by the vacuum fluctuations, but is totally a result of the atomic radiation reaction. We then consider two special cases of motion of the two-atom system which is initially prepared in the symmetric/antisymmetric entangled state, i.e., synchronized inertial motion and synchronized uniform acceleration. In contrast to the average rate of change of energy of a single uniformly accelerated atom, the average rate of change of energy of the uniformly accelerated two-atom system is nonthermal-like. The effects of noninertial motion on the transitions of states of the two correlated atoms are also discussed.
翻訳日:2023-01-14 18:03:02 公開日:2020-01-03
# 量子超越」実験の意味について

On the meaning of "quantum supremacy" experiments ( http://arxiv.org/abs/2001.00791v1 )

ライセンス: Link先を確認
Robert Alicki(参考訳) google quantum deviceが達成した"量子超越性(quantum subpremacy)"を主張する最近の実験結果は批判的に議論されている。 Googleチームは、今日のスーパーコンピュータでは確実にシミュレートできないジョセフソン接合技術に基づく量子カオスシステムを構築した。 しかし、同様の「超越性」は、周期的強制ダフィング発振器のような適切に設計されたマイクロメカニカルデバイスにおいて、石英時計の利用可能な技術を用いて実現することができる。 また、古典系と量子カオス系が同じように振る舞うことも思い出される。 したがって、この場合、「量子超越性」よりも「アナログ超越性」について話す方がよい。つまり、現代でも機械的アナログコンピュータは、計算タスクを減らし、カオスシステムによって生成されたエルゴード測度をサンプリングすることでスーパーコンピュータより優れている。

The recently reported experimental results claiming "quantum supremacy" achieved by Google quantum device are critically discussed. The Google team constructed a quantum chaotic system based on Josephson junction technology which cannot be reliably simulated by the present day supercomputers. However, the similar "supremacy" can be realized for properly designed micro-mechanical devices, like periodically forced Duffing oscillator, using the available technology of quartz clocks. It is also reminded that classical and quantum chaotic systems behave in a similar way. Therefore, in this case, one should speak rather about the "analog supremacy" than "quantum supremacy" what means that even now mechanical analog computers can outperform supercomputers when the computational task can be reduced to sampling of ergodic measures generated by chaotic systems.
翻訳日:2023-01-14 17:56:45 公開日:2020-01-03
# 多部フォトニック系における量子相関の脆弱性とコヒーレンス

Fragility of quantum correlations and coherence in a multipartite photonic system ( http://arxiv.org/abs/2001.00797v1 )

ライセンス: Link先を確認
Huan Cao, Chandrashekar Radhakrishnan, Ming Su, Md. Manirul Ali, Chao Zhang, Y.F. Huang, Tim Byrnes, Chuangfeng Li, and Guang-Can Guo(参考訳) ある量子状態はデコヒーレンスの存在下で特に脆弱であることがよく知られており、シュロディンガーの有名なゲダンケン猫実験で示されている。 量子状態は、絡み合い、量子相関、量子コヒーレンスといった量子量の階層によって特徴づけられることが近年より高く評価されている。 これらの量はそれぞれ、デコヒーレンスの存在下で様々なフラクティリティを持つと推測されている。 ここでは,三成分のフォトニック状態を作成し,制御量のデファージングを行うことで,この予想を実験的に確認する。 強調が全ての量子ビットに適用されると、エンタングルメントは最も脆弱な量であり、次に量子コヒーレンス、そして相互情報であることが分かる。 これは、多部量子相関は量子性の非常に脆弱な表現であると広く期待されているものと一致している。 また、星上の3つの量子ビットのうち1つと$ W \bar{W} $状態でデファスを行う。 ここで、状態における相関とコヒーレンスの分布は、強調された位置に関してより重要になる。

Certain quantum states are well-known to be particularly fragile in the presence of decoherence, as illustrated by Schrodinger's famous gedanken cat experiment. It has been better appreciated more recently that quantum states can be characterized in a hierarchy of quantum quantities such entanglement, quantum correlations, and quantum coherence. It has been conjectured that each of these quantities have various degrees of fragility in the presence of decoherence. Here we experimentally confirm this conjecture by preparing tripartite photonic states and subjecting them to controlled amounts of dephasing. When the dephasing is applied to all the qubits, we find that the entanglement is the most fragile quantity, followed by the quantum coherence, then mutual information. This is in agreement with the widely held expectation that multipartite quantum correlations are a highly fragile manifestation of quantumness. We also perform dephasing on one out of the three qubits on star and $ W \bar{W} $ states. Here the distribution of the correlations and coherence in the state becomes more important in relation to the dephasing location.
翻訳日:2023-01-14 17:56:28 公開日:2020-01-03
# エントロピー時間-エネルギー不確実性関係:代数的アプローチ

Entropic time-energy uncertainty relations: An algebraic approach ( http://arxiv.org/abs/2001.00799v1 )

ライセンス: Link先を確認
Christian Bertoni, Yuxiang Yang, Joseph M. Renes(参考訳) 我々は、時間とエネルギーの間のエントロピーの不確実性関係、またはより正確には、観測可能な$g$ の測定値と$g$-create evolution $e^{-ir g}$ の変位 $r$ の間に対処する。 我々は、しばしば考慮される2つのシナリオにおけるエントロピーの不確実性の下限を導出し、推理者の役割が固定されるか否かに関わらず、2つの異なる投射ゲームとして示すことができる。 特に、最初のゲームの境界は、Colesらによる以前の結果を改善する。 我々の導出は、最近提案された新しい代数的手法をサブルーチンとして使用し、一般に、より広いエントロピーの不確実性原理のクラスを導出するために使用できる。

We address entropic uncertainty relations between time and energy or, more precisely, between measurements of an observable $G$ and the displacement $r$ of the $G$-generated evolution $e^{-ir G}$. We derive lower bounds on the entropic uncertainty in two frequently considered scenarios, which can be illustrated as two different guessing games in which the role of the guessers are fixed or not. In particular, our bound for the first game improves the previous result by Coles et al.. Our derivation uses as a subroutine a recently proposed novel algebraic method, which can in general be used to derive a wider class of entropic uncertainty principles.
翻訳日:2023-01-14 17:56:10 公開日:2020-01-03
# 関数値二値展開法による超越関数評価のための量子回路設計

Quantum circuits design for evaluating transcendental functions based on a function-value binary expansion method ( http://arxiv.org/abs/2001.00807v1 )

ライセンス: Link先を確認
Shengbin Wang, Zhimin Wang, Wendong Li, Lixin Fan, Guolong Cui, Zhiqiang Wei, Yongjian Gu(参考訳) 計算基底における量子算術は多くの回路ベースの量子アルゴリズムの基本成分を構成する。 代数関数の可逆的実装に関する多くの研究があるが、高次超越関数の研究は無視されている。 本稿では,qFBE法(quantum Function-value Binary Expansion)と呼ばれる新しい手法を用いて,超越関数の評価を行う。 この方法は、超越関数の評価を簡単な再帰的な方法で代数関数の計算に変換する。 本稿では,qfbe法に基づく対数,指数関数,三角関数,逆三角関数を解く量子回路を提案する。 回路の効率は、Sunway TaihuLightスーパーコンピュータに搭載された量子仮想コンピューティングシステム上で実証される。 qFBE法は超越関数の評価のための統一的でプログラム化された解であり、多くの量子アルゴリズムにとって重要なビルディングブロックとなる。

Quantum arithmetic in the computational basis constitutes the fundamental component of many circuit-based quantum algorithms. There exist a lot of studies about reversible implementations of algebraic functions, while research on the higher-level transcendental functions is scant. We propose to evaluate the transcendental functions based on a novel methodology, which is called qFBE (quantum Function-value Binary Expansion) method. This method transforms the evaluation of transcendental functions to the computation of algebraic functions in a simple recursive way. We present the quantum circuits for solving the logarithmic, exponential, trigonometric and inverse trigonometric functions based on the qFBE method. The efficiency of the circuits is demonstrated on a quantum virtual computing system installed on the Sunway TaihuLight supercomputer. The qFBE method provides a unified and programmed solution for the evaluation of transcendental functions, and it will be an important building block for many quantum algorithms.
翻訳日:2023-01-14 17:55:56 公開日:2020-01-03
# 量子応用のためのデコヒーレンスフリー回転自由度

Decoherence-Free Rotational Degrees of Freedom for Quantum Applications ( http://arxiv.org/abs/2001.00826v1 )

ライセンス: Link先を確認
Julen S. Pedernales, Francesco Cosco, Martin B. Plenio(参考訳) 回転自由度を外部変動磁場による非一貫性に頑健にすることができ、同時に興味のある信号に対する感度を保った固体を体系的に構成するために球形$t$-designsを用いる。 具体的には、ますます複雑な形状を用いて、近傍のソースからの信号位相蓄積率と、より遠くのソースからの変動磁場によるデコヒーレンス率との比を任意の所望のレベルに増やすことができる。 これにより、自転度合いの長寿命のマクロな量子重ね合わせや、2つ以上の固体間の絡み合いの堅牢な生成が実現され、堅牢な量子センシングと精密なメートル法および量子レジスターに応用できる。

We employ spherical $t$-designs for the systematic construction of solids whose rotational degrees of freedom can be made robust to decoherence due to external fluctuating fields while simultaneously retaining their sensitivity to signals of interest. Specifically, the ratio of signal phase accumulation rate from a nearby source to the decoherence rate caused by fluctuating fields from more distant sources can be incremented to any desired level by using increasingly complex shapes. This allows for the generation of long-lived macroscopic quantum superpositions of rotational degrees of freedom and the robust generation of entanglement between two or more such solids with applications in robust quantum sensing and precision metrology as well as quantum registers.
翻訳日:2023-01-14 17:55:43 公開日:2020-01-03
# 不可分自発放出を伴うインバージョン二重子転移による非平面分子の絡み込み

Entangling non planar molecules via inversion doublet transition with negligible spontaneous emission ( http://arxiv.org/abs/2001.00829v1 )

ライセンス: Link先を確認
Isabel Gonzalo and Miguel A. Ant\'on(参考訳) 理論上,2つの非平面的および軽い同一分子(例えば$nh_3$ というピラミッド型)間の絡み合いを,トンネルによる核配座の内部空間反転による2倍の反転で理論的に解析した。 このシステムの特異性は、マイクロ波または遠赤外線領域にあるため、双極子モーメント遷移のかなりの値を持つ電気双極子遷移と無視可能な自発放出によって、2つの近接レベルを接続できるこの種の分子系の単純さにある。 これらの性質は、双極子-双極子相互作用と無視可能な自然崩壊によって決定される周波数で自由進化によって振動する絡み合い状態に関係し、その一方の絡み合い状態の頻繁な測定によって効率的な量子ゼノ効果を考えることができる。 分子が最初に上(または下)の固有状態にある場合、系は外部の放射場の下で進化し、発生した絡み合った状態の振動を、磁場のラビ周波数のオーダーの周波数で誘発する。 特定のデチューニングでは、対称な絡み合った状態、集合系の固有状態、およびその無視可能な自発放出は、最小化できる外部のデコヒーレンスプロセスによってのみ制限された時間に維持することができる。 使用されるデータは、$NH_3$分子のものであるが、他の分子も同様に有利な特徴を示す可能性がある。

We analyze theoretically the entanglement between two non-planar and light identical molecules (e.g., pyramidal as $NH_3$) that present inversion doubling due to the internal spatial inversion of their nuclear conformations by tunneling. The peculiarity of this system lies in the simplicity of this type of molecular system in which two near levels can be connected by allowed electric dipole transition with considerable value of the dipole moment transition and negligible spontaneous emission because the transition is in the microwave or far-infrared range. These properties give place to entanglement states oscillating by free evolution with frequency determined by the dipole-dipole interaction and negligible spontaneous decay, which allows to consider an efficient quantum Zeno effect by frequent measurements of one of the entangled states. If the molecules are initially both in the upper (or lower) eigenstate, the system evolves under an external radiation field, which can induce oscillations of the generated entangled states, with frequency of the order of the Rabi frequency of the field. For a certain detuning, a symmetric entangled state, eigenstate of the collective system can be populated, and given its negligible spontaneous emission, could be maintained for a time only limited by external decoherence processes which could be minimized. Although the data used are those of the $NH_3$ molecule, other molecules could present the same advantageous features.
翻訳日:2023-01-14 17:55:32 公開日:2020-01-03
# ハイブリッド物理系のハミルトン派からの排他的ポイント:スクイーズと反スクイーズ

Excepional Points from Hamiltonians of hybrid physical systems: Squeezing and anti-Squeezing ( http://arxiv.org/abs/2001.00929v1 )

ライセンス: Link先を確認
Romina Ramirez, Marta Reboiro and Diego Tielas(参考訳) 超伝導フラックス量子ビットとダイヤモンド中の窒素空色中心のアンサンブルからなるハイブリッドシステムにおける例外点の出現について検討した。 本稿では,モデル空間パラメータの解析により,例外点の生成を制御する可能性について考察する。 例外点の存在の特徴的な特徴の1つは、時間の関数として観測可能な天体の指数的崩壊挙動から逸脱することである。 本研究では,各サブシステムの密度行列の削減を計算し,ハイブリッドシステムの存在下での異なる初期状態の時間発展について検討する。 本稿では,異なる観測対象の定常挙動について得られた結果について述べる。 我々は、Squeezed Spin Statesと反Squeezed Spin Statesの出現を分析する。

We study the appearance of Exceptional Points in a hybrid system composed of a superconducting flux-qubit and an ensemble of nitrogen-vacancy colour centres in diamond. We discuss the possibility of controlling the generation of Exceptional Points, by the analysis of the model space parameters. One of the characteristic features of the presence of Exceptional Points, it is the departure from the exponential decay behaviour of the observables as a function of time. We study the time evolution of different initial states, in the presence of the hybrid system, by computing the reduced density matrix of each subsystem. We present the results we have obtained for the steady behaviour of different observables. We analyse the appearance of Squeezed Spin States and of anti-Squeezed Spin States.
翻訳日:2023-01-14 17:55:04 公開日:2020-01-03
# bpmersのインテリジェントなロボットプロセス自動化に向けて

Towards Intelligent Robotic Process Automation for BPMers ( http://arxiv.org/abs/2001.00804v1 )

ライセンス: Link先を確認
Simone Agostinelli, Andrea Marrella and Massimo Mecella(参考訳) ロボットプロセス自動化(rpa:robotic process automation)は、ビジネスプロセス管理(bpm)と人工知能(ai)の分野にまたがる、急成長する自動化技術である。 RPAツールは、コンピュータシステムのインタフェース上で、これまで人間のユーザが行っていたルーチンの実行をキャプチャし、ソフトウェアロボットを用いて、その実行をユーザの代わりにエミュレートすることができる。 現在、bpm領域では、ルーチン作業を含む単純な予測可能なビジネスプロセスだけがrpaツールによって自動化され、解釈の余地がなく、より洗練された作業はまだ人間の専門家に委ねられている。 本稿では,市販の RPA ツールの詳細な実験から始めて,いくつかの重要な側面に基づいて分類を行うための分類フレームワークを提供する。 そして、この分析に基づいて、4つの研究課題を導き、BPM領域におけるRPAのより広範な採用を実現するために、現在のRPA技術にインテリジェンスを注入するために必要な将来的なアプローチについて議論する。

Robotic Process Automation (RPA) is a fast-emerging automation technology that sits between the fields of Business Process Management (BPM) and Artificial Intelligence (AI), and allows organizations to automate high volume routines. RPA tools are able to capture the execution of such routines previously performed by a human users on the interface of a computer system, and then emulate their enactment in place of the user by means of a software robot. Nowadays, in the BPM domain, only simple, predictable business processes involving routine work can be automated by RPA tools in situations where there is no room for interpretation, while more sophisticated work is still left to human experts. In this paper, starting from an in-depth experimentation of the RPA tools available on the market, we provide a classification framework to categorize them on the basis of some key dimensions. Then, based on this analysis, we derive four research challenges and discuss prospective approaches necessary to inject intelligence into current RPA technology, in order to achieve more widespread adoption of RPA in the BPM domain.
翻訳日:2023-01-14 17:54:52 公開日:2020-01-03
# 拡張オブジェクトのヒト-ロボット協調操作:データ駆動モデルとヒト-ヒトダイアドの解析からの制御

Human-robot co-manipulation of extended objects: Data-driven models and control from analysis of human-human dyads ( http://arxiv.org/abs/2001.00991v1 )

ライセンス: Link先を確認
Erich Mielke, Eric Townsend, David Wingate, and Marc D. Killpack(参考訳) 人間のチームは、協調的な操作タスクを簡単に行うことができる。 しかし,ロボットと人間が同時に拡張物体を操作することは,既存の手法を用いて難しい課題である。 本稿では,人間-ロボットの協調作業に使用する動作意図を決定するために,人間のダイアド実験のデータを利用する。 まず,協調作業を行う人間と人間のダイナドのデータを提示し,分析する。 ヒトのダイアドデータは、物体の加速に必要な力に比べて相互作用力が無視できないこと、横動きの開始はダイドのリーダーからの異なるトルクトリガーによって特徴づけられることなど、興味深い傾向を示す。 また、異なるdyadのパフォーマンスを定量化するために、異なるメトリクスを調べます。 また,過去の動きに基づく人間の意図を予測するために,人間-人間間実験の動作データに基づく深層ニューラルネットワークを開発した。 次に,人間-ロボットダイナドにおけるロボット制御の基盤として,力と動きのデータをどのように利用できるかを示す。 最後に,ロボット協調操作のための2つのコントローラの性能と人間のダイアド性能を比較した。

Human teams are able to easily perform collaborative manipulation tasks. However, for a robot and human to simultaneously manipulate an extended object is a difficult task using existing methods from the literature. Our approach in this paper is to use data from human-human dyad experiments to determine motion intent which we use for a physical human-robot co-manipulation task. We first present and analyze data from human-human dyads performing co-manipulation tasks. We show that our human-human dyad data has interesting trends including that interaction forces are non-negligible compared to the force required to accelerate an object and that the beginning of a lateral movement is characterized by distinct torque triggers from the leader of the dyad. We also examine different metrics to quantify performance of different dyads. We also develop a deep neural network based on motion data from human-human trials to predict human intent based on past motion. We then show how force and motion data can be used as a basis for robot control in a human-robot dyad. Finally, we compare the performance of two controllers for human-robot co-manipulation to human-human dyad performance.
翻訳日:2023-01-14 17:46:43 公開日:2020-01-03
# テキストセグメンテーション改善のための2レベルトランスと補助コヒーレンスモデリング

Two-Level Transformer and Auxiliary Coherence Modeling for Improved Text Segmentation ( http://arxiv.org/abs/2001.00891v1 )

ライセンス: Link先を確認
Goran Glava\v{s} and Swapna Somasundaran(参考訳) 長いテキストの構造を意味的に一貫性のあるセグメントに分割することで、テキストをより読みやすくなり、要約や検索といった下流アプリケーションをサポートする。 テキストコヒーレンスとセグメンテーションの明らかなリンクから始め、単純だが明示的なコヒーレンスモデリングによるテキストセグメンテーションのための教師付きモデルを導入する。 我々のモデルは2つの階層的結合トランスフォーマーネットワークから成るニューラルネットワークであり、文レベルのセグメンテーション目標と、文の正しいシーケンスと腐敗した文を区別するコヒーレンス目標を結合するマルチタスク学習モデルである。 提案モデルはcoherence-aware text segmentation (cats)と呼ばれ、ベンチマークデータセットの集合上で最先端のセグメンテーション性能をもたらす。 さらに、CATSと言語間単語埋め込みを結合することにより、ゼロショット言語転送におけるその効果を実証する。

Breaking down the structure of long texts into semantically coherent segments makes the texts more readable and supports downstream applications like summarization and retrieval. Starting from an apparent link between text coherence and segmentation, we introduce a novel supervised model for text segmentation with simple but explicit coherence modeling. Our model -- a neural architecture consisting of two hierarchically connected Transformer networks -- is a multi-task learning model that couples the sentence-level segmentation objective with the coherence objective that differentiates correct sequences of sentences from corrupt ones. The proposed model, dubbed Coherence-Aware Text Segmentation (CATS), yields state-of-the-art segmentation performance on a collection of benchmark datasets. Furthermore, by coupling CATS with cross-lingual word embeddings, we demonstrate its effectiveness in zero-shot language transfer: it can successfully segment texts in languages unseen in training.
翻訳日:2023-01-14 17:46:12 公開日:2020-01-03
# ロボットプロセス自動化のためのデータ変換の自動発見

Automated Discovery of Data Transformations for Robotic Process Automation ( http://arxiv.org/abs/2001.01007v1 )

ライセンス: Link先を確認
Volodymyr Leno, Marlon Dumas, Marcello La Rosa, Fabrizio Maria Maggi, Artem Polyvyanyy(参考訳) ロボットプロセス自動化(rpa:robotic process automation)は、複数のアプリケーションとユーザインタラクションのシーケンスからなる反復ルーチンを自動化する技術である。 RPAがオープンする機会を完全に活用するためには、企業はどの特定のルーチンが自動化されるか、どのようにして見つける必要がある。 本稿では,ユーザインタラクション (UI) ログを解析して,ユーザがスプレッドシートや (Web) フォームから別のフォームにデータを転送するルーチンを発見する問題に対処する。 この論文は、この問題を、例によってデータ変換を発見すること、すなわち、いくつかのテクニックが利用できる問題とマッピングする。 本稿は,データ変換発見における最先端技術の適用は,非効率であることを示す。 そこで本論文では,uiログの情報を利用する2つの最適化と,アプリケーション間でのデータ転送がアルファベットトークンと数値トークンを別々にコピーすることを伴うことを提案する。 提案手法とその最適化は,実際の繰り返しデータ転送ルーチンを再現するuiログを用いて評価される。

Robotic Process Automation (RPA) is a technology for automating repetitive routines consisting of sequences of user interactions with one or more applications. In order to fully exploit the opportunities opened by RPA, companies need to discover which specific routines may be automated, and how. In this setting, this paper addresses the problem of analyzing User Interaction (UI) logs in order to discover routines where a user transfers data from one spreadsheet or (Web) form to another. The paper maps this problem to that of discovering data transformations by example - a problem for which several techniques are available. The paper shows that a naive application of a state-of-the-art technique for data transformation discovery is computationally inefficient. Accordingly, the paper proposes two optimizations that take advantage of the information in the UI log and the fact that data transfers across applications typically involve copying alphabetic and numeric tokens separately. The proposed approach and its optimizations are evaluated using UI logs that replicate a real-life repetitive data transfer routine.
翻訳日:2023-01-14 17:45:56 公開日:2020-01-03
# ファジィ数を用いた非単調推論の不確かさと不整合のモデル化

Modeling Uncertainty and Imprecision in Nonmonotonic Reasoning using Fuzzy Numbers ( http://arxiv.org/abs/2001.01781v1 )

ライセンス: Link先を確認
Sandip Paul, Kumar Sankar Ray and Diganta Saha(参考訳) 推論の不確実性に対処するため、間隔値論理を開発した。 しかし、一様間隔は、その間隔の異なる値に対する信念の程度の違いを捉えることができない。 問題を救うために、三角および台形ファジィ数を伝統的な間隔とともに真理値の集合として用いる。 事前順序に基づく真理と知識順序は、$[0,1]$で定義されるファジィ数の集合上で定義される。 この拡張されたエピステミック状態に基づいて、適切に定義された論理的結合を持つ解集合フレームワークが開発された。 この種のフレームワークは、ルールが例外を課す可能性のある非単調な環境下で、曖昧で不確実な情報を持つ知識表現や推論において効率的である。

To deal with uncertainty in reasoning, interval-valued logic has been developed. But uniform intervals cannot capture the difference in degrees of belief for different values in the interval. To salvage the problem triangular and trapezoidal fuzzy numbers are used as the set of truth values along with traditional intervals. Preorder-based truth and knowledge ordering are defined over the set of fuzzy numbers defined over $[0,1]$. Based on this enhanced set of epistemic states, an answer set framework is developed, with properly defined logical connectives. This type of framework is efficient in knowledge representation and reasoning with vague and uncertain information under nonmonotonic environment where rules may posses exceptions.
翻訳日:2023-01-14 17:45:39 公開日:2020-01-03
# 1xn量子鍵分散ネットワークシステムにおけるサブnsタイミング分解能を持つユーザ非依存光路長補償方式

User-independent optical path length compensation scheme with sub-ns timing resolution for 1xN quantum key distribution network system ( http://arxiv.org/abs/2001.00757v1 )

ライセンス: Link先を確認
Byung Kwon Park, Min Ki Woo, Yong-Su Kim, Young-Wook Cho, Sung Moon, and Sang-Wook Han(参考訳) 量子鍵分散(QKD)ネットワークはセキュア通信のための有望なソリューションである。 従来のQKD以外にも,サブns分解能光路長補償方式を用いた1xNQKDネットワークシステムを開発した。 1x64QKDネットワークシステムにおいて,実用的なプラグアンドプレイQKDアーキテクチャとフィールドプログラマブルゲートアレイ(FPGA)に基づくタイミング制御モジュールを用いて長期安定動作を実現した。 このアーキテクチャを使うことで、64ユーザは、複雑なソフトウェアアルゴリズムと高価なハードウェアを使わずに、秘密鍵を1つのサーバと同時に共有できる。 大都市圏のファイバネットワークを用いた1x4QKDネットワークシステムの構築を実演した。

Quantum key distribution (QKD) networks constitute promising solutions for secure communication. Beyond conventional point-to-point QKD, we developed 1xN QKD network systems with a sub-ns resolution optical path length compensation scheme. With a practical plug-and-play QKD architecture and compact timing control modules based on a field programmable gate array (FPGA), we achieved long term stable operation of a 1x64 QKD network system. Using this architecture, 64 users can simultaneously share secret keys with one server, without using complex software algorithms and expensive hardware. We demonstrated the working of a 1x4 QKD network system using the fiber network of a metropolitan area.
翻訳日:2023-01-14 17:44:29 公開日:2020-01-03
# ランダム森林における失神症・疫学不確かさ

Aleatoric and Epistemic Uncertainty with Random Forests ( http://arxiv.org/abs/2001.00893v1 )

ライセンス: Link先を確認
Mohammad Hossein Shaker and Eyke H\"ullermeier(参考訳) 実用アプリケーションにおける機械学習の関連性は着実に増加しており、その多くは安全要件が伴っているため、不確実性の概念はここ数年で機械学習研究に注目が集まっている。 特に、2つの重要な不確かさを区別するという考えは、しばしばアレエータ型と認識型と呼ばれ、最近は教師付き学習の設定で研究されている。 本稿では,これらの不確かさをランダムな森林で定量化することを提案する。 より具体的には、予測における学習者の失語症およびてんかんの不確実性を測定するための2つの一般的なアプローチが、分類設定における学習アルゴリズムとして決定木やランダム森林を用いてインスタンス化されることを示す。 この点に関しても、同様の目的で使用されている深層ニューラルネットワークとランダムな森林を比較する。

Due to the steadily increasing relevance of machine learning for practical applications, many of which are coming with safety requirements, the notion of uncertainty has received increasing attention in machine learning research in the last couple of years. In particular, the idea of distinguishing between two important types of uncertainty, often refereed to as aleatoric and epistemic, has recently been studied in the setting of supervised learning. In this paper, we propose to quantify these uncertainties with random forests. More specifically, we show how two general approaches for measuring the learner's aleatoric and epistemic uncertainty in a prediction can be instantiated with decision trees and random forests as learning algorithms in a classification setting. In this regard, we also compare random forests with deep neural networks, which have been used for a similar purpose.
翻訳日:2023-01-14 17:38:35 公開日:2020-01-03
# 細胞型同定とキャラクタリゼーションのためのシングルセルRNA-seqデータクラスタリングの検討

Review of Single-cell RNA-seq Data Clustering for Cell Type Identification and Characterization ( http://arxiv.org/abs/2001.01006v1 )

ライセンス: Link先を確認
Shixiong Zhang, Xiangtao Li, Qiuzhen Lin, and Ka-Chun Wong(参考訳) 近年, シングルセルRNA-seq技術の進歩により, シングルセル解像度での大規模転写プロファイリングが可能となった。 データクラスタリングのような教師なし学習は、新しい細胞タイプや遺伝子発現パターンを識別し特徴付ける中心的な要素となっている。 本研究では,既存の単細胞rna-seqデータクラスタリング手法について,その利点と限界について考察する。 さらに, 品質制御や正規化, 次元削減など, 上流のシングルセルRNA-seqデータ処理技術についても検討した。 そこで本研究では,2つの単一セルRNA-seqクラスタリング手法の性能比較実験を行った。

In recent years, the advances in single-cell RNA-seq techniques have enabled us to perform large-scale transcriptomic profiling at single-cell resolution in a high-throughput manner. Unsupervised learning such as data clustering has become the central component to identify and characterize novel cell types and gene expression patterns. In this study, we review the existing single-cell RNA-seq data clustering methods with critical insights into the related advantages and limitations. In addition, we also review the upstream single-cell RNA-seq data processing techniques such as quality control, normalization, and dimension reduction. We conduct performance comparison experiments to evaluate several popular single-cell RNA-seq clustering approaches on two single-cell transcriptomic datasets.
翻訳日:2023-01-14 17:36:38 公開日:2020-01-03
# 単平面(単平面)と双平面(双平面)x線透視における決定論的誤差のロバスト自己教師あり学習

Robust Self-Supervised Learning of Deterministic Errors in Single-Plane (Monoplanar) and Dual-Plane (Biplanar) X-ray Fluoroscopy ( http://arxiv.org/abs/2001.00686v1 )

ライセンス: Link先を確認
Jacky C.K. Chow, Steven K. Boyd, Derek D. Lichti and Janet L. Ronsky(参考訳) ビデオフレームレートでX線像を撮影する蛍光画像は、血管外科医や介入放射線技師によるカテーテル挿入を導くのに有利である。 ダイナミックな動きを非侵襲的に可視化することで、複雑な手術を患者に対してより少ない外傷で行うことができる。 外科的精度を向上させるために、血管内手術は校正によるより正確な蛍光データから恩恵を受けることができる。 本稿では,単平面および双平面蛍光法に適したロバスト自己校正アルゴリズムを提案する。 フルオロスコープで3次元(3D)ターゲットフィールドを強力な幾何学的ネットワーク構成で撮像した。 学生t確率分布関数の確率を最大化することにより,ターゲットの未知の3次元位置と蛍光ポーズを同時に推定した。 次に、滑らかなk-ネアレスト近傍(knn)回帰を用いて、ロバストバンドル調整の像再投影誤差の決定論的成分をモデル化する。 最大類似度推定ステップとkNN回帰ステップは、収束するまで反復的に繰り返される。 トレーニング画像の量を変えながら、4つの異なる誤差モデリングスキームを比較した。 その結果,スムーズドkn回帰を用いることで,小型のトレーニングデータセットを用いて,人間専門家と同様の精度で蛍光検査における系統的誤りを自動的にモデル化できることが判明した。 全てのトレーニング画像を使用すると、3dマッピングの誤差は 0.61-0.83 mm から 0.04 mm に減らされ(94.2-95.7%改善)、2d再投影誤差は 1.17-1.31 から 0.20-0.21 ピクセルに減らされた(83.2-83.8%改善)。 両平面蛍光法を用いると、システムの3次元計測精度は 0.60 mm から 0.32 mm (47.2% 改善) に向上した。

Fluoroscopic imaging that captures X-ray images at video framerates is advantageous for guiding catheter insertions by vascular surgeons and interventional radiologists. Visualizing the dynamical movements non-invasively allows complex surgical procedures to be performed with less trauma to the patient. To improve surgical precision, endovascular procedures can benefit from more accurate fluoroscopy data via calibration. This paper presents a robust self-calibration algorithm suitable for single-plane and dual-plane fluoroscopy. A three-dimensional (3D) target field was imaged by the fluoroscope in a strong geometric network configuration. The unknown 3D positions of targets and the fluoroscope pose were estimated simultaneously by maximizing the likelihood of the Student-t probability distribution function. A smoothed k-nearest neighbour (kNN) regression is then used to model the deterministic component of the image reprojection error of the robust bundle adjustment. The Maximum Likelihood Estimation step and the kNN regression step are then repeated iteratively until convergence. Four different error modeling schemes were compared while varying the quantity of training images. It was found that using a smoothed kNN regression can automatically model the systematic errors in fluoroscopy with similar accuracy as a human expert using a small training dataset. When all training images were used, the 3D mapping error was reduced from 0.61-0.83 mm to 0.04 mm post-calibration (94.2-95.7% improvement), and the 2D reprojection error was reduced from 1.17-1.31 to 0.20-0.21 pixels (83.2-83.8% improvement). When using biplanar fluoroscopy, the 3D measurement accuracy of the system improved from 0.60 mm to 0.32 mm (47.2% improvement).
翻訳日:2023-01-14 17:36:26 公開日:2020-01-03
# クラスタカウントのための量子干渉

Quantum Interference for Counting Clusters ( http://arxiv.org/abs/2001.04251v1 )

ライセンス: Link先を確認
Rohit R Muthyala, Davi Geiger, Zvi M. Kedem(参考訳) クラスタ数を数えると、これらのクラスタが著しく重なると、機械学習では難しい問題になる。 我々は、経路積分法を用いて定式化された純粋数理量子論が、非物理学的モデリングに適用されると、自然に統計的である非物理学的量子論に繋がると主張する。 量子論は、重なり合うクラスターを数えるためにデータを分離するより強固な統計理論であることを示す。 この理論はデータシミュレーションからも確認されており、量子理論がクラスターを数えるのにどのように有効かを特定し、そのような手法をさらに応用するようフィールドを刺激することを望んでいる。

Counting the number of clusters, when these clusters overlap significantly is a challenging problem in machine learning. We argue that a purely mathematical quantum theory, formulated using the path integral technique, when applied to non-physics modeling leads to non-physics quantum theories that are statistical in nature. We show that a quantum theory can be a more robust statistical theory to separate data to count overlapping clusters. The theory is also confirmed from data simulations.This works identify how quantum theory can be effective in counting clusters and hope to inspire the field to further apply such techniques.
翻訳日:2023-01-14 17:29:06 公開日:2020-01-03
# 「愛は数学と同じくらい複雑」:社会チャットボットのためのメタファー生成システム

"Love is as Complex as Math": Metaphor Generation System for Social Chatbot ( http://arxiv.org/abs/2001.00733v1 )

ライセンス: Link先を確認
Danning Zheng, Ruihua Song, Tianran Hu, Hao Fu, Jin Zhou(参考訳) 人間の日常生活でインテリジェントなチャットボットが広く採用されるにつれて、このようなシステムに対するユーザの要求は、基本的なタスク解決会話から、カジュアルでフレンドライクなコミュニケーションへと進化する。 ユーザのニーズを満たし、ユーザとの感情的な結びつきを構築するためには、ソーシャルチャットボットがより人間らしく高度な言語機能を組み込むことが不可欠である。 本稿では,ソーシャルチャットボットの比喩として,人間による一般的な修辞装置の使用について検討する。 本研究はまず,話題認識と新しい表現文を生成するメタファ生成フレームワークを設計する。 フレームワークをチャットボットシステムに埋め込むことで、図形言語を使ってチャットボットがユーザとコミュニケーションできるようになる。 人間のアノテーションは生成されたメタファーの新規性と適切性を検証する。 さらに,人間のチャットボット会話におけるメタファーの活用の効果を評価する。 実験の結果,このシステムはチャットボットとのコミュニケーションにおけるユーザの関心を効果的に喚起し,人間とチャットボットの会話がかなり長くなることがわかった。

As the wide adoption of intelligent chatbot in human daily life, user demands for such systems evolve from basic task-solving conversations to more casual and friend-like communication. To meet the user needs and build emotional bond with users, it is essential for social chatbots to incorporate more human-like and advanced linguistic features. In this paper, we investigate the usage of a commonly used rhetorical device by human -- metaphor for social chatbot. Our work first designs a metaphor generation framework, which generates topic-aware and novel figurative sentences. By embedding the framework into a chatbot system, we then enables the chatbot to communicate with users using figurative language. Human annotators validate the novelty and properness of the generated metaphors. More importantly, we evaluate the effects of employing metaphors in human-chatbot conversations. Experiments indicate that our system effectively arouses user interests in communicating with our chatbot, resulting in significantly longer human-chatbot conversations.
翻訳日:2023-01-14 17:28:22 公開日:2020-01-03
# 密度行列の更新の意味

Meaning updating of density matrices ( http://arxiv.org/abs/2001.00862v1 )

ライセンス: Link先を確認
Bob Coecke and Konstantinos Meichanetzidis(参考訳) 自然言語の意味のDisCoCatモデルは、与えられた文に意味を割り当てます。 (i)その語の意味、及び (ii)文法構造 最近導入されたDisCoCircモデルは、これを複数の文からなるテキストに拡張する。 DisCoCatではすべての意味が固定されているが、DisCoCircでは各文が単語の意味を更新する。 本稿では、密度行列に意味がエンコードされている場合において、DisCoCircの異なる更新メカニズムについて検討する。 私たちの出発点は、LeiferとSpekkensから量子基礎研究から借りた2つの非可換更新メカニズムです。 残念ながら、これらのどちらも望ましい代数的性質を満足せず、意味圏の内部でもない。 二重密度行列に渡すことで、エレガントな内部ダイアグラム更新メカニズムが得られる。 また,(可換な)クモをleifer-spekkens更新機構のインスタンスとしてキャストできることを示した。 この結果は、CQM(Categorical Quantum Mechanics)における研究と条件量子状態に関する研究を橋渡しする量子基礎への関心である。 また,量子ハードウェア (qnlp) 上でのテキストレベルの自然言語処理の実装を基礎として,指数空間ゲインと二次速度アップの同定を行った。

The DisCoCat model of natural language meaning assigns meaning to a sentence given: (i) the meanings of its words, and, (ii) its grammatical structure. The recently introduced DisCoCirc model extends this to text consisting of multiple sentences. While in DisCoCat all meanings are fixed, in DisCoCirc each sentence updates meanings of words. In this paper we explore different update mechanisms for DisCoCirc, in the case where meaning is encoded in density matrices---which come with several advantages as compared to vectors. Our starting point are two non-commutative update mechanisms, borrowing one from quantum foundations research, from Leifer and Spekkens. Unfortunately, neither of these satisfies any desirable algebraic properties, nor are internal to the meaning category. By passing to double density matrices we do get an elegant internal diagrammatic update mechanism. We also show that (commutative) spiders can be cast as an instance of the Leifer-Spekkens update mechanism. This result is of interest to quantum foundations, as it bridges the work in Categorical Quantum Mechanics (CQM) with that on conditional quantum states. Our work also underpins implementation of text-level natural language processing on quantum hardware (a.k.a. QNLP), for which exponential space-gain and quadratic speed-up have previously been identified.
翻訳日:2023-01-14 17:28:06 公開日:2020-01-03
# 観光コーパスのための名前付きエンティティに基づく情報抽出

Information Extraction based on Named Entity for Tourism Corpus ( http://arxiv.org/abs/2001.01588v1 )

ライセンス: Link先を確認
Chantana Chantrapornchai, Aphisit Tunsakul(参考訳) 現在、観光情報が散在している。 情報を探すのには通常、検索エンジンの検索結果を閲覧し、各宿泊施設の詳細を選択して見るのに時間がかかる。 本稿では,検索エンジンから返される全文から特定の情報を抽出し,ユーザを支援する手法を提案する。 次に、ユーザーは特に所望の関連情報を見ることができる。 このアプローチは他のドメインで同じタスクに使用できる。 主なステップは 1)建築訓練データ及び 2)建物認識モデル。 まず観光データが収集され、語彙が構築される。 rawコーパスは、語彙埋め込みを作成するためのトレーニングに使用される。 また、アノテーション付きデータの作成にも使われる。 名前付きエンティティアノテーションを作成するプロセスが提示されます。 そして、所定のエンティティタイプの認識モデルを構築することができる。 実験から、ホテルの説明が与えられた場合、モデルは所望の実体、すなわち名前、場所、施設を抽出することができる。 抽出されたデータは、将来的なクエリや推論のために、オントロジーフォーマットなどの構造化情報として格納することもできる。 機械学習に基づく自動名前付きエンティティ識別モデルでは、エラーは8%から25%の範囲で発生する。

Tourism information is scattered around nowadays. To search for the information, it is usually time consuming to browse through the results from search engine, select and view the details of each accommodation. In this paper, we present a methodology to extract particular information from full text returned from the search engine to facilitate the users. Then, the users can specifically look to the desired relevant information. The approach can be used for the same task in other domains. The main steps are 1) building training data and 2) building recognition model. First, the tourism data is gathered and the vocabularies are built. The raw corpus is used to train for creating vocabulary embedding. Also, it is used for creating annotated data. The process of creating named entity annotation is presented. Then, the recognition model of a given entity type can be built. From the experiments, given hotel description, the model can extract the desired entity,i.e, name, location, facility. The extracted data can further be stored as a structured information, e.g., in the ontology format, for future querying and inference. The model for automatic named entity identification, based on machine learning, yields the error ranging 8%-25%.
翻訳日:2023-01-14 17:27:46 公開日:2020-01-03
# フラクショナルスキッピング:Finer-Grained Dynamic CNN推論に向けて

Fractional Skipping: Towards Finer-Grained Dynamic CNN Inference ( http://arxiv.org/abs/2001.00705v1 )

ライセンス: Link先を確認
Jianghao Shen, Yonggan Fu, Yue Wang, Pengfei Xu, Zhangyang Wang, Yingyan Lin(参考訳) 最先端のネットワークはいまだに最先端の性能を達成するために望まれているが、多くの特定の入力に対して、より単純なネットワークはすでに十分であるかもしれない。 既存の研究は、入力に依存した方法で畳み込み層をスキップする学習によって、この観察を生かした。 しかし、その二分決定スキーム、すなわち、特定の入力のために1つの層を完全に実行するか完全にバイパスするかは、よりきめ細かい「より柔らかい」決定を導入することで強化できると主張する。 そこで我々は,DFS(Dynamic Fractional Skipping)フレームワークを提案する。 dfsの核となる考え方は、層間の量子化(異なるビット幅)を、層を十分に活用してスキップする中間の「ソフト」選択として仮定することである。 各入力に対して、DFSは各レイヤの重みとアクティベーションの両方にビット幅を動的に割り当て、完全な実行とスキップを2つの"エクストリーム"(フルビット幅とゼロビット幅)と見なすことができる。 このようにして、DFSは入力適応推論中に層の表現力を利用することができ、よりきめ細かい精度計算のコストトレードオフを可能にする。 入力適応層スキップと入力適応ハイブリッド量子化をリンクする統一ビューを提供する。 広範な実験結果から,dfsによる計算コストとモデル表現力(精度)のトレードオフが得られた。 さらなる可視化は、DSFの挙動のスムーズで一貫した遷移を示し、特に、総計算予算が異なる場合、層スキップと異なる量子化の間の学習された選択が示され、層の量子化は層スキップの中間変種と見なせるという仮説が検証された。 我々のソースコードと補足資料は \link{https://github.com/Torment123/DFS} で入手できる。

While increasingly deep networks are still in general desired for achieving state-of-the-art performance, for many specific inputs a simpler network might already suffice. Existing works exploited this observation by learning to skip convolutional layers in an input-dependent manner. However, we argue their binary decision scheme, i.e., either fully executing or completely bypassing one layer for a specific input, can be enhanced by introducing finer-grained, "softer" decisions. We therefore propose a Dynamic Fractional Skipping (DFS) framework. The core idea of DFS is to hypothesize layer-wise quantization (to different bitwidths) as intermediate "soft" choices to be made between fully utilizing and skipping a layer. For each input, DFS dynamically assigns a bitwidth to both weights and activations of each layer, where fully executing and skipping could be viewed as two "extremes" (i.e., full bitwidth and zero bitwidth). In this way, DFS can "fractionally" exploit a layer's expressive power during input-adaptive inference, enabling finer-grained accuracy-computational cost trade-offs. It presents a unified view to link input-adaptive layer skipping and input-adaptive hybrid quantization. Extensive experimental results demonstrate the superior tradeoff between computational cost and model expressive power (accuracy) achieved by DFS. More visualizations also indicate a smooth and consistent transition in the DFS behaviors, especially the learned choices between layer skipping and different quantizations when the total computational budgets vary, validating our hypothesis that layer quantization could be viewed as intermediate variants of layer skipping. Our source code and supplementary material are available at \link{https://github.com/Torment123/DFS}.
翻訳日:2023-01-14 17:27:16 公開日:2020-01-03
# 自動関係メタラーニング

Automated Relational Meta-learning ( http://arxiv.org/abs/2001.00745v1 )

ライセンス: Link先を確認
Huaxiu Yao, Xian Wu, Zhiqiang Tao, Yaliang Li, Bolin Ding, Ruirui Li, Zhenhui Li(参考訳) 新しいタスクで少量のデータで効率的に学習するために、メタラーニングは以前のタスクから学んだ知識を新しいタスクに転送する。 しかしながら、メタラーニングにおける重要な課題は、伝統的なグローバル共有メタラーニング手法ではうまく処理できないタスクの不均一性である。 さらに、現在のタスク固有のメタ学習手法は、手作りの構造設計に苦しむか、タスク間の複雑な関係を捉える能力に欠ける可能性がある。 本稿では,知識ベースにおける知識の組織化を動機として,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタラーニング(ARML)フレームワークを提案する。 新しいタスクが到着すると、最も関連性の高い構造を見つけ、学習した構造知識をメタラーナーに合わせることができる。 その結果,学習したメタ知識グラフによるタスクの不均一性の問題に対処するだけでなく,モデルの解釈可能性も向上することがわかった。 我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。

In order to efficiently learn with small amount of data on new tasks, meta-learning transfers knowledge learned from previous tasks to the new ones. However, a critical challenge in meta-learning is the task heterogeneity which cannot be well handled by traditional globally shared meta-learning methods. In addition, current task-specific meta-learning methods may either suffer from hand-crafted structure design or lack the capability to capture complex relations between tasks. In this paper, motivated by the way of knowledge organization in knowledge bases, we propose an automated relational meta-learning (ARML) framework that automatically extracts the cross-task relations and constructs the meta-knowledge graph. When a new task arrives, it can quickly find the most relevant structure and tailor the learned structure knowledge to the meta-learner. As a result, the proposed framework not only addresses the challenge of task heterogeneity by a learned meta-knowledge graph, but also increases the model interpretability. We conduct extensive experiments on 2D toy regression and few-shot image classification and the results demonstrate the superiority of ARML over state-of-the-art baselines.
翻訳日:2023-01-14 17:26:31 公開日:2020-01-03
# 教師なし・強化型深層学習を用いた無線システムの最適化

Optimizing Wireless Systems Using Unsupervised and Reinforced-Unsupervised Deep Learning ( http://arxiv.org/abs/2001.00784v1 )

ライセンス: Link先を確認
Dong Liu, Chengjian Sun, Chenyang Yang, Lajos Hanzo(参考訳) 無線ネットワークにおけるリソース割り当てとトランシーバは、通常、変数や関数最適化として定式化できる特定の制約に基づく最適化問題を解決することによって設計される。 変数最適化問題の目的関数と制約関数が導出可能であれば、最適解を求めるために標準数値アルゴリズムを適用することができるが、変数の次元が高い場合は高い計算コストがかかる。 オンライン計算の複雑さを低減するために、ディープニューラルネットワーク(DNN)による環境状態の関数として最適解を学ぶことが効果的なアプローチである。 dnnは最適解の監督の下で訓練することができるが、モデル無しのシナリオや最適解を得るのが難しい機能最適化には適用できない。 目的関数と制約関数が利用できない場合、強化学習を適用して機能最適化問題の解を求めることができるが、無線ネットワークの最適化問題には適さない。 本稿では,最適解の監督を伴わずに,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。 環境の数学的モデルが完全に知られ、環境の状態の分布が不明である場合、教師なし学習アルゴリズムを起動することができる。 環境の数学的モデルが不完全である場合、環境と相互作用してモデルを学ぶ強化教師なし学習アルゴリズムを導入する。 シミュレーションの結果,ユーザ関連問題を例に挙げて,これらの学習フレームワークの適用性を確認した。

Resource allocation and transceivers in wireless networks are usually designed by solving optimization problems subject to specific constraints, which can be formulated as variable or functional optimization. If the objective and constraint functions of a variable optimization problem can be derived, standard numerical algorithms can be applied for finding the optimal solution, which however incur high computational cost when the dimension of the variable is high. To reduce the on-line computational complexity, learning the optimal solution as a function of the environment's status by deep neural networks (DNNs) is an effective approach. DNNs can be trained under the supervision of optimal solutions, which however, is not applicable to the scenarios without models or for functional optimization where the optimal solutions are hard to obtain. If the objective and constraint functions are unavailable, reinforcement learning can be applied to find the solution of a functional optimization problem, which is however not tailored to optimization problems in wireless networks. In this article, we introduce unsupervised and reinforced-unsupervised learning frameworks for solving both variable and functional optimization problems without the supervision of the optimal solutions. When the mathematical model of the environment is completely known and the distribution of environment's status is known or unknown, we can invoke unsupervised learning algorithm. When the mathematical model of the environment is incomplete, we introduce reinforced-unsupervised learning algorithms that learn the model by interacting with the environment. Our simulation results confirm the applicability of these learning frameworks by taking a user association problem as an example.
翻訳日:2023-01-14 17:26:11 公開日:2020-01-03
# 衛星画像の発見可能性:良い文は数千枚の写真である

Discoverability in Satellite Imagery: A Good Sentence is Worth a Thousand Pictures ( http://arxiv.org/abs/2001.05839v1 )

ライセンス: Link先を確認
David Noever, Wes Regian, Matt Ciolino, Josh Kalin, Dom Hambrick, Kaye Blankenship(参考訳) 小さな衛星コンステレーションは地球の陸地を毎日カバーしているが、画像エンリッチメントは変化検出や特徴検索といった重要なタスクの自動化に依存している。 例えば、生のピクセルからテキストアノテーションを抽出するには、2つの依存する機械学習モデルが必要であり、1つはオーバーヘッド画像を分析し、もう1つは記述的なキャプションを生成する。 衛星画像キャプションの過去最大のベンチマークで7つのモデルを評価した。 ラベル付き画像サンプルを5倍に拡張し,次に語彙を拡大,修正し,大まかなmin-max(最小語,最大記述)にアプローチする。 この結果は、事前訓練された大規模な画像モデルによる以前の研究と好意的に比較できるが、全体的な精度を犠牲にすることなく、100倍のモデルサイズの縮小をもたらす(ログエントロピー損失で測定した場合)。 これらの小型モデルは、特にエッジプロセッサ、オンボード衛星、あるいは分散地上ステーションにプッシュされた場合、新しい展開機会を提供する。 キャプションの記述性を定量化するために,人間のラベル付きテストデータと,境界ボックス検出を含むが文全文を欠いたラベルなし画像の両方をスコアする,新しいマルチクラス混乱行列を導入する。 この研究は、将来のキャプション戦略、特に土地利用アプリケーションを超えてクラスカバレッジを豊かにし、色中心および隣接形容詞を小さくする("green", "near", "between"など)ことを示唆している。 多くの現代言語トランスフォーマーは、その広大なオンラインコーパスから訓練を受け、世界的知識を持つ、斬新で活用可能なモデルを提示している。 興味深いが簡単な例の1つは、風と波の間の単語の関連を学習することで、テキストの注釈なしで生のピクセルからアクセス可能な色記述以上のビーチシーンを豊かにする。

Small satellite constellations provide daily global coverage of the earth's landmass, but image enrichment relies on automating key tasks like change detection or feature searches. For example, to extract text annotations from raw pixels requires two dependent machine learning models, one to analyze the overhead image and the other to generate a descriptive caption. We evaluate seven models on the previously largest benchmark for satellite image captions. We extend the labeled image samples five-fold, then augment, correct and prune the vocabulary to approach a rough min-max (minimum word, maximum description). This outcome compares favorably to previous work with large pre-trained image models but offers a hundred-fold reduction in model size without sacrificing overall accuracy (when measured with log entropy loss). These smaller models provide new deployment opportunities, particularly when pushed to edge processors, on-board satellites, or distributed ground stations. To quantify a caption's descriptiveness, we introduce a novel multi-class confusion or error matrix to score both human-labeled test data and never-labeled images that include bounding box detection but lack full sentence captions. This work suggests future captioning strategies, particularly ones that can enrich the class coverage beyond land use applications and that lessen color-centered and adjacency adjectives ("green", "near", "between", etc.). Many modern language transformers present novel and exploitable models with world knowledge gleaned from training from their vast online corpus. One interesting, but easy example might learn the word association between wind and waves, thus enriching a beach scene with more than just color descriptions that otherwise might be accessed from raw pixels without text annotation.
翻訳日:2023-01-14 17:20:21 公開日:2020-01-03
# 質問タイプ分類法の比較

Question Type Classification Methods Comparison ( http://arxiv.org/abs/2001.00571v1 )

ライセンス: Link先を確認
Tamirlan Seidakhmetov(参考訳) 本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。 すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。 最適な精度は、5つの畳み込み層と様々なカーネルサイズが並列に積み重なり、1つの完全連結層を持つcnnモデルを用いて達成される。 モデルはtrac 10テストセットで90.7%の精度に達した。 本稿ではPyTorchのスクラッチから,信頼性の高いオープンソース実装に基づくモデルアーキテクチャを開発した。

The paper presents a comparative study of state-of-the-art approaches for question classification task: Logistic Regression, Convolutional Neural Networks (CNN), Long Short-Term Memory Network (LSTM) and Quasi-Recurrent Neural Networks (QRNN). All models use pre-trained GLoVe word embeddings and trained on human-labeled data. The best accuracy is achieved using CNN model with five convolutional layers and various kernel sizes stacked in parallel, followed by one fully connected layer. The model reached 90.7% accuracy on TREC 10 test set. All the model architectures in this paper were developed from scratch on PyTorch, in few cases based on reliable open-source implementation.
翻訳日:2023-01-14 17:19:35 公開日:2020-01-03
# 事前学習型言語モデルの可読性について

On the comparability of Pre-trained Language Models ( http://arxiv.org/abs/2001.00781v1 )

ライセンス: Link先を確認
Matthias A{\ss}enmacher, Christian Heumann(参考訳) 教師なし表現学習の最近の進歩は、NLPにおける伝達学習の概念を確立した。 より精巧なアーキテクチャは、コンテキスト情報をよりよく活用しています。 静的事前訓練された表現を単にプラグインする代わりに、これらはよりインテリジェントに設計された言語モデリングの目的を持つエンドツーエンドのトレーニング可能なモデルにおいて、周囲のコンテキストに基づいて学習される。 これに伴い、より大きなコーパスは、後に教師付きタスクに微調整された自己教師付き方式で、大規模言語モデルを事前訓練するためのリソースとして使用される。 並列コンピューティングとクラウドコンピューティングの進歩により、従来確立されたモデルと同じ、あるいは短い時間で、これらのモデルをトレーニングすることが可能になった。 これらの3つの発展は、新しい最先端(SOTA)の結果において、より高頻度で明らかにされる。 これらの改善がどこから来たのかは必ずしも明確ではない。 私たちは、新しいアーキテクチャやリソースの使用に関して、過去2年間にSOTAの結果を達成した、いくつかの大きな事前訓練された言語モデルについて、明確で簡潔な概要を提供することにしました。 モデルの違いがどこにあるのかを明確にし、さらに、レキシカル/計算的改善とアーキテクチャの変更に対する単一の貢献について、ある程度の洞察を得ようとしています。 これらの貢献を定量化するつもりはなく、ベンチマーク比較の潜在的な出発点を特定するための概要だと考えています。 さらに,オープンソースと再現可能な研究の分野における改善の可能性についても,仮に指摘したい。

Recent developments in unsupervised representation learning have successfully established the concept of transfer learning in NLP. Mainly three forces are driving the improvements in this area of research: More elaborated architectures are making better use of contextual information. Instead of simply plugging in static pre-trained representations, these are learned based on surrounding context in end-to-end trainable models with more intelligently designed language modelling objectives. Along with this, larger corpora are used as resources for pre-training large language models in a self-supervised fashion which are afterwards fine-tuned on supervised tasks. Advances in parallel computing as well as in cloud computing, made it possible to train these models with growing capacities in the same or even in shorter time than previously established models. These three developments agglomerate in new state-of-the-art (SOTA) results being revealed in a higher and higher frequency. It is not always obvious where these improvements originate from, as it is not possible to completely disentangle the contributions of the three driving forces. We set ourselves to providing a clear and concise overview on several large pre-trained language models, which achieved SOTA results in the last two years, with respect to their use of new architectures and resources. We want to clarify for the reader where the differences between the models are and we furthermore attempt to gain some insight into the single contributions of lexical/computational improvements as well as of architectural changes. We explicitly do not intend to quantify these contributions, but rather see our work as an overview in order to identify potential starting points for benchmark comparisons. Furthermore, we tentatively want to point at potential possibilities for improvement in the field of open-sourcing and reproducible research.
翻訳日:2023-01-14 17:19:17 公開日:2020-01-03
# 精密整数変換器機械翻訳モデルの学習

Learning Accurate Integer Transformer Machine-Translation Models ( http://arxiv.org/abs/2001.00926v1 )

ライセンス: Link先を確認
Ephrem Wu(参考訳) 本稿では,8ビット整数(INT8)ハードウェア行列乗算器を用いて,よりコストのかかる単一精度浮動小数点演算(FP32)ハードウェアに対して,精度の高いトランスフォーマー機械翻訳モデルを推論する手法について述べる。 85 Transformer の行列乗算を INT8 に変換し、FP32 では 133 のうち48 を許容できない精度の損失で残していたが、これらは全て INT8 に変換した。 2014年の英独翻訳タスクでテストされたINT8トランスフォーマーベースとトランスフォーマービッグモデルは、対応するFP32モデルと比較して99.3%から100%のBLEUスコアを得る。 提案手法では,既存のFP32モデルの行列乗算テンソルをすべてINT8テンソルに変換する。 このアプローチの堅牢性を示すために、INT6 Transformerモデルの結果も含む。

We describe a method for training accurate Transformer machine-translation models to run inference using 8-bit integer (INT8) hardware matrix multipliers, as opposed to the more costly single-precision floating-point (FP32) hardware. Unlike previous work, which converted only 85 Transformer matrix multiplications to INT8, leaving 48 out of 133 of them in FP32 because of unacceptable accuracy loss, we convert them all to INT8 without compromising accuracy. Tested on the newstest2014 English-to-German translation task, our INT8 Transformer Base and Transformer Big models yield BLEU scores that are 99.3% to 100% relative to those of the corresponding FP32 models. Our approach converts all matrix-multiplication tensors from an existing FP32 model into INT8 tensors by automatically making range-precision trade-offs during training. To demonstrate the robustness of this approach, we also include results from INT6 Transformer models.
翻訳日:2023-01-14 17:18:49 公開日:2020-01-03
# 実世界重量クロスエントロピー損失関数:ミスラベルのコストのモデル化

The Real-World-Weight Cross-Entropy Loss Function: Modeling the Costs of Mislabeling ( http://arxiv.org/abs/2001.00570v1 )

ライセンス: Link先を確認
Yaoshiang Ho, Samuel Wookey(参考訳) 本稿では,実世界コスト関数である分類器の適合度を測定するための新しい尺度を提案する。 この指標は、金融影響などの実世界の問題に関する情報において、正確性やF1のような他の指標がそうでないことを要因とする。 このメトリックは、ユーザにとってより直接的に解釈可能である。 この計量を最適化するために,2値および1ラベルの分類変種において実世界-重クロスエントロピー損失関数を導入する。 どちらの変種も実世界のコストを重みとして直接入力できる。 シングルラベル・マルチカテゴリ分類では、機械学習モデルのトレーニング中にラベルで重み付けされた確率的偽陽性の直接ペナル化が可能である。 損失関数の設計を二項クロスエントロピーおよびカテゴリークロスエントロピー関数、および重み付き変種と比較し、不均衡クラスから医療診断エラー、社会バイアスの強化まで、機械学習のさまざまな既知の欠点に対処するための改善の可能性について議論した。 MNISTデータセットを用いてこれらの問題をエミュレートするシナリオを作成し、新しい損失関数の実証結果を示す。 最後に, 最大確率推定に基づくこの関数の証明をスケッチし, 今後の方向性について考察する。

In this paper, we propose a new metric to measure goodness-of-fit for classifiers, the Real World Cost function. This metric factors in information about a real world problem, such as financial impact, that other measures like accuracy or F1 do not. This metric is also more directly interpretable for users. To optimize for this metric, we introduce the Real-World- Weight Crossentropy loss function, in both binary and single-label classification variants. Both variants allow direct input of real world costs as weights. For single-label, multicategory classification, our loss function also allows direct penalization of probabilistic false positives, weighted by label, during the training of a machine learning model. We compare the design of our loss function to the binary crossentropy and categorical crossentropy functions, as well as their weighted variants, to discuss the potential for improvement in handling a variety of known shortcomings of machine learning, ranging from imbalanced classes to medical diagnostic error to reinforcement of social bias. We create scenarios that emulate those issues using the MNIST data set and demonstrate empirical results of our new loss function. Finally, we sketch a proof of this function based on Maximum Likelihood Estimation and discuss future directions.
翻訳日:2023-01-14 17:18:30 公開日:2020-01-03
# 決定境界による深層学習モデルの監査とデバッグ:個人レベルおよびグループレベル分析

Auditing and Debugging Deep Learning Models via Decision Boundaries: Individual-level and Group-level Analysis ( http://arxiv.org/abs/2001.00682v1 )

ライセンス: Link先を確認
Roozbeh Yousefzadeh and Dianne P. O'Leary(参考訳) 深層学習モデルは、容易な解釈の欠如によって批判され、重要な応用への信頼性を損なう。 それにもかかわらず、それらは人間の生活に準じて、多くのアプリケーションで一貫して使われている。 したがって、そのようなモデルを説明、監査、デバッグできる計算メソッドは、非常に必要です。 ここでは、ソーシャルアプリケーションで使用される連続的な出力スコア(ソフトマックスで計算するなど)を持つディープラーニングモデルにおいて、これらの目標を達成するためにフリップポイントを用いる。 フリップポイントは、2つの出力クラスの境界上にある任意の点である: 例えば、バイナリyes/no出力を持つモデルの場合、フリップポイントは「yes」と「no」の等しいスコアを生成する入力である。 与えられた入力に最も近いフリップポイントは、モデルの分類を変えるであろう入力の変化が最小であることを明らかにするため、特に重要である。 フリップポイントは、ディープラーニング分類器の判断境界を体系的に研究することもできます。 その結果、深層モデルの決定境界に関する洞察は、非専門家が理解できる説明報告を通じて、個々のレベルでモデルの出力を明確に説明することができる。 また,グループに対するモデル行動を理解し,監査する手順も開発した。 フリップポイントは、望ましくない振る舞いを改善するために決定境界を変更するためにも使用できる。 本手法は,機械学習の社会応用で使用される標準データセットに基づくモデルをいくつか検討することで実証する。 また、特定の分類と誤分類に最も責任がある特徴を特定します。

Deep learning models have been criticized for their lack of easy interpretation, which undermines confidence in their use for important applications. Nevertheless, they are consistently utilized in many applications, consequential to humans' lives, mostly because of their better performance. Therefore, there is a great need for computational methods that can explain, audit, and debug such models. Here, we use flip points to accomplish these goals for deep learning models with continuous output scores (e.g., computed by softmax), used in social applications. A flip point is any point that lies on the boundary between two output classes: e.g. for a model with a binary yes/no output, a flip point is any input that generates equal scores for "yes" and "no". The flip point closest to a given input is of particular importance because it reveals the least changes in the input that would change a model's classification, and we show that it is the solution to a well-posed optimization problem. Flip points also enable us to systematically study the decision boundaries of a deep learning classifier. The resulting insight into the decision boundaries of a deep model can clearly explain the model's output on the individual-level, via an explanation report that is understandable by non-experts. We also develop a procedure to understand and audit model behavior towards groups of people. Flip points can also be used to alter the decision boundaries in order to improve undesirable behaviors. We demonstrate our methods by investigating several models trained on standard datasets used in social applications of machine learning. We also identify the features that are most responsible for particular classifications and misclassifications.
翻訳日:2023-01-14 17:18:07 公開日:2020-01-03
# アルゴリズム探索における分解可能な確率尺度

Decomposable Probability-of-Success Metrics in Algorithmic Search ( http://arxiv.org/abs/2001.00742v1 )

ライセンス: Link先を確認
Tyler Sam, Jake Williams, Abel Tadesse, Huey Sun, George Montanez(参考訳) これまでの研究では、アルゴリズム検索フレームワーク内で特定の成功度メトリクスを使用して、機械学習の不可能性を証明する。 しかし、この特定の成功基準は、転送学習のような他の機械学習の形式にこれらの結果を適用するのを妨げます。 本稿では,確率分布上の線形演算として表現できる探索問題に対して,分解可能なメトリクスを成功指標のカテゴリとして定義する。 任意の分解可能な計量を用いて探索の成功を測り、様々な方法で成功を束縛する定理を示し、文献におけるいくつかの既存の結果を一般化する。

Previous studies have used a specific success metric within an algorithmic search framework to prove machine learning impossibility results. However, this specific success metric prevents us from applying these results on other forms of machine learning, e.g. transfer learning. We define decomposable metrics as a category of success metrics for search problems which can be expressed as a linear operation on a probability distribution to solve this issue. Using an arbitrary decomposable metric to measure the success of a search, we demonstrate theorems which bound success in various ways, generalizing several existing results in the literature.
翻訳日:2023-01-14 17:17:40 公開日:2020-01-03
# 混合学習による教師なしドメイン適応の改善

Improve Unsupervised Domain Adaptation with Mixup Training ( http://arxiv.org/abs/2001.00677v1 )

ライセンス: Link先を確認
Shen Yan, Huan Song, Nanxiang Li, Lincan Zou, Liu Ren(参考訳) 教師なしドメイン適応は、豊富なラベルを持つ関連するソースドメインを使用して、注釈のないターゲットドメインの予測モデリングを構築するという問題を研究する。 最近の研究は、ドメイン不変の特徴を学習する一般的な敵対的アプローチは、望ましいドメイン性能を達成するには不十分であり、クラスタの仮定のような追加のトレーニング制約を導入することに留意している。 しかし、これらのアプローチはソースドメインとターゲットドメインに個別に制約を課し、それら間の重要な相互作用を無視している。 本研究では,mixup法を用いて,対象データの一般化性能に直接対処するために,ドメイン間のトレーニング制約を強制する手法を提案する。 潜在的に巨大なドメインの不一致に対処するため、我々はさらに、ドメイン間制約を容易にする機能レベルの一貫性の調整子を提案する。 ドメイン内ミックスアップとドメイン対向学習を追加する場合、画像分類と人的活動認識の両方から、いくつかの重要なタスクにおける最先端の性能を大幅に向上させる。

Unsupervised domain adaptation studies the problem of utilizing a relevant source domain with abundant labels to build predictive modeling for an unannotated target domain. Recent work observe that the popular adversarial approach of learning domain-invariant features is insufficient to achieve desirable target domain performance and thus introduce additional training constraints, e.g. cluster assumption. However, these approaches impose the constraints on source and target domains individually, ignoring the important interplay between them. In this work, we propose to enforce training constraints across domains using mixup formulation to directly address the generalization performance for target data. In order to tackle potentially huge domain discrepancy, we further propose a feature-level consistency regularizer to facilitate the inter-domain constraint. When adding intra-domain mixup and domain adversarial learning, our general framework significantly improves state-of-the-art performance on several important tasks from both image classification and human activity recognition.
翻訳日:2023-01-14 17:17:30 公開日:2020-01-03
# 粗分解能データに対する注意に基づく正規化を用いた半教師付き分類

Semi-supervised Classification using Attention-based Regularization on Coarse-resolution Data ( http://arxiv.org/abs/2001.00994v1 )

ライセンス: Link先を確認
Guruprasad Nayak, Rahul Ghosh, Xiaowei Jia, Varun Mithal, Vipin Kumar(参考訳) 多くの実世界の現象は多重解像度で観測される。 これらの現象を予測するために設計された予測モデルは、通常異なる分解能を別々に考慮する。 このアプローチは、ファインレゾリューションで予測を希望するが、利用可能なトレーニングデータが少ないアプリケーションで制限される可能性がある。 本稿では,より細かい解像度のモデル学習を支援するために,粗い解像度からの監督を活用する分類アルゴリズムを提案する。 異なる解像度は、異なるビュー間の機能の相補性を利用して両方のビューのモデルを改善するマルチビューフレームワークにおけるデータの異なるビューとしてモデル化される。 従来の多視点学習問題とは異なり、我々の場合において重要な課題は、異なるビューにまたがるインスタンス間の一対一対応が存在しないことである。 注意機構を用いて,異なる解像度でインスタンスの特徴を学習し,各解像度のインスタンス間の対応を学習することを提案する。衛星観測とテキストデータに対する感情分類を用いた都市地図作成の実世界応用実験は,提案手法の有効性を示す。

Many real-world phenomena are observed at multiple resolutions. Predictive models designed to predict these phenomena typically consider different resolutions separately. This approach might be limiting in applications where predictions are desired at fine resolutions but available training data is scarce. In this paper, we propose classification algorithms that leverage supervision from coarser resolutions to help train models on finer resolutions. The different resolutions are modeled as different views of the data in a multi-view framework that exploits the complementarity of features across different views to improve models on both views. Unlike traditional multi-view learning problems, the key challenge in our case is that there is no one-to-one correspondence between instances across different views in our case, which requires explicit modeling of the correspondence of instances across resolutions. We propose to use the features of instances at different resolutions to learn the correspondence between instances across resolutions using an attention mechanism.Experiments on the real-world application of mapping urban areas using satellite observations and sentiment classification on text data show the effectiveness of the proposed methods.
翻訳日:2023-01-14 17:17:13 公開日:2020-01-03